-
Data: 2020-11-15 06:56:09
Temat: Re: Odczyt ciśnienia - analiza obrazu
Od: "M.M." <m...@g...com> szukaj wiadomości tego autora
[ pokaż wszystkie nagłówki ]On Saturday, November 14, 2020 at 8:21:23 PM UTC+1, Mateusz Viste wrote:
> 2020-11-13 o 20:35 -0800, M.M. napisał:
> > > AI są fajne, ostatnio trochę się tym bawiłem. Nie podoba mi się
> > > jednak to, że kiedy raz zdarzy się że sieć neuronowa nie zachowa
> > > się tak, jak powinna (czy jak człowiek tego oczekuje) - to nie
> > > wiadomo ani dlaczego, ani jak to naprawić.
> >
> > Nie wiem co masz na myśli....
> Przykład: wytrenowałem sieć która ma robić "coś". Sprzedałem produkt
> przemysłowemu klientowi. Działa. Do momentu, kiedy sieć wysypała
> klientowi produkcję.
Nadal nie znam wystarczającej ilości szczegółów, ale może sieć wcześniej
dużo zarobiła, albo dużo zaoszczędziła względem alternatywnych rozwiązań, że
na pewne problemy można sobie pozwolić? Albo w ogóle nie ma lepszego
rozwiązania i trzeba z wadami sieci żyć?
> Fakt, że sieć zawiodła, to jeden problem - powiedzmy, mniejszy.
Sztuczne (a i biologiczne też) sieci neuronowe z pewnym prawdopodobieństwem dają
błędne odpowiedzi. Zwykle mam N danych uczących. Dzielimy te dane na zbiór uczący o
rozmiarze NU i testowy o rozmiarze NT. I zwykle jak sieć na zbiorze uczącym da NU
poprawnych odpowiedzi, to na NT daje mniej poprawnych. Poza tym konieczność
testowania już nam zmniejsza zbiór uczący z N do NU.
Sieci według 'mojego autorskiego' pomysłu w bardzo wstępnych testach miały mniej
tego typu problemów. Ale nie mogę ich opatentować, więc nie podaję szczegółów.
> Poważniejszy problem to wytłumaczyć klientowi
> dlaczego, oraz sprawić że więcej nie będzie.
Jeśli sieć zostanie wyuczona na danych z ostatniego wypadku, to w takiej sytuacji
tego
problemu już naprawdę nie powinno być, ale jak pisałem powyżej, sieć dająca 100%
poprawnych odpowiedzi na zbiorze uczącym, zwykle daje mniej poprawnych odpowiedzi
na zbiorze testowym.
> > Jeśli sieć da złą odpowiedź i ktoś monitoruje system, to mamy
> > dodatkowy przykład który może dorzucić do danych uczących.
> Jeden przykład chyba nie wpłynie na działanie sieci - tych przykładów
> musi być raczej dużo więcej... i uważać, aby nie "przetrenować" AI.
>
> AI to niewątpliwie ciekawy temat, ale zdecydowanie nie panaceum na
> wszystko. Jeśli potrzebny determinizm i możliwość zrozumienia dlaczego
> robot reaguje w ten a nie inny sposób - to AI odpada.
Ja też się długo (może z 20 lat) zastanawiałem dlaczego dobrze wytresowany
pies działający w oparciu o biologiczną sieci neuronową, 1000 razy na 1000 przynosi
treserowi ręcznik, gdy treser o ręcznik go prosi. Podobnie dziecko dobrze
nauczone tabliczki mnożenia 1000 razy na 1000 dobrze poda wynik. Tymczasem
sieć neuronowa zrealizowana w krzemie, jeśli ze zbioru uczącego poda 100%
poprawnych wyników, to na zbiorze testowym skuteczność spada np. do 50%.
Nie rozumiałem dlaczego sztuczna sieć musi na zbiorze uczącym mieć skuteczność
np. 95%, aby i na zbiorze testowym miał wysoką skuteczność np. 95%. No i opracowałem
perceptron wielowarstwowy według swojego pomysłu - oczywiście też ma problemy, ale
z bardzo wstępnych badań wynikło, że ma ich mniej: znacznie szybciej się uczy,
znacznie szybciej działa, niekoniecznie traci ogólność gdy na zbiorze uczącym da
100% poprawnych odpowiedzi - czyli klienta można zapewnić że - w takiej samej
sytuacji - problem się już nie powtórzy.
W przypadku moich sieci, na początku wystarczy mniej danych, np. tyle, aby zapewnić,
iż
sieć zadziała poprawnie przez godzinę. Potem dane z kraksy dodajemy do danych
uczących i
próbujemy wyuczyć ponownie. System (statystycznie) powinien pracować dłużej, a w tej
konkretnej sytuacji mamy już 100% gwarancję że sieć da poprawną odpowiedź. W
przypadku
klasycznego perceptronu wielowarstwowego nie ma takiej gwarancji, zwykle musi na
danych
uczących mieć skuteczność niecałe 100%, aby i na zbiorze testowym miał niecałe 100%.
Pozdrawiam
Następne wpisy z tego wątku
- 15.11.20 22:56 Maciej Sobczak
- 16.11.20 09:42 Mateusz Viste
- 16.11.20 10:03 Maciek Godek
- 16.11.20 13:29 M.M.
- 16.11.20 19:23 Maciek Godek
- 18.11.20 21:44 M.M.
- 18.11.20 23:10 Maciek Godek
- 19.11.20 13:30 M.M.
- 20.11.20 17:02 Maciek Godek
- 20.11.20 23:38 M.M.
- 30.11.20 08:39 M.M.
- 04.12.20 02:04 M.M.
- 04.12.20 09:49 Mateusz Viste
- 04.12.20 13:09 M.M.
- 07.12.20 08:33 M.M.
Najnowsze wątki z tej grupy
- Bibl. Qt jest sztucznie ograniczona - jest nieprzydatna do celów komercyjnych
- Co sciaga kretynow
- AEiC 2024 - Ada-Europe conference - Deadlines Approaching
- Jakie są dobre zasady programowania programów opartych na wtyczkach?
- sprawdzanie słów kluczowych dot. zła
- Re: W czym sie teraz pisze programy??
- Re: (PDF) Surgical Pathology of Non-neoplastic Gastrointestinal Diseases by Lizhi Zhang
- CfC 28th Ada-Europe Int. Conf. Reliable Software Technologies
- Młodzi programiści i tajna policja
- Ada 2022 Language Reference Manual to be Published by Springer
- Press Release - AEiC 2023, Ada-Europe Reliable Softw. Technol.
- Ada-Europe - AEiC 2023 early registration deadline approaching
- Ada-Europe Int.Conf. Reliable Software Technologies, AEiC 2023
- Ile cykli zajmuje mnożenie liczb 64-bitowych?
- Ideologia Polskiego Programisty wer.3
Najnowsze wątki
- 2024-04-29 Warszawa => Specjalista ds. Cyberbezpieczeństwa <=
- 2024-04-29 Kraków => MS Dynamics 365BC/NAV Developer <=
- 2024-04-29 Zielona Góra => Inżynier R&D Energoelektronik <=
- 2024-04-29 Warszawa => Google Ads Freelancer <=
- 2024-04-28 wymiana przewodu od licznika do mieszkania
- 2024-04-28 Lustra w maszynie ASML
- 2024-04-28 Elektryk przytarł podłogę
- 2024-04-27 Nowy, "szybki "komputer AsRock nie posiada modułu TPM
- 2024-04-27 Nowy, "szybki "komputer AsRock nie posiada modułu TPM
- 2024-04-27 Warszawa => Inżynier DevOps (projekt JP) <=
- 2024-04-27 Warszawa => Senior Account Manager (on-site) <=
- 2024-04-27 Wrocław => Dyrektor Sprzedaży (branża usług/produktów IT) <=
- 2024-04-27 Warszawa => Sales Representative for Outsourcing Services <=
- 2024-04-27 Chrzanów => Administrator i wdrożeniowiec Lotus Notes/Domino <=
- 2024-04-27 Ja pierdolę...