Tymek pisze:Skoro moje posty wykazały tak marną wiedzę

to oznacza że teorie Wojtexa były dobre.
A co za tym idzie trzeba przestawić całą dotychczasową wiedzę i podążać trendem Wojtexa.
@Tymek, ty naprawdę jesteś jakiś upośledzony.
Praktycznie od samego początku podkreślałem, że informacje, które tu przedstawiam nie są w sprzeczności z wiedzą książkową, a ty ciągle mnie obrażasz i nawet nie udowodnisz, w którym miejscu moje wypowiedzi są z czymkolwiek sprzeczne. Natomiast gdy ja zadaję proste pytania ty milczysz lub odpowiadasz tylko na pojedyncze z nich... Natomiast w obrażaniu to się nie ograniczasz.
Piszesz, że:
Tymek pisze:Nadal nie umiesz czytać ze zrozumieniem
Ale co ja mam niby rozumieć? Do czego się odnosisz? Może coś zacytuj...
Z jednej strony narzekasz, że zabiłem ciekawy wątek a z drugiej strony przez cały czas nie napisałeś praktycznie nic wartościowego...
Tymek pisze:Zdziwiło mnie to bo ja wiedzą książkową się nie zasłaniałem i takowych nie przedstawiałem jak to robił oponent
To chyba źle, że nie wskazałeś żadnego źródła potwierdzającego swoje wypowiedzi O_o
A jeśli jesteśmy już w temacie to wyjaśnij mi ten swój bełkot z ostatniego postu z przed miesiąca i łaskawie przestań szczekać a zacznij używać argumentów (daj dobry przykład i zacznij pisać merytorycznie):
Tymek pisze:Normalizacja danych wejściowych (wektorów uczących) to sprowadzenie wartości do tego samego przedziału.
A to oznacza całkiem coś innego niż ty zrozumiałeś
A co ja niby innego napisałem? Podaj mi gdzie widzisz sprzeczność?
Tymek pisze:Nie chcę mi się tłumaczyć coś komuś co i tak ten ktoś uważa że i tak wie lepiej.
Nie uważam, że wiem lepiej, ale póki co nie napisałeś nic co by mogło mnie przekonać do zmiany moich poglądów - ciągle tylko szczekasz, że się mylę, ale w żaden sposób tego nie udowadniasz!
Tymek pisze:Ale ci powiem o co biega z tą normalizacją i zakończę z tobą dyskusję bo nie jesteś nawet warty mojej uwagi.
Dzięki za ten ogromny wysiłek - 3 strony szczekania i jedno zdanie pseudo-wyjaśnienia (o czym za chwilę)
Tymek pisze:Masz wektor 1: [1.34; 1.36; 1.40; 1.39; 1.32]
Masz wektor 2: [1.24; 1.26; 1.30; 1.29; 1.22]
Najpierw może wyjaśnij: czy wektor 1 i 2 to dwie zmienne i 5 zestawów uczących czy 2 zestawy (wektory) uczące po 5 zmiennych? Pytam bo nie mam pewności względem czego ty normalizujesz...
A to ma znaczenie.
Tymek pisze: jeżeli mamy tylko 2 wektory uczące jak teraz możesz wyznaczyć
ich przestrzeń czyli są w przedziale 0.0 do 0.08
że co? Przestrzeń, przedział?! W której ty jesteś klasie?! Skąd ty wziąłeś definicję przedziału? Ale nic, ok, w obu przypadkach różnica między Max i Min to 0.08... Nie ma to nic wspólnego z przestrzenią i przedziałem, ale jeszcze do tego momentu się domyślam o co chodziło... Ale teraz rozumie dlaczego nie potrafię czytać - jak ktoś pisze o wyznaczaniu przestrzeni i nazywa różnicę przedziałem to moja wina, że się nie domyślam o co chodzi...
Tymek pisze:czyli po normalizacji będą:
1: [0.02; 0.04; 0.08; 0.07; 0.0]
2: [0.02; 0.04; 0.08; 0.07; 0.0]
Czyli takie same ...
Eureka! Jesteś genialny! Mam tylko proste pytanie skąd wziąłeś wzór na tą "normalizację"? Bo widzisz, ja kilka postów wcześniej podałem konkretne źródło (książka napisana przez profesora), gdzie jest wymienione 5 wzorów na normalizację, ale żaden z nich nie wygląda tak: Xi - Xmin

a zdaje się, że taki właśnie zastosowałeś. Mam więc ogromną prośbę o podanie jakiejś lektury (książka, praca doktorska - cokolwiek), gdzie ktoś "normalizuje" zmienne w ten sposób. No, chyba, że jesteś autorem tej wspaniałej metody - w takim razie dzięki, że ją opublikowałeś na forum!
Tymek pisze:a więc musisz sprawdzić czy odpowiedź na nie jest taka sama jak nie to nie ustabilizujesz
sieci.
Skąd zaczerpnąłeś termin "ustabilizowania sieci"? Co to w ogóle znaczy? Nawiązujesz do sieci rekurencyjnej czy modeli różniczkowych?
Tymek pisze:Tak robisz z całym zbiorem uczącym, i testowym. Dzięki normalizacji możesz określić czy twój zbiór
uczący jest prawidłowy
Czyli jeśli dobrze rozumiem to:
1. mam 100 000 danych uczących (tak wiem, że to jest niewiele, biorąc pod uwagę, że sieć tylko z 300 neuronami, wg. ciebie, może się nadawać tylko do liczenia ceny chleba w sklepie)
2. biorę pierwszy zestaw i porównuję go z pozostałymi 99 999 zestawami czy jest jakiś identyczny zestawy a jeśli tak to czy wzorzec dla niego jest taki sam, tak? Bo jeśli się różni to sieć mi zgłupieje O_o - a słyszałeś o czymś takim jak generalizacja? Celem sieci jest aproksymacja a nie znajdowanie wzoru na chaos... Przecież to normalne, że zmienne będą mogły być w niektórych sytuacjach nawet ze sobą "sprzeczne" - nic na to nie poradzisz... - jednak celem sieci jest uśrednienie wyników...
a co jeśli drugi wektor wynosiłby [0.019; 0.04; 0.08; 0.07; 0.0]? Jaka powinna być różnica we wzorcach?
3. biorę kolejny wektor i znowu porównuję go z pozostałymi 99 998 wektorami...
Ale przecież to będzie jakieś 0.5*N^2 porównań wektorów - teraz rozumiem dlaczego napisałeś o karcie graficznej i technologi CUDA.
Dla większych zestawów to nawet obecne superkomputery by nie podołały...
A może znowu coś źle "przeczytałem" i źle wydedukowałem? Chętnie się dowiem o co ci naprawdę chodziło...
Zastanawiam się również do czego była ci potrzebna w tym przykładzie normalizacja?! Czemu nie mogłeś sobie porównać dwóch oryginalnych wektorów? Co ci one przeszkadzały w oryginale?
A może tobie chodzi o grupowanie danych i sieć Kohonena?! Ale tam również normalizacja nie ma nic wspólnego z Twoim podejściem i częściej szkodzi niż pomaga...
Tymek pisze:By ci jeszcze namieszać to możesz sobie określić przedział jako -1 do 1

i wtedy musisz odpowiedni te
dane przeliczyć i te dwa wektory też będą takie same
No nie mów, że zmiana takich samych wektorów w taki sam sposób spowoduje taki sam efekt?!? Ponawiam pytanie w której ty jesteś klasie?!
Tymek pisze:Nie chce mi się tłumaczyć tobie dlaczego te wektory wyszły
takie same bo i tak zaraz mi powiesz że nie umiem całkować lub że używam jakiś tam bibliotek albo coś tam
jeszcze.
A więc piszesz coś bez wyjaśnienia argumentując, że mogę mieć jakiś argument, który podważy twoje brednie? Napisałem wcześniej o 5 wzorach na normalizację, ale naprawdę intryguje mnie skąd ty wziąłeś swój wzór tj. Xi - Xmin

mogę tylko zgadywać, że wziąłeś prawidłowy wzór (jeden z wielu) tj. (Xi - Xmin)/(Xmax - Xmin) i przez głupotę pomnożyłeś go jeszcze raz przez (Xmax - Xmin) - przez co wyszło (Xi - Xmin) - ale może da się to jakoś racjonalnie wytłumaczyć...
Piszesz takie głupoty, że do każdego zdania można się przyczepić, ale naturalnie to moja wina i to ja nie umiem czytać. Jak chcesz mnie dalej obrażać do ponawiam prośbę o argumentowanie swoich wypowiedzi - ja potrafię przyznać się do błędu i jak trzeba będzie to to zrobię. Daj mi tylko powód, by to zrobić a nie obrażasz mnie w kółko bez żadnych dowodów, że się mylę...
Tymek pisze:I teraz naprawdę koniec.
Naprawdę?