eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plGrupypl.comp.programming › wiadomo coś o wynikach?
Ilość wypowiedzi w tym wątku: 18

  • 11. Data: 2017-10-09 15:18:25
    Temat: Re: wiadomo coś o wynikach?
    Od: fir <p...@g...com>

    W dniu poniedziałek, 9 października 2017 12:33:17 UTC+2 użytkownik M.M. napisał:
    > On Monday, October 9, 2017 at 6:51:32 AM UTC+2, bartekltg wrote:
    > > Wydajność? To gdzieś w flopach podają.
    > Nie.
    >

    jak na dzisiejsze czasy i przynajmniej domowe komputery (choc pewnie do duzych tez
    sie stosuje) wydajnosc systemu oddaje duzo bardziej memory bandwidth (w GB/s) niz
    "Giga-Flopy"

    pominawszy to jesli nie jest to surowa moc to nie jestem pewien czy jest sie czym
    zachwycac

    dla mnie to co dzis jest ciekawe w programowaniu to tzw oldschoolowe rozwiazania
    czyli co nad czym sie siedzialo 1983 czy cos kolo tego - ciągle aktualne


  • 12. Data: 2017-10-09 16:46:21
    Temat: Re: wiadomo coś o wynikach?
    Od: "M.M." <m...@g...com>

    On Monday, October 9, 2017 at 3:18:26 PM UTC+2, fir wrote:
    > W dniu poniedziałek, 9 października 2017 12:33:17 UTC+2 użytkownik M.M. napisał:
    > > On Monday, October 9, 2017 at 6:51:32 AM UTC+2, bartekltg wrote:
    > > > Wydajność? To gdzieś w flopach podają.
    > > Nie.
    > >
    >
    > jak na dzisiejsze czasy i przynajmniej domowe komputery (choc pewnie do duzych tez
    sie stosuje) wydajnosc systemu oddaje duzo bardziej memory bandwidth (w GB/s) niz
    "Giga-Flopy"

    Zależy jaka jest możliwość w danym algorytmie/implementacji zapewnienia
    lokalności danych. Jeśli jeden procesor musi ściągać dane z losowego
    węzła, to nawet ten komputer za szybki nie będzie. A jeśli nie
    da się zrównoleglić danego zadania, to nawet mój laptop będzie
    szybszy.

    Pozdrawiam


  • 13. Data: 2017-10-10 04:15:04
    Temat: Re: wiadomo coś o wynikach?
    Od: bartekltg <b...@g...com>

    On Monday, October 9, 2017 at 12:33:17 PM UTC+2, M.M. wrote:
    > On Monday, October 9, 2017 at 6:51:32 AM UTC+2, bartekltg wrote:
    > > On Wednesday, October 4, 2017 at 9:39:50 PM UTC+2, M.M. wrote:
    > > > Superkomputer, obecnie TOP1.
    > > >
    > > > Według pclab używany do symulacji pogody, klimatu i innych zastosowań.
    > > > http://pclab.pl/news70290.html
    > > >
    > > > Wiadomo coś o wynikach jakie mają?
    > > Co rozumiesz przez wyniki?
    >
    > Hmmm np. wyobrażałem sobie coś takiego. Do tej pory stosowano taki i
    > taki algorytm do takich i takich symulacji. Zrobiono sto wersji
    > tego algorytmu i uruchomiono wszystkie wersje równolegle. Okazało się
    > że wersja numer 34 jest lepsza od wszystkich pozostałych, więc
    > teraz na całym świecie stosuje się wersję 34.


    Jeśli jajogłowy dostanie grant obliczeniowy na coś takiego, to czemu nie.
    Ale takie porównania często można robić albo na mniejszych danych, albo na
    relatywnie krótkim czasie obliczeń. Jak na gigabajcie '34' jest najszybsze,
    to pewnie i na 1TB będzie...
    Tylko wtedy wchodzi komunikacja między węzłami. To może oznaczac, że '37'
    jest lepszy. Ale tylko na tym klastrze, bo jest tak a tak powiązany,
    i jeśli używamy MPI od Intela, bo OpenMPI lepiej dogaduje się z '77'.
    ;-)

    A do tego można też testować inne aspekty algorytmów. W CFD schamt
    może wyprodukować poprawny przepływ, a nagle zaczać generowac bełkot.

    Z tego co wiem jadnak głowne obciążenia to nie badanie algorytmów
    a zastosowanie ich do konkretnego zagadnienia z fizyki/chemii/biologii...


    > > Co się tam robi? A wszytko się robi, możesz poczytać opisy:
    > > z ICM
    > > https://granty.icm.edu.pl/IcmGrants/displayGrant/sho
    wGrants.jsp
    > > Albo CIŚ
    > > https://www.cis.gov.pl/granty-obliczeniowe
    > Dzięki, poczytam sobie.
    >
    >
    >
    > > Teraz weźmy kolaster, na którym pracuje kilkadziesiąt razy więcej
    > > ludzi i mają razy większe wymagania. NAgle chińskie zestawy nie wydają
    > > się takie przesadne.
    > Racja, można tak porównywać.
    >
    >
    > > Pogoda... Pogoda na superkomputerach to głownie... PR. Marketing;-)
    > A tak odbiegając trochę, nie można wziąć trochę więcej pomiarów,
    > trochę lepszych algorytmów i mocniejszych komputerów, aby mieć
    > lepsze przewidywania? Przewidywanie pogody z definicji nie
    > przekroczy jakiejś skuteczności do której się już zbliżyliśmy?

    Równania na pogodę mają dodatni wykładnik Lapunowa (pomjam milczeniem
    pytanie o to, jakie modele i że one wzystkie sa uproszczeniami:).
    Niepewności stanu początkowego rosną wykładniczo z czasem, nawet
    pomijając kwestie numeryczne. W ktgórejś ksiazce Arnolda jakoś
    to na prostym modelu szacuje i wychodzi chyba ogranicenie rzędu 3
    tygodnie.


    > > ICM chciał swoją prognozę uciąć, ale połapali się, że dzięki tej prognozie
    > > w ogole ludzie o nich szłyszeli;)
    > > W artykule to samo: człowiek z ulicy zrozumie, że pogoda potrzebna,
    > To ja też się dałem nabrać na pogodę.
    >
    > > a jak mu będzie się gadało o symulowaniu fal uderzeniowych w plazmie
    > > to sie tym za bardzo nie wzruszy.
    > > Zajmuje to trochę czasu koputera, ale też nie przesadnie.
    > >
    > > > Dlaczego warto wydawać 150mln
    > > > dolarów na komputer
    > >
    > > Bo inaczej każdy będzie sobie kupował maszynki dla siebie, na wyniki będą czekać
    dłużej, a maszyny będa w wielu przypadkach 90% czasu stać nieużywane.
    > > Wsadzenie tego w kilka worków i zatrudnienie systemu kolejkowego ma prawie
    > > same zalety:
    > > -wszystko pracuje czały czas.
    > > -Możesz chwilowo użyć bardzo dużej mocy obliczeniowej.
    >
    > To jest dobre uzasadnienie w sensie kosztu alternatywnego.
    > Bardziej zastanawiałem się jakie będą zyski i z jakich obliczeń że
    > te kwoty się zwrócą.


    To jest tylko drobne przedłużenie pytania, po co finansować naukę*).
    Jeśli na nie satysfakcjonująco odpowiemy, to jedynie dopowiadamy:
    jajogłowi do skutecznej pracy potrzebują petaflopów;-)
    Sprzęt badawczy potrafiący tworzyć coś naprawdę nowego nie jest
    tani, taki ICM czy cyfronet(AGH, najsilniejszy nasz z top500, 1.6PF).

    A czy te inwestycje są takei drogie w stosunku do reszty?
    Prometeusz cyfronetu w 2014 kosztował 41 mln i wylądował ok 30
    miejsca w top500.
    Porządny mikroskop elektronowy kosztuje kilkanaście mln.
    Kilkuletni projekt średniego szczebla (grant Sonata) to większe
    kilkaset tysiecy.


    *) skoro juz o AGH było, to o ile pytanie, po co finansować
    rozwój kwantowej grawitacji pętlowej mogę zrozumieć (należy wtedy
    cierpliwie tłumaczyć;-)) to potrzeby badań technologicznych
    tłumaczyć nie trzeba. A symulacja lotu samolotu czy pracy
    silnika/turbiny są bardzo mocożerne.


    pzdr
    bartekltg


  • 14. Data: 2017-10-10 18:29:41
    Temat: Re: wiadomo coś o wynikach?
    Od: slawek <f...@f...com>

    On Sun, 8 Oct 2017 21:51:31 -0700 (PDT), bartekltg
    <b...@g...com> wrote:
    > a jak mu będzie się gadało o symulowaniu fal uderzeniowych w=
    > plazmie
    > to sie tym za bardzo nie wzruszy.


    Sorry, ale czy znasz kogoś komu te symulacje wychodzą z sensowną
    dokładnością? Tzn. symulacje fal uderzeniowych w plazmie.


  • 15. Data: 2017-10-10 23:47:04
    Temat: Re: wiadomo coś o wynikach?
    Od: "M.M." <m...@g...com>

    On Tuesday, October 10, 2017 at 4:15:05 AM UTC+2, bartekltg wrote:
    > On Monday, October 9, 2017 at 12:33:17 PM UTC+2, M.M. wrote:
    > > On Monday, October 9, 2017 at 6:51:32 AM UTC+2, bartekltg wrote:
    > > > On Wednesday, October 4, 2017 at 9:39:50 PM UTC+2, M.M. wrote:
    > > > > Superkomputer, obecnie TOP1.
    > > > >
    > > > > Według pclab używany do symulacji pogody, klimatu i innych zastosowań.
    > > > > http://pclab.pl/news70290.html
    > > > >
    > > > > Wiadomo coś o wynikach jakie mają?
    > > > Co rozumiesz przez wyniki?
    > >
    > > Hmmm np. wyobrażałem sobie coś takiego. Do tej pory stosowano taki i
    > > taki algorytm do takich i takich symulacji. Zrobiono sto wersji
    > > tego algorytmu i uruchomiono wszystkie wersje równolegle. Okazało się
    > > że wersja numer 34 jest lepsza od wszystkich pozostałych, więc
    > > teraz na całym świecie stosuje się wersję 34.
    >
    >
    > Jeśli jajogłowy dostanie grant obliczeniowy na coś takiego, to czemu nie.
    > Ale takie porównania często można robić albo na mniejszych danych, albo na
    > relatywnie krótkim czasie obliczeń. Jak na gigabajcie '34' jest najszybsze,
    > to pewnie i na 1TB będzie...
    Hmmmm w sumie dużo racji w tym jest. Chociaż jeśli skuteczność algorytmu
    zależy od danych, to trzeba zrobić np. 1000 restartów. Na 1000 rdzeniach
    wyniki będą 1000 razy szybciej.

    > Tylko wtedy wchodzi komunikacja między węzłami. To może oznaczac, że '37'
    > jest lepszy. Ale tylko na tym klastrze, bo jest tak a tak powiązany,
    > i jeśli używamy MPI od Intela, bo OpenMPI lepiej dogaduje się z '77'.
    > ;-)
    Tak, komunikacja i nie-zunifikowany-dostęp-do-pamięci to dodatkowy aspekt.



    > A do tego można też testować inne aspekty algorytmów. W CFD schamt
    > może wyprodukować poprawny przepływ, a nagle zaczać generowac bełkot.
    Hmmmm.


    > Z tego co wiem jadnak głowne obciążenia to nie badanie algorytmów
    > a zastosowanie ich do konkretnego zagadnienia z fizyki/chemii/biologii...
    W linkach które podałeś zauważyłem bardzo dużo chemii i aminokwasów.



    >
    >
    > > > Co się tam robi? A wszytko się robi, możesz poczytać opisy:
    > > > z ICM
    > > > https://granty.icm.edu.pl/IcmGrants/displayGrant/sho
    wGrants.jsp
    > > > Albo CIŚ
    > > > https://www.cis.gov.pl/granty-obliczeniowe
    > > Dzięki, poczytam sobie.
    > >
    > >
    > >
    > > > Teraz weźmy kolaster, na którym pracuje kilkadziesiąt razy więcej
    > > > ludzi i mają razy większe wymagania. NAgle chińskie zestawy nie wydają
    > > > się takie przesadne.
    > > Racja, można tak porównywać.
    > >
    > >
    > > > Pogoda... Pogoda na superkomputerach to głownie... PR. Marketing;-)
    > > A tak odbiegając trochę, nie można wziąć trochę więcej pomiarów,
    > > trochę lepszych algorytmów i mocniejszych komputerów, aby mieć
    > > lepsze przewidywania? Przewidywanie pogody z definicji nie
    > > przekroczy jakiejś skuteczności do której się już zbliżyliśmy?
    >
    > Równania na pogodę mają dodatni wykładnik Lapunowa (pomjam milczeniem
    > pytanie o to, jakie modele i że one wzystkie sa uproszczeniami:).
    > Niepewności stanu początkowego rosną wykładniczo z czasem, nawet
    > pomijając kwestie numeryczne. W ktgórejś ksiazce Arnolda jakoś
    > to na prostym modelu szacuje i wychodzi chyba ogranicenie rzędu 3
    > tygodnie.
    Hmmm 3 tygodnie to dużo. Ale to jest pewnie na zasadzie: jeśli
    weźmiemy dużo czujników, szybki komputer i nie stanie się nic
    nieprzewidywalnego(!), to najwyżej do 3 tygodni można przewidzieć.



    > > > ICM chciał swoją prognozę uciąć, ale połapali się, że dzięki tej prognozie
    > > > w ogole ludzie o nich szłyszeli;)
    > > > W artykule to samo: człowiek z ulicy zrozumie, że pogoda potrzebna,
    > > To ja też się dałem nabrać na pogodę.
    > >
    > > > a jak mu będzie się gadało o symulowaniu fal uderzeniowych w plazmie
    > > > to sie tym za bardzo nie wzruszy.
    > > > Zajmuje to trochę czasu koputera, ale też nie przesadnie.
    > > >
    > > > > Dlaczego warto wydawać 150mln
    > > > > dolarów na komputer
    > > >
    > > > Bo inaczej każdy będzie sobie kupował maszynki dla siebie, na wyniki będą
    czekać dłużej, a maszyny będa w wielu przypadkach 90% czasu stać nieużywane.
    > > > Wsadzenie tego w kilka worków i zatrudnienie systemu kolejkowego ma prawie
    > > > same zalety:
    > > > -wszystko pracuje czały czas.
    > > > -Możesz chwilowo użyć bardzo dużej mocy obliczeniowej.
    > >
    > > To jest dobre uzasadnienie w sensie kosztu alternatywnego.
    > > Bardziej zastanawiałem się jakie będą zyski i z jakich obliczeń że
    > > te kwoty się zwrócą.
    >
    >
    > To jest tylko drobne przedłużenie pytania, po co finansować naukę*).
    > Jeśli na nie satysfakcjonująco odpowiemy, to jedynie dopowiadamy:
    > jajogłowi do skutecznej pracy potrzebują petaflopów;-)
    > Sprzęt badawczy potrafiący tworzyć coś naprawdę nowego nie jest
    > tani, taki ICM czy cyfronet(AGH, najsilniejszy nasz z top500, 1.6PF).

    Gdy się nasłuchałem jak sztuczne sieci neuronowe udoskonalały procesy
    technologiczne, to wciąż się zastanawiam, czy SSN na odpowiednio
    mocnym kompie mogłyby sugerować rozsądne przepisy na technologię
    wytwarzania różnych rzeczy z nanorurek.


    > A czy te inwestycje są takei drogie w stosunku do reszty?
    > Prometeusz cyfronetu w 2014 kosztował 41 mln i wylądował ok 30
    > miejsca w top500.
    > Porządny mikroskop elektronowy kosztuje kilkanaście mln.
    > Kilkuletni projekt średniego szczebla (grant Sonata) to większe
    > kilkaset tysiecy.
    Hmmmm a teleskop jamesa webba wyniesie coś w okolicach 9mld dolarów.
    Koszt LHC jest/był niewiele mniejszy. Nie zdziwiłbym się, gdyby za
    taką kasę dało się zamówić miliard porządnych GPU, a 200mln to na
    pewno.


    > *) skoro juz o AGH było, to o ile pytanie, po co finansować
    > rozwój kwantowej grawitacji pętlowej mogę zrozumieć (należy wtedy
    > cierpliwie tłumaczyć;-)) to potrzeby badań technologicznych
    > tłumaczyć nie trzeba. A symulacja lotu samolotu czy pracy
    > silnika/turbiny są bardzo mocożerne.

    No tak, ale przy inwestycjach typu LHC, to super-komputery nie
    są takie drogie.

    Pozdrawiam


  • 16. Data: 2017-10-11 02:41:44
    Temat: Re: wiadomo coś o wynikach?
    Od: bartekltg <b...@g...com>

    On Tuesday, October 10, 2017 at 11:47:05 PM UTC+2, M.M. wrote:
    > On Tuesday, October 10, 2017 at 4:15:05 AM UTC+2, bartekltg wrote:
    > > On Monday, October 9, 2017 at 12:33:17 PM UTC+2, M.M. wrote:
    > > > On Monday, October 9, 2017 at 6:51:32 AM UTC+2, bartekltg wrote:
    >
    > Hmmmm w sumie dużo racji w tym jest. Chociaż jeśli skuteczność algorytmu
    > zależy od danych, to trzeba zrobić np. 1000 restartów. Na 1000 rdzeniach
    > wyniki będą 1000 razy szybciej.

    Czasem. Nie za często;-)
    Takie super przyszpieszenie będzie miało np całkowanie MC,
    ale już|mnożenie macierzy - nie.


    > > Tylko wtedy wchodzi komunikacja między węzłami. To może oznaczac, że '37'
    > > jest lepszy. Ale tylko na tym klastrze, bo jest tak a tak powiązany,
    > > i jeśli używamy MPI od Intela, bo OpenMPI lepiej dogaduje się z '77'.
    > > ;-)
    > Tak, komunikacja i nie-zunifikowany-dostęp-do-pamięci to dodatkowy aspekt.

    Niezunifikowana to brzmi dość niegroźnie. To sa osobne serwery, tylko
    połączone bardzo szybką siecią (CIS ma 40Gb/s infiniband, ale to potrafi
    iść znacznie wyżej).


    > W linkach które podałeś zauważyłem bardzo dużo chemii i aminokwasów.

    Je trzeba zawijać. I to nie tylko topologia/kombinatoryka, ale
    i siły między atomami. Kupa liczenia.


    > > Równania na pogodę mają dodatni wykładnik Lapunowa (pomjam milczeniem
    > > pytanie o to, jakie modele i że one wzystkie sa uproszczeniami:).
    > > Niepewności stanu początkowego rosną wykładniczo z czasem, nawet
    > > pomijając kwestie numeryczne. W ktgórejś ksiazce Arnolda jakoś
    > > to na prostym modelu szacuje i wychodzi chyba ogranicenie rzędu 3
    > > tygodnie.
    > Hmmm 3 tygodnie to dużo. Ale to jest pewnie na zasadzie: jeśli
    > weźmiemy dużo czujników, szybki komputer i nie stanie się nic
    > nieprzewidywalnego(!), to najwyżej do 3 tygodni można przewidzieć.

    Zadnej siatki, żadej skończonej liczby czujników, zad nych błedów
    numerycznych. To wynik dla samych równań. No i tych konkretnych.


    > > To jest tylko drobne przedłużenie pytania, po co finansować naukę*).
    > > Jeśli na nie satysfakcjonująco odpowiemy, to jedynie dopowiadamy:
    > > jajogłowi do skutecznej pracy potrzebują petaflopów;-)
    > > Sprzęt badawczy potrafiący tworzyć coś naprawdę nowego nie jest
    > > tani, taki ICM czy cyfronet(AGH, najsilniejszy nasz z top500, 1.6PF).
    >
    > Gdy się nasłuchałem jak sztuczne sieci neuronowe udoskonalały procesy
    > technologiczne, to wciąż się zastanawiam, czy SSN na odpowiednio
    > mocnym kompie mogłyby sugerować rozsądne przepisy na technologię
    > wytwarzania różnych rzeczy z nanorurek.

    Nie.
    W pewnym sensie sztuczne sieci neuronowe nie powiedzą nic,
    czego ich nie nauczyłeś:)

    >
    > > A czy te inwestycje są takei drogie w stosunku do reszty?
    > > Prometeusz cyfronetu w 2014 kosztował 41 mln i wylądował ok 30
    > > miejsca w top500.
    > > Porządny mikroskop elektronowy kosztuje kilkanaście mln.
    > > Kilkuletni projekt średniego szczebla (grant Sonata) to większe
    > > kilkaset tysiecy.
    > Hmmmm a teleskop jamesa webba wyniesie coś w okolicach 9mld dolarów.
    > Koszt LHC jest/był niewiele mniejszy. Nie zdziwiłbym się, gdyby za
    > taką kasę dało się zamówić miliard porządnych GPU, a 200mln to na
    > pewno.

    Za jaką kasę? Za LHC? LHC jest potrzebne, nie samymi kompami człowiek żyje.
    BTW, to koszt budowy, dolicz koszt pracy ludzi robiących tam badania:)

    Nie wiem, jak za 9mld dolców chcesz kupić miliard GPU. Ostatnio jak patrzyłęm
    nienajgorsze GPU kosztowało raczej $900, nie $9.

    Pamiętaj też o dwóch rzeczach:
    -Samym GPU to się można podetrzeć. Procek nie może być słaby, do tego
    kupa ramu, pamięć masowa, droga szybka sieć...
    -Nie wszystko się dobrze przenosi na GPU.
    Wspominany cyfronet ma moduły GPU, ale nie stanowią one większości.
    https://kdm.cyfronet.pl/portal/Zeus_GPGPU


    >
    >
    > > *) skoro juz o AGH było, to o ile pytanie, po co finansować
    > > rozwój kwantowej grawitacji pętlowej mogę zrozumieć (należy wtedy
    > > cierpliwie tłumaczyć;-)) to potrzeby badań technologicznych
    > > tłumaczyć nie trzeba. A symulacja lotu samolotu czy pracy
    > > silnika/turbiny są bardzo mocożerne.
    >
    > No tak, ale przy inwestycjach typu LHC, to super-komputery nie
    > są takie drogie.

    Ale też klaster jest w każdym większym ośrodku, a LHC jest jedno,
    przedsiewzieć o niewiele mniejszej skali kilka.

    pzdr
    bartekltg


  • 17. Data: 2017-10-11 13:32:06
    Temat: Re: wiadomo coś o wynikach?
    Od: "M.M." <m...@g...com>

    On Wednesday, October 11, 2017 at 2:41:45 AM UTC+2, bartekltg wrote:
    > On Tuesday, October 10, 2017 at 11:47:05 PM UTC+2, M.M. wrote:
    > > On Tuesday, October 10, 2017 at 4:15:05 AM UTC+2, bartekltg wrote:
    > > > On Monday, October 9, 2017 at 12:33:17 PM UTC+2, M.M. wrote:
    > > > > On Monday, October 9, 2017 at 6:51:32 AM UTC+2, bartekltg wrote:
    > >
    > > Hmmmm w sumie dużo racji w tym jest. Chociaż jeśli skuteczność algorytmu
    > > zależy od danych, to trzeba zrobić np. 1000 restartów. Na 1000 rdzeniach
    > > wyniki będą 1000 razy szybciej.
    >
    > Czasem. Nie za często;-)
    > Takie super przyszpieszenie będzie miało np całkowanie MC,
    > ale już|mnożenie macierzy - nie.

    Tak. Nie każdy problem algorytm się nadaje. Sztuczne sieci neuronowe
    idealnie się nadają. Milion rdzeni oznacza milion eksperymentów w
    tym samym czasie co jeden eksperyment na jednym rdzeniu.


    > > > Tylko wtedy wchodzi komunikacja między węzłami. To może oznaczac, że '37'
    > > > jest lepszy. Ale tylko na tym klastrze, bo jest tak a tak powiązany,
    > > > i jeśli używamy MPI od Intela, bo OpenMPI lepiej dogaduje się z '77'.
    > > > ;-)
    > > Tak, komunikacja i nie-zunifikowany-dostęp-do-pamięci to dodatkowy aspekt.
    >
    > Niezunifikowana to brzmi dość niegroźnie. To sa osobne serwery, tylko
    > połączone bardzo szybką siecią (CIS ma 40Gb/s infiniband, ale to potrafi
    > iść znacznie wyżej).

    Nom, taka architektura niektóre algorytmy całkowicie dyskwalifikuje.
    40Gb/s to sporo, ale jest także bezwładność, mogą być semafory
    blokujące wiele wątków, itd.

    > Zadnej siatki, żadej skończonej liczby czujników, zad nych błedów
    > numerycznych. To wynik dla samych równań. No i tych konkretnych.
    Hmmmm to lipa.

    A jakby dużą sztuczną sieć neuronową nakarmić danymi pogodowymi?
    Pewnie pogody by nie przewidywała dokładnie, ale jakby dawała
    odpowiedź że na tych koordynatach o tej godzinie będzie padać
    deszcz z prawdopodobieństwem 40%, to po latach testów by było
    koło 40%. Tak, wiem, póki co nie ma algorytmów które tak dokładnie
    ustaliłyby wagi sieci neuronowej. W biologicznych sieciach
    neuronowych jakoś się ustalają i rozwiązują trudne zadania - co
    prawda nie przewidują pogody.... chociaż niektóre zwierzęta w
    jakimś ograniczonym stopniu potrafią.



    > > Gdy się nasłuchałem jak sztuczne sieci neuronowe udoskonalały procesy
    > > technologiczne, to wciąż się zastanawiam, czy SSN na odpowiednio
    > > mocnym kompie mogłyby sugerować rozsądne przepisy na technologię
    > > wytwarzania różnych rzeczy z nanorurek.
    >
    > Nie.
    > W pewnym sensie sztuczne sieci neuronowe nie powiedzą nic,
    > czego ich nie nauczyłeś:)

    W pewnym sensie to nie wiem. Ogólnie bazuję na dwóch faktach.
    Po pierwsze, w DNA nie ma zbyt dużo informacji o szczegółach
    mózgu. Po drugie, biologiczne sieci neuronowe, nanorurek jeszcze
    nie opanowały, ale opanowały wiele innych technologii. Wykluczywszy
    boga, kosmitów i inne uznawane fantastyczne teorie, nas też nikt tego
    wszystkiego nie uczył.


    > > > A czy te inwestycje są takei drogie w stosunku do reszty?
    > > > Prometeusz cyfronetu w 2014 kosztował 41 mln i wylądował ok 30
    > > > miejsca w top500.
    > > > Porządny mikroskop elektronowy kosztuje kilkanaście mln.
    > > > Kilkuletni projekt średniego szczebla (grant Sonata) to większe
    > > > kilkaset tysiecy.
    > > Hmmmm a teleskop jamesa webba wyniesie coś w okolicach 9mld dolarów.
    > > Koszt LHC jest/był niewiele mniejszy. Nie zdziwiłbym się, gdyby za
    > > taką kasę dało się zamówić miliard porządnych GPU, a 200mln to na
    > > pewno.
    >
    > Za jaką kasę? Za LHC? LHC jest potrzebne, nie samymi kompami człowiek żyje.
    > BTW, to koszt budowy, dolicz koszt pracy ludzi robiących tam badania:)
    Tak czy inaczej, masz rację, że inne projekty pochłaniają dużo więcej
    środków niż superkomputery.


    > Nie wiem, jak za 9mld dolców chcesz kupić miliard GPU. Ostatnio jak patrzyłęm
    > nienajgorsze GPU kosztowało raczej $900, nie $9.
    Przy takim gigantycznym zamówieniu może jakaś firma dostosowałaby
    technologię i cena spadłaby do 10-30 usd?


    >
    > Pamiętaj też o dwóch rzeczach:
    > -Samym GPU to się można podetrzeć. Procek nie może być słaby, do tego
    > kupa ramu, pamięć masowa, droga szybka sieć...
    Zależy od typu obliczeń. W sieciach neuronowych

    Intel Core2 Quad Q9450 @ 2.66GHz

    w porównaniu do

    GTX 280

    A GeForce GTX 1080 jest 10 razy wydajniejszy od gtx 280, więc na dwóch
    kartach można uzyskać przyspieszenie pewnie z 800 razy względem tego
    procka. Dwie karty GTX 1080 można kupić za około 1000usd. Za 1000usd
    można także kupić AMD Ryzen Threadripper 1950X, ale uzyska się 
    przyspieszenie zaledwie 7 razy.

    Zależy jakie obliczenia... Jeśli dobrze zrównoleglająca się arytmetyka, to za
    te same pieniądze na GPU zadziała do 200 razy szybciej.


    > -Nie wszystko się dobrze przenosi na GPU.
    > Wspominany cyfronet ma moduły GPU, ale nie stanowią one większości.
    > https://kdm.cyfronet.pl/portal/Zeus_GPGPU

    Tak, nie wszystko, bo inaczej byłyby tylko GPU w komputerach.


    > Ale też klaster jest w każdym większym ośrodku, a LHC jest jedno,
    > przedsiewzieć o niewiele mniejszej skali kilka.

    No tak, to też prawda.


    Pozdrawiam.


  • 18. Data: 2017-10-11 13:36:49
    Temat: Re: wiadomo coś o wynikach?
    Od: "M.M." <m...@g...com>

    On Wednesday, October 11, 2017 at 1:32:07 PM UTC+2, M.M. wrote:

    > Intel Core2 Quad Q9450 @ 2.66GHz
    >
    > w porównaniu do
    >
    > GTX 280

    Wcięło jeden wiersz. Miało być, że ta powyższa karta jest 40 razy
    szybsza od powyższego procka w obliczeniach na sieciach neuronowych.

    Pozdrawiam

strony : 1 . [ 2 ]


Szukaj w grupach

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: