eGospodarka.pl

eGospodarka.plGrupypl.comp.programming › Z teorii chaosu
Ilość wypowiedzi w tym wątku: 14

  • 1. Data: 2017-11-29 11:44:56
    Temat: Z teorii chaosu
    Od: "M.M." <m...@g...com>

    Witam

    Standardowy problem: dokonujemy pomiaru zjawiska fizycznego z
    określoną dokładnością, wrzucamy pomiary do symulacji, w
    trakcie obliczeń wolno lub bardzo szybko tracimy dokładność z
    powodu błędu pomiaru i zaokrągleń, ostatecznie dostajemy
    trochę lub totalnie rozjechany wynik z rzeczywistością.

    A co gdyby zrobić kilka pomiarów? Znowu mamy jakieś zjawisko
    fizyczne, dokonujemy pomiaru i robimy symulację. Po pewnym
    czasie widzimy, że wyniki obliczeń trochę się rozjechały
    względem rzeczywistego zjawiska. Więc znowu dokonujemy
    pomiaru, ale dodatkowo, korygujemy pomiar początkowy. Mieliśmy
    np. pomiar z dokładnością do 6 miejsc po przecinku. Możemy
    teraz wziąć wszystkie wartości z dokładnością do 7 lub 8 miejsc
    po przecinku i wykonać symulację dla tych wszystkich hipotetycznych
    wartości. Po dalszym czasie obserwacji dokonamy trzeciego pomiaru,
    czwartego, i znowu skorygujemy warunki początkowe.

    Zastanawia mnie, czy w ten sposób można ustalić tak dokładnie
    warunki początkowe, żeby symulacja przebiegała wiernie przez
    dłuższy czas. Np. mamy punkty w czasie:
    t0, t1, t2, t3...;
    t[i] - t[i-1] = const.

    Robimy pomiar w t0 i symulujemy do czasu t1. Mamy bląd er1.
    Robimy korektę warunków początkowych w t0, i symulujemy
    do czasu t2. Czy błąd er2 w t2 będzie mniejszy niż er1, czy
    będzie nadal losowy? Potem znowu korygujemy warunki w t0,
    aby błędy er1 i er2 w czasie t1 i t2 były minimalne i znowu
    puszczamy symulację do czasu t3. Czy er3 będzie jeszcze
    mniejszy?

    Jeśli nie można zmierzyć z dokładnością do 100 miejsc po
    przecinku, to czy chociaż teoretycznie można odgadnąć z taką
    dokładnością? Pomijam fakt, że takie odgadywanie mogłoby być
    bardzo czasochłonne obliczeniowo.

    Pozdrawiam


  • 2. Data: 2017-11-30 04:51:21
    Temat: Re: Z teorii chaosu
    Od: bartekltg <b...@g...com>

    On Wednesday, November 29, 2017 at 11:44:57 AM UTC+1, M.M. wrote:
    > Witam
    >
    > Standardowy problem: dokonujemy pomiaru zjawiska fizycznego z
    > określoną dokładnością, wrzucamy pomiary do symulacji, w
    > trakcie obliczeń wolno lub bardzo szybko tracimy dokładność z
    > powodu błędu pomiaru i zaokrągleń, ostatecznie dostajemy
    > trochę lub totalnie rozjechany wynik z rzeczywistością.
    >
    > A co gdyby zrobić kilka pomiarów? Znowu mamy jakieś zjawisko
    > fizyczne, dokonujemy pomiaru i robimy symulację. Po pewnym
    > czasie widzimy, że wyniki obliczeń trochę się rozjechały
    > względem rzeczywistego zjawiska. Więc znowu dokonujemy
    > pomiaru, ale dodatkowo, korygujemy pomiar początkowy. Mieliśmy
    > np. pomiar z dokładnością do 6 miejsc po przecinku. Możemy
    > teraz wziąć wszystkie wartości z dokładnością do 7 lub 8 miejsc
    > po przecinku i wykonać symulację dla tych wszystkich hipotetycznych
    > wartości. Po dalszym czasie obserwacji dokonamy trzeciego pomiaru,
    > czwartego, i znowu skorygujemy warunki początkowe.
    >
    > Zastanawia mnie, czy w ten sposób można ustalić tak dokładnie
    > warunki początkowe, żeby symulacja przebiegała wiernie przez
    > dłuższy czas. Np. mamy punkty w czasie:
    > t0, t1, t2, t3...;
    > t[i] - t[i-1] = const.
    >
    > Robimy pomiar w t0 i symulujemy do czasu t1. Mamy bląd er1.
    > Robimy korektę warunków początkowych w t0, i symulujemy
    > do czasu t2. Czy błąd er2 w t2 będzie mniejszy niż er1, czy
    > będzie nadal losowy? Potem znowu korygujemy warunki w t0,
    > aby błędy er1 i er2 w czasie t1 i t2 były minimalne i znowu
    > puszczamy symulację do czasu t3. Czy er3 będzie jeszcze
    > mniejszy?
    >
    > Jeśli nie można zmierzyć z dokładnością do 100 miejsc po
    > przecinku, to czy chociaż teoretycznie można odgadnąć z taką
    > dokładnością? Pomijam fakt, że takie odgadywanie mogłoby być
    > bardzo czasochłonne obliczeniowo.
    >
    > Pozdrawiam


  • 3. Data: 2017-11-30 05:05:52
    Temat: Re: Z teorii chaosu
    Od: bartekltg <b...@g...com>

    On Wednesday, November 29, 2017 at 11:44:57 AM UTC+1, M.M. wrote:
    > Witam
    >
    > Standardowy problem: dokonujemy pomiaru zjawiska fizycznego z
    > określoną dokładnością, wrzucamy pomiary do symulacji, w
    > trakcie obliczeń wolno lub bardzo szybko tracimy dokładność z
    > powodu błędu pomiaru i zaokrągleń, ostatecznie dostajemy
    > trochę lub totalnie rozjechany wynik z rzeczywistością.
    >
    > A co gdyby zrobić kilka pomiarów? Znowu mamy jakieś zjawisko
    > fizyczne, dokonujemy pomiaru i robimy symulację. Po pewnym
    > czasie widzimy, że wyniki obliczeń trochę się rozjechały
    > względem rzeczywistego zjawiska. Więc znowu dokonujemy
    > pomiaru, ale dodatkowo, korygujemy pomiar początkowy. Mieliśmy
    > np. pomiar z dokładnością do 6 miejsc po przecinku. Możemy
    > teraz wziąć wszystkie wartości z dokładnością do 7 lub 8 miejsc
    > po przecinku i wykonać symulację dla tych wszystkich hipotetycznych
    > wartości. Po dalszym czasie obserwacji dokonamy trzeciego pomiaru,
    > czwartego, i znowu skorygujemy warunki początkowe.
    >
    > Zastanawia mnie, czy w ten sposób można ustalić tak dokładnie
    > warunki początkowe, żeby symulacja przebiegała wiernie przez
    > dłuższy czas. Np. mamy punkty w czasie:
    > t0, t1, t2, t3...;
    > t[i] - t[i-1] = const.
    >
    > Robimy pomiar w t0 i symulujemy do czasu t1. Mamy bląd er1.
    > Robimy korektę warunków początkowych w t0, i symulujemy
    > do czasu t2. Czy błąd er2 w t2 będzie mniejszy niż er1, czy
    > będzie nadal losowy? Potem znowu korygujemy warunki w t0,
    > aby błędy er1 i er2 w czasie t1 i t2 były minimalne i znowu
    > puszczamy symulację do czasu t3. Czy er3 będzie jeszcze
    > mniejszy?
    >
    > Jeśli nie można zmierzyć z dokładnością do 100 miejsc po
    > przecinku, to czy chociaż teoretycznie można odgadnąć z taką
    > dokładnością? Pomijam fakt, że takie odgadywanie mogłoby być
    > bardzo czasochłonne obliczeniowo.
    >

    Zależy od układu. W astronomii się tak robi;-)

    Patrzysz, o, kropka na niebie. Patrzysz za tydzień, przesunąła się
    nieco (co gorsza mierzysz tylko kąt pod którą ją widzisz). Z tego
    zgrubnie szacujesz orbitę. Szukasz jej po miesiącu - masz nowe dane,
    możesz znacząco podnieśc dokłądność oszacowania jej orbity
    (a tym samym i warunki początkowe).

    Ale mozęmy tak zrobić, ponieważ układ jest prosty, a parametry grawitacyjny
    Słońca i planet sa znane z duzą dokładnością.

    Sprowadzając ukłąd do absurdalnie prostego, oscylator harmoniczny
    o nieznanym okresie drgań. Im dłużej go mierzysz, tym dokałdniej
    częstość poznasz. O ile ta częstość jest stała;>

    W raeczywistości układy mają wiele czynników, które na niego
    wpływają, cześć poza jakąkolwiek kontrolą lub wręcz losowych.
    Długa obserwacja komory maszyny losującej lotto nic nam nie da,
    ukłąd i tak się szybko rozjeżdza. To, że teoretyczne kulki musiały
    byś ustawione z dokłądnością do 10^-dużo nic nei znaczy, bo nie
    uwzględniłeś wszytkich czynników po drodze.


    100 miejsc po przecinku to trochę absurdalne rządanie. Dokładność
    najczęściej będzie rosnać z czasem liniowo lub jak pierwiastek.

    Musisz napisać konkretniej.

    pzdr
    bartekltg


  • 4. Data: 2017-11-30 17:16:48
    Temat: Re: Z teorii chaosu
    Od: "M.M." <m...@g...com>

    On Thursday, November 30, 2017 at 5:05:54 AM UTC+1, bartekltg wrote:
    > On Wednesday, November 29, 2017 at 11:44:57 AM UTC+1, M.M. wrote:
    > > Witam
    > >
    > > Standardowy problem: dokonujemy pomiaru zjawiska fizycznego z
    > > określoną dokładnością, wrzucamy pomiary do symulacji, w
    > > trakcie obliczeń wolno lub bardzo szybko tracimy dokładność z
    > > powodu błędu pomiaru i zaokrągleń, ostatecznie dostajemy
    > > trochę lub totalnie rozjechany wynik z rzeczywistością.
    > >
    > > A co gdyby zrobić kilka pomiarów? Znowu mamy jakieś zjawisko
    > > fizyczne, dokonujemy pomiaru i robimy symulację. Po pewnym
    > > czasie widzimy, że wyniki obliczeń trochę się rozjechały
    > > względem rzeczywistego zjawiska. Więc znowu dokonujemy
    > > pomiaru, ale dodatkowo, korygujemy pomiar początkowy. Mieliśmy
    > > np. pomiar z dokładnością do 6 miejsc po przecinku. Możemy
    > > teraz wziąć wszystkie wartości z dokładnością do 7 lub 8 miejsc
    > > po przecinku i wykonać symulację dla tych wszystkich hipotetycznych
    > > wartości. Po dalszym czasie obserwacji dokonamy trzeciego pomiaru,
    > > czwartego, i znowu skorygujemy warunki początkowe.
    > >
    > > Zastanawia mnie, czy w ten sposób można ustalić tak dokładnie
    > > warunki początkowe, żeby symulacja przebiegała wiernie przez
    > > dłuższy czas. Np. mamy punkty w czasie:
    > > t0, t1, t2, t3...;
    > > t[i] - t[i-1] = const.
    > >
    > > Robimy pomiar w t0 i symulujemy do czasu t1. Mamy bląd er1.
    > > Robimy korektę warunków początkowych w t0, i symulujemy
    > > do czasu t2. Czy błąd er2 w t2 będzie mniejszy niż er1, czy
    > > będzie nadal losowy? Potem znowu korygujemy warunki w t0,
    > > aby błędy er1 i er2 w czasie t1 i t2 były minimalne i znowu
    > > puszczamy symulację do czasu t3. Czy er3 będzie jeszcze
    > > mniejszy?
    > >
    > > Jeśli nie można zmierzyć z dokładnością do 100 miejsc po
    > > przecinku, to czy chociaż teoretycznie można odgadnąć z taką
    > > dokładnością? Pomijam fakt, że takie odgadywanie mogłoby być
    > > bardzo czasochłonne obliczeniowo.
    > >
    >
    > Zależy od układu. W astronomii się tak robi;-)
    >
    > Patrzysz, o, kropka na niebie. Patrzysz za tydzień, przesunąła się
    > nieco (co gorsza mierzysz tylko kąt pod którą ją widzisz). Z tego
    > zgrubnie szacujesz orbitę. Szukasz jej po miesiącu - masz nowe dane,
    > możesz znacząco podnieśc dokłądność oszacowania jej orbity
    > (a tym samym i warunki początkowe).
    >
    > Ale mozęmy tak zrobić, ponieważ układ jest prosty, a parametry grawitacyjny
    > Słońca i planet sa znane z duzą dokładnością.
    >
    > Sprowadzając ukłąd do absurdalnie prostego, oscylator harmoniczny
    > o nieznanym okresie drgań. Im dłużej go mierzysz, tym dokałdniej
    > częstość poznasz. O ile ta częstość jest stała;>
    >
    > W raeczywistości układy mają wiele czynników, które na niego
    > wpływają, cześć poza jakąkolwiek kontrolą lub wręcz losowych.
    > Długa obserwacja komory maszyny losującej lotto nic nam nie da,
    > ukłąd i tak się szybko rozjeżdza. To, że teoretyczne kulki musiały
    > byś ustawione z dokłądnością do 10^-dużo nic nei znaczy, bo nie
    > uwzględniłeś wszytkich czynników po drodze.
    >
    >
    > 100 miejsc po przecinku to trochę absurdalne rządanie. Dokładność
    > najczęściej będzie rosnać z czasem liniowo lub jak pierwiastek.
    >
    > Musisz napisać konkretniej.
    >

    Dziękuję za odpowiedź. Konkretniej póki co nie potrzebuję, chodziło mi
    właśnie o takie ogóle informacje.

    Często przy różnych okazjach słyszałem, że niektórych procesów
    fizycznych w ogóle (bez względu na dokładność pomiaru) nie da się
    symulować, ponieważ algorytmy szybko tracą dokładność. Nie spodobało
    mi się to stwierdzenie i chyba w podświadomości mi się kołacze
    cały czas, choć nie mam żadnej konkretnej potrzeby.

    Faktem jest, że rozmowa jest prostsza gdy są jakieś konkretne
    problemy, to może weźmy ze trzy: bardzo duży bilard, n-body w
    astronomii i akwarium z rybkami ;-)


    Po pierwsze zastanawia mnie, czy jakby przeiterować po wszystkich
    programach o rozmiarze mniejszym niż np. 10^9 instrukcji, to
    żaden z tych programów nie symulowałby bardzo dokładnie powyższych
    trzech problemów? (Problem stopu jest trywialny, można przerwać
    działanie programu jeśli wykonał więcej niż np. 10^15 instrukcji)


    Po drugie właśnie, zastanawia mnie wpływ kolejnych pomiarów,
    wykonanych już w trakcie rozpoczętego eksperymentu, na domniemanie
    dokładności początkowych pomiarów. Napisałeś że 100 cyfr znaczących
    to absurd, bo dokładność będzie rosła wolno. Hmmmm jakby to w
    praktyce wyglądało np. dla symulacji Układu Słonecznego. Najpierw
    pobieramy stan początkowy powiedzmy 50tys najbardziej masywnych
    obiektów z US z dokładnością do powiedzmy 6 cyfr znaczących. Robimy
    symulację na przesadnie dużej dokładności np. na 1000 cyfrach
    znaczących. Po roku znowu mierzymy te 50tys obiektów i porównujemy z
    wynikami symulacji. Potem jakimś algorytmem losowym modyfikujemy
    w pomiarach początkowych np. piąte, szóste i siódme miejsce
    po przecinku. Idealnie byłoby przejrzeć wszystkie wszystkie
    kombinacje na piątego, szóstego i siódmego miejsca, ale dla
    50tys obiektów byłoby to za trudne. Więc losowym algorytmem
    szukamy takich pomiarów początkowych, aby wyniki symulacji po
    roku były możliwie najbardziej zgodne z pomiarami po roku.
    Po dwóch latach postępujemy podobnie, ale mamy już dwa pomiary,
    po 10ciu latach mamy 10 pomiarów, a gdy pomiary zrobimy co miesiąc, to
    mamy 120 pomiarów do porównywania. O ile zwiększy się dokładność
    obliczeń z taką techniką (np. ze 120 pomiarami), względem
    symulacji z jednym pomiarem? Zakładam że mamy bardzo dużo mocy
    obliczeniowej na odgadywanie kolejnych miejsc po przecinku.

    Pisałeś, że ilość cyfr znaczących rośnie raczej wolno, więc
    cudów się nie spodziewam, ale wydaje się, że taka technika
    powinna być bardzo skuteczna i w końcu dokładność pomiaru
    początkowego zostałaby skorygowana do wielu cyfr znaczących?

    Te same pytania można zadać względem bilardu i akwarium z rybkami.
    Akwarium to (póki co) czysto teoretyczny problem, chyba by trzeba
    zmierzyć pozycje i ruch wszystkich elektronów, neuronów i protonów? Ale
    jakby była możliwość (nieinwazyjnego) pomiaru i symulacji tak
    skomplikowanego układu, to potem dałoby się początkowy pomiar
    wielokrotnie korygować i może w końcu symulacja byłaby wierna z
    wyprzedzeniem na całe tygodnie czy miesiące?

    Pozdrawiam









  • 5. Data: 2017-11-30 18:33:37
    Temat: Re: Z teorii chaosu
    Od: bartekltg <b...@g...com>

    On Thursday, November 30, 2017 at 5:16:50 PM UTC+1, M.M. wrote:
    > On Thursday, November 30, 2017 at 5:05:54 AM UTC+1, bartekltg wrote:
    > > On Wednesday, November 29, 2017 at 11:44:57 AM UTC+1, M.M. wrote:
    > > > Witam
    > > >
    > > > Standardowy problem: dokonujemy pomiaru zjawiska fizycznego z
    > > > określoną dokładnością, wrzucamy pomiary do symulacji, w
    > > > trakcie obliczeń wolno lub bardzo szybko tracimy dokładność z
    > > > powodu błędu pomiaru i zaokrągleń, ostatecznie dostajemy
    > > > trochę lub totalnie rozjechany wynik z rzeczywistością.
    > > >
    > > > A co gdyby zrobić kilka pomiarów? Znowu mamy jakieś zjawisko
    > > > fizyczne, dokonujemy pomiaru i robimy symulację. Po pewnym
    > > > czasie widzimy, że wyniki obliczeń trochę się rozjechały
    > > > względem rzeczywistego zjawiska. Więc znowu dokonujemy
    > > > pomiaru, ale dodatkowo, korygujemy pomiar początkowy. Mieliśmy
    > > > np. pomiar z dokładnością do 6 miejsc po przecinku. Możemy
    > > > teraz wziąć wszystkie wartości z dokładnością do 7 lub 8 miejsc
    > > > po przecinku i wykonać symulację dla tych wszystkich hipotetycznych
    > > > wartości. Po dalszym czasie obserwacji dokonamy trzeciego pomiaru,
    > > > czwartego, i znowu skorygujemy warunki początkowe.
    > > >
    > > > Zastanawia mnie, czy w ten sposób można ustalić tak dokładnie
    > > > warunki początkowe, żeby symulacja przebiegała wiernie przez
    > > > dłuższy czas. Np. mamy punkty w czasie:
    > > > t0, t1, t2, t3...;
    > > > t[i] - t[i-1] = const.
    > > >
    > > > Robimy pomiar w t0 i symulujemy do czasu t1. Mamy bląd er1.
    > > > Robimy korektę warunków początkowych w t0, i symulujemy
    > > > do czasu t2. Czy błąd er2 w t2 będzie mniejszy niż er1, czy
    > > > będzie nadal losowy? Potem znowu korygujemy warunki w t0,
    > > > aby błędy er1 i er2 w czasie t1 i t2 były minimalne i znowu
    > > > puszczamy symulację do czasu t3. Czy er3 będzie jeszcze
    > > > mniejszy?
    > > >
    > > > Jeśli nie można zmierzyć z dokładnością do 100 miejsc po
    > > > przecinku, to czy chociaż teoretycznie można odgadnąć z taką
    > > > dokładnością? Pomijam fakt, że takie odgadywanie mogłoby być
    > > > bardzo czasochłonne obliczeniowo.
    > > >
    > >
    > > Zależy od układu. W astronomii się tak robi;-)
    > >
    > > Patrzysz, o, kropka na niebie. Patrzysz za tydzień, przesunąła się
    > > nieco (co gorsza mierzysz tylko kąt pod którą ją widzisz). Z tego
    > > zgrubnie szacujesz orbitę. Szukasz jej po miesiącu - masz nowe dane,
    > > możesz znacząco podnieśc dokłądność oszacowania jej orbity
    > > (a tym samym i warunki początkowe).
    > >
    > > Ale mozęmy tak zrobić, ponieważ układ jest prosty, a parametry grawitacyjny
    > > Słońca i planet sa znane z duzą dokładnością.
    > >
    > > Sprowadzając ukłąd do absurdalnie prostego, oscylator harmoniczny
    > > o nieznanym okresie drgań. Im dłużej go mierzysz, tym dokałdniej
    > > częstość poznasz. O ile ta częstość jest stała;>
    > >
    > > W raeczywistości układy mają wiele czynników, które na niego
    > > wpływają, cześć poza jakąkolwiek kontrolą lub wręcz losowych.
    > > Długa obserwacja komory maszyny losującej lotto nic nam nie da,
    > > ukłąd i tak się szybko rozjeżdza. To, że teoretyczne kulki musiały
    > > byś ustawione z dokłądnością do 10^-dużo nic nei znaczy, bo nie
    > > uwzględniłeś wszytkich czynników po drodze.
    > >
    > >
    > > 100 miejsc po przecinku to trochę absurdalne rządanie. Dokładność
    > > najczęściej będzie rosnać z czasem liniowo lub jak pierwiastek.
    > >
    > > Musisz napisać konkretniej.
    > >
    >
    > Dziękuję za odpowiedź. Konkretniej póki co nie potrzebuję, chodziło mi
    > właśnie o takie ogóle informacje.
    >
    > Często przy różnych okazjach słyszałem, że niektórych procesów
    > fizycznych w ogóle (bez względu na dokładność pomiaru) nie da się
    > symulować, ponieważ algorytmy szybko tracą dokładność. Nie spodobało
    > mi się to stwierdzenie i chyba w podświadomości mi się kołacze
    > cały czas, choć nie mam żadnej konkretnej potrzeby.


    Najprostrzym takim układem jest bilard na dwie kule, co jest w jakimś
    tam sensie równoważne biladrowi dla jednego punktu na stole z dodatkową
    okrągłą odbijającą barierą na środku. Chyba nawet udowodnili, że to
    ergodyczne.

    Prościej, możesz sobie zasymulować bliskie trajektorie i zobaczyć, że
    ma toto dodatni wykłądnik Lapunowa (trajektorie uciekają od siebie
    wykładniczo)



    > Faktem jest, że rozmowa jest prostsza gdy są jakieś konkretne
    > problemy, to może weźmy ze trzy: bardzo duży bilard, n-body w
    > astronomii i akwarium z rybkami ;-)

    Ten bialrd wcale nie musi być duży:)

    >
    >
    > Po pierwsze zastanawia mnie, czy jakby przeiterować po wszystkich
    > programach o rozmiarze mniejszym niż np. 10^9 instrukcji, to
    > żaden z tych programów nie symulowałby bardzo dokładnie powyższych
    > trzech problemów? (Problem stopu jest trywialny, można przerwać
    > działanie programu jeśli wykonał więcej niż np. 10^15 instrukcji)

    Rybek nie. N body i biladr symulowane bardzo dokładnie to napiszesz
    za jednym posiedzeniem (n-body prawdopodobnie nie bedzie super wydajne).

    Ale nie tu siedział problem, ale w tym, że skoro istotne są pozycje
    z dokładnością 10^-90 100 jednostek czasu temu i dokładność 10^-50
    50 jednostek temu, to w rzeczywistości istotne sa tam już oddziaływania
    typu flutkacja termiczna czy pozycja Księżyca;-) coś, co pomijasz.

    No, chyba, że chcesz iśc w keirunku 'symuluje wszystko'.
    To wyłącznie teoretyczne zagadnienie. Dwa problemy:
    -kwanty
    -Wpływ Twojego kompa na 'wszystko'


    > Po drugie właśnie, zastanawia mnie wpływ kolejnych pomiarów,
    > wykonanych już w trakcie rozpoczętego eksperymentu, na domniemanie
    > dokładności początkowych pomiarów. Napisałeś że 100 cyfr znaczących
    > to absurd, bo dokładność będzie rosła wolno. Hmmmm jakby to w
    > praktyce wyglądało np. dla symulacji Układu Słonecznego. Najpierw
    > pobieramy stan początkowy powiedzmy 50tys najbardziej masywnych
    > obiektów z US z dokładnością do powiedzmy 6 cyfr znaczących. Robimy
    > symulację na przesadnie dużej dokładności np. na 1000 cyfrach
    > znaczących. Po roku znowu mierzymy te 50tys obiektów i porównujemy z
    > wynikami symulacji.

    > Potem jakimś algorytmem losowym modyfikujemy
    > w pomiarach początkowych np. piąte, szóste i siódme miejsce
    > po przecinku.

    A czemu tak kretyńsko? ;>

    > Idealnie byłoby przejrzeć wszystkie wszystkie
    > kombinacje na piątego, szóstego i siódmego miejsca, ale dla
    > 50tys obiektów byłoby to za trudne. Więc losowym algorytmem
    > szukamy takich pomiarów początkowych, aby wyniki symulacji po
    > roku były możliwie najbardziej zgodne z pomiarami po roku.
    > Po dwóch latach postępujemy podobnie, ale mamy już dwa pomiary,
    > po 10ciu latach mamy 10 pomiarów, a gdy pomiary zrobimy co miesiąc, to
    > mamy 120 pomiarów do porównywania. O ile zwiększy się dokładność
    > obliczeń z taką techniką (np. ze 120 pomiarami), względem
    > symulacji z jednym pomiarem? Zakładam że mamy bardzo dużo mocy
    > obliczeniowej na odgadywanie kolejnych miejsc po przecinku.


    Wydaje mi się, że już w poprzednim poście odpowiedizałem na to pytanie.
    Zależy od układu. W pewnym momencie wpadniesz w dokładność, gdzie
    trzeba uwzględnić zjawiska których nie symulujesz.


    >
    > Pisałeś, że ilość cyfr znaczących rośnie raczej wolno, więc
    > cudów się nie spodziewam, ale wydaje się, że taka technika
    > powinna być bardzo skuteczna i w końcu dokładność pomiaru
    > początkowego zostałaby skorygowana do wielu cyfr znaczących?

    "zależy od układu".

    >
    > Te same pytania można zadać względem bilardu i akwarium z rybkami.
    > Akwarium to (póki co) czysto teoretyczny problem, chyba by trzeba
    > zmierzyć pozycje i ruch wszystkich elektronów, neuronów i protonów? Ale

    To wtedy wchodzisz w kwanty i jesteś w dupie, bo nie zmierzysz;-)

    > jakby była możliwość (nieinwazyjnego) pomiaru i symulacji tak
    > skomplikowanego układu, to potem dałoby się początkowy pomiarJ
    > wielokrotnie korygować i może w końcu symulacja byłaby wierna z
    > wyprzedzeniem na całe tygodnie czy miesiące?

    Jakby był możliwy nieinwazyjny pomiar stanu pol kwantowych i meilisbyśmy
    dostępną nieograniczoną moc obliczeniową (pewnie ciś lepszego niż maszyna Turinga też
    by się przydało:)), nasza wiedza o wszehświecie byłaby pełna,
    a nasz komputer i my w osobnym wszechświecie niż ten symulowany...
    ... to tak, czemu nie ;-)

    pzdr
    bartekltg



  • 6. Data: 2017-12-01 13:57:34
    Temat: Re: Z teorii chaosu
    Od: "M.M." <m...@g...com>

    On Thursday, November 30, 2017 at 6:33:39 PM UTC+1, bartekltg wrote:
    > [...]
    > Ten bialrd wcale nie musi być duży:)
    Racja, rozmiar się nie liczy ;-)


    > Rybek nie. N body i biladr symulowane bardzo dokładnie to napiszesz
    > za jednym posiedzeniem (n-body prawdopodobnie nie bedzie super wydajne).
    >
    > Ale nie tu siedział problem, ale w tym, że skoro istotne są pozycje
    > z dokładnością 10^-90 100 jednostek czasu temu i dokładność 10^-50
    > 50 jednostek temu, to w rzeczywistości istotne sa tam już oddziaływania
    > typu flutkacja termiczna czy pozycja Księżyca;-) coś, co pomijasz.
    Racja, przy takiej dokładności wymachiwanie rękami na Ziemi wpływa na
    ruch Jowisza... A mówili, że krzyczenie i wymachiwanie rękami nie ma
    wpływu na wyniki symulacji ;-)


    > No, chyba, że chcesz iśc w keirunku 'symuluje wszystko'.
    > To wyłącznie teoretyczne zagadnienie. Dwa problemy:
    > -kwanty
    > -Wpływ Twojego kompa na 'wszystko'
    >
    >
    >
    > A czemu tak kretyńsko? ;>
    Ok, powinienem napisać że dowolnym algorytmem.

    > [...]
    > Jakby był możliwy nieinwazyjny pomiar stanu pol kwantowych i meilisbyśmy
    > dostępną nieograniczoną moc obliczeniową (pewnie ciś lepszego niż maszyna Turinga
    też by się przydało:)), nasza wiedza o wszehświecie byłaby pełna,
    > a nasz komputer i my w osobnym wszechświecie niż ten symulowany...
    > ... to tak, czemu nie ;-)

    Czyli mój niepokój był uzasadniony, że stwierdzenie, iż czegoś "nigdy nie policzymy",
    jest, co prawda w bardzo minimalnym stopniu, dosadne. Kiedyś
    się mówiło, że jak komputery będą mocniejsze, to policzymy wszystko.
    Potem modna stała się teoria chaosu i się mawia, że nawet jak
    dokładnie zmierzymy, to nie policzymy, bo taką wadę mają algorytmy. A
    tymczasem jakieś, oczywiście bardzo minimalne i teoretyczne, możliwości
    dokładnego symulowania procesów fizycznych - są. Nawet jak nie mamy
    możliwości przeprowadzenia dokładnych pomiarów, to możemy pomiary
    skutecznie przybliżać.

    Poza tym jeszcze nikt nie przeiterował po wszystkich dużych programach i
    nie wiadomo na 100%, czy nie istnieją jakieś lepsze algorytmy do
    symulowania zjawisk niż obecnie znane.

    Ale w praktyce to faktycznie trudno sobie wyobrazić tę teorię, najlepiej
    jakby symulacja była w osobnym kosmosie :(

    Pozdrawiam


  • 7. Data: 2017-12-02 17:54:02
    Temat: Re: Z teorii chaosu
    Od: slawek <f...@f...com>

    On Wed, 29 Nov 2017 20:05:52 -0800 (PST), bartekltg
    <b...@g...com> wrote:
    > Sprowadzając ukłąd do absurdalnie prostego, oscylator harmon=
    > iczny
    > o nieznanym okresie drgań. Im dłużej go mierzysz, tym doka=
    > łdniej
    > częstość poznasz.


    Ale tak jest tylko w fizyce niekwantowej.

    W kwantowej im dłużej mierzysz (coś robisz, np. laserkiem świecisz)
    tym bardziej zmieniasz stan układu. A jak nic nie robisz... to też
    nic nie wiesz.


  • 8. Data: 2017-12-02 17:59:09
    Temat: Re: Z teorii chaosu
    Od: slawek <f...@f...com>

    On Thu, 30 Nov 2017 08:16:48 -0800 (PST), "M.M." <m...@g...com>
    wrote:
    > Często przy różnych okazjach słyszałem, że ni=
    > ektórych procesów
    > fizycznych w ogóle (bez względu na dokładność pomi=
    > aru) nie da się
    > symulować, ponieważ algorytmy szybko tracą dokładno?=
    > ?ć. Nie spodobało
    > mi się to stwierdzenie


    To nie tak. Stymulować można. No problem. Ale wartość tych symulacji
    jest żadna, bo nijak nie pozwolą one przewidzieć co stanie się w
    innej "symulacji" zwanej rzeczywistością.

    A to że coś się podoba-niepodoba to nie jest argument naukowy.


  • 9. Data: 2017-12-02 18:03:00
    Temat: Re: Z teorii chaosu
    Od: slawek <f...@f...com>

    On Fri, 1 Dec 2017 04:57:34 -0800 (PST), "M.M." <m...@g...com>
    wrote:
    > Racja, przy takiej dokładności wymachiwanie rękami na Ziemi =
    > wpływa na
    > ruch Jowisza...

    Niekoniecznie. Jeżeli jest dostatecznie daleko i krótko, to Einstein
    zabrania.


  • 10. Data: 2017-12-03 03:41:59
    Temat: Re: Z teorii chaosu
    Od: bartekltg <b...@g...com>

    On Saturday, December 2, 2017 at 5:54:04 PM UTC+1, slawek wrote:
    > On Wed, 29 Nov 2017 20:05:52 -0800 (PST), bartekltg
    > <b...@g...com> wrote:
    > > Sprowadzając ukłąd do absurdalnie prostego, oscylator harmon=
    > > iczny
    > > o nieznanym okresie drgań. Im dłużej go mierzysz, tym doka=
    > > łdniej
    > > częstość poznasz.
    >
    >
    > Ale tak jest tylko w fizyce niekwantowej.
    >
    > W kwantowej im dłużej mierzysz (coś robisz, np. laserkiem świecisz)
    > tym bardziej zmieniasz stan układu. A jak nic nie robisz... to też
    > nic nie wiesz.


    Jakbys czytał dalej, przeczytałbys i o kwantówce, trollusiu;-)

    Jak zacząłęś juz czytać o kwantówce, to dojedź do kwantowego
    efektu Zeemana i skoryguj półprawdy ze swojego stwierdzenia.

    bartekltg

strony : [ 1 ] . 2



Szukaj w grupach

Szukaj w grupach

REKLAMA

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo:

Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Prywatności. Możesz określić warunki przechowywania lub dostępu do plików cookies w Twojej przeglądarce.