eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plGrupypl.rec.foto.cyfrowa › Czy istnieje możliwość fotografowania rzeczywistości?
Ilość wypowiedzi w tym wątku: 287

  • 51. Data: 2019-03-30 18:38:13
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: "J.F." <j...@p...onet.pl>

    Dnia Sat, 30 Mar 2019 16:59:28 +0100, Marek S napisał(a):
    > W dniu 2019-03-30 o 16:39, J.F. pisze:
    >> Moze chmury byly slabe :-)
    >
    > Właśnie sprawdziłem w instrukcji: matryca faktycznie nie była
    > kompatybilna z tą konkretną chmurą, która akurat wtedy wisiała tam :-D

    Chmury rozne sa - jasne, ciemne :-)

    >>> Zapodałem konkretną: okno,
    >>> pochmurna pogoda, patrzę przez to okno i nie zmieniając kąta patrzenia
    >>> widzę, co jest pod parapetem. Robię zdjęcie tego samego - i nie widzę,
    >>> co jest pod parapetem. Mocno wyciągam cienie i sporym stopniu, ale
    >>> odstającym od rzeczywistości, zaczynam wydobywać to, co oczami widzę.
    >>> Przy poprzednim sprzęcie - Sony A77, nie było takiej opcji, tragedia w
    >>> cieniach. W obecnym A99 jest dużo lepiej, ale daleko od tego, co widzę
    >>> mimo obróbki w ACR.
    >>
    >> A daj jakiegos raw ...
    >
    > Proszę bardzo.
    > https://drive.google.com/file/d/1L0JQ7pQFCZzaWOFKw75
    l1KgWeGQi4R3r/view?usp=sharing
    >
    > Stałem przy tym oknie. Jego ramę widziałem zupełnie jasno gdy wzrok
    > skupiałem na tym, co za oknem. A w ARW tymczasem rama jest głęboko w
    > czerniach, w mocno nieliniowym obszarze matrycy. Tradycyjne, suwaczkowe
    > podejście coś tam wyciągnie z czerni, ale będzie to marnej jakości
    > reprodukcja.

    Wzialem Imaging Edge ... calkiem niezle rozjasnia, choc ma limit tylko
    2EV. Widac folie na framugach, deski na podlodze/parapecie, piasek ?
    Aczkolwiek zaszumienie jest.

    Ale ... obrazek 24Mpix, a plik niecale 25MB.
    Dali jakas lekka kompresje, czy to jest tylko 8-bit ?

    J.


  • 52. Data: 2019-03-31 00:45:05
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: Krzysztof Halasa <k...@p...waw.pl>

    Marek S <p...@s...com> writes:

    > W/g moich obserwacji, oko ludzkie to taka "matryca", której piksel
    > wysycony ma potencjał np. 100V a czarny 0V. To dzielimy na ileś tam
    > poziomów kwantyzacji.

    Przede wszystkim, oko jest bardzo niejednorodne. Choćby plamka żółta.
    Także rozdzielczość w różnych miejscach jest bardzo różna.

    > Wnioskuję, że nawet najlepsze matryce ogarniają niewielki procent
    > dynamiki światła w porównaniu z okiem.

    Nie jestem pewien.
    Podejrzewam, że zasadniczą rolę w tym doskonałym działaniu oka pełni
    mózg.

    >> Widocznie to nie była biel.
    >
    > Właśnie - był to nieliniowy fragment matrycy! I o tym właśnie piszę.

    No można napisać, że w punkcie nasycenia matryca jest nieliniowa - nawet
    bardzo nieliniowa. Ale poniżej tego punktu (punktów dla różnych kolorów)
    jest jednak zupełnie liniowa.

    > Argumentowałem tym koledze JF, że matryce nie są liniowe, jak
    > twierdził. Są bardzo nieliniowe. W związku z tym zupełnie inaczej
    > należy przetwarzać światła, tony średnie i cienie by coś wydobyć.

    To jest prawda, ale nie dlatego, że matryce są nieliniowe, tylko
    dlatego, że oko jest nieliniowe, a także dlatego, że typowe pliki
    z grafiką (filmami itp) są (mają być) nieliniowe.

    Typowy monitor jest w stanie wyświetlić 8-bitową głębię koloru
    (pomijając 6-bitowe TNy, ew. z FRC). Jeśli będziesz miał monitor, który
    naprawdę będzie w stanie wyświetlić 14-bitowe kolory (liniowe), to
    będziesz mógł tak samo przetwarzać wszystkie tony. Chwilowo jednak
    trzeba oszukiwać.

    > Nie do końca. Zrobiłem mały research. W tych poszarpanych miejscach da
    > się odzyskać część informacji, ale będzie to kolorowa mozaika. W tym
    > przypadku niebieskawa - a to dlatego, że dziewczyna ma brązowe włosy,
    > więc kanał R się wysycił.

    Ale R to nie biały. Nie żeby to wiele zmieniało.

    > Mimo iż początkowo dało mi do myślenia, ale po powyższym eksperymencie
    > uznałem, że nawet jeśli coś tam dało się wyciągnąć, to nie należy iść
    > tą drogą.

    Właśnie.

    > Czy dostrzegasz różnicę w jakości obu pikseli? Oba dają tylko 4 bity
    > więc w/g broszurki marketingowej są tak samo dobre. Tymczasem różnica
    > okiem grafika jest kolosalna.

    Jasne jest że większe piksele mają większą pojemność, to chyba nikogo
    nie zaskakuje. Tyle że główne problemy z matrycami to nie jest ich
    przepalenie (od tego są ciemne obiektywy i ew. szybkie migawki),
    a praca z kiepskim oświetleniem. A tu po prostu mamy pewną ilość światła
    i wielkość matrycy (zakładając ustaloną potrzebną głębię ostrości,
    rozdzielczość oraz czas ekspozycji) wiele tu nie zmienia (musimy jedynie
    mieć obiektyw odpowiedni dla danej matrycy). Podobno małe obiektywy są
    w takich warunkach nawet gorsze, ze względu na większe szumy.

    Obecne matryce (w porównaniu do takich 10-letnich i starszych) trochę tu
    poprawiają. W tym także BSI. Ale nie spodziewałbym się tu cudów.
    Zastosowanie odpowiednich algorytmów może tu wiele poprawić (chociaż nie
    będzie to już zwykłe zdjęcie). Tak samo jak w przypadku oka i mózgu.

    >>> Nie zgodzę się. Duża matryca 50Mpx może być znacznie gorsza od
    >>> mniejszej, ale 8Mpx.
    >>
    >> Ale tak w praktyce, znasz taką parę matryc, które by spełniały te
    >> warunki?
    >> No nie wiem, jakaś APS-C 8MPix?
    >
    > Ok, a teraz przeciwstawmy teorię. Skoro jest odwrotnie - jak
    > twierdzisz

    Niczego takiego nie twierdziłem, oczywiście.

    > - czy można zatem powiedzieć, że im mniejszy piksel, tym
    > lepsza matryca? W końcu 50Mpx na FF jest lepsze od np. 20Mpx ponoć :-)

    Jasne że może być, jeśli np. robisz zdjęcia małych detali i matryca
    20MPix jest w ogóle nieprzydatna (albo musisz składać zdjęcia
    z fragmentów).

    Zwykle jest tak, że liczba potrzebnych pikseli jest z góry ustalona.
    Jeśli chcesz produkować strumień video 1080p, to zarówno matryca 50
    Mpix, jak i 20 Mpix nie będzie mieć sensu (chyba że z digital zoomem,
    ale wtedy to ona nie będzie używać tylu pikseli).

    > A'propos - porównałem RAW z Sony A99 z Sony A99 II. Matryca w tym
    > 2-gim ma 2x mniejsze piksele. Po wyrównaniu rozdzielczości, jakość
    > obrazu ta sama w cieniach. Bez wyrównania - gorsza w Sony A99 II.

    A co to znaczy "bez wyrównania"?
    Oglądając piksele 1:1?
    Chyba nie spodziewałeś się niczego innego?

    > Chodziło mi o to, że skoro mały piksel będzie swoim szumem zacierał
    > detale w cieniu do nierozpoznawalnego poziomu, to nawet obiektyw za 20
    > koła tego nie poprawi.

    Ależ poprawi, bardzo łatwo. Mały piksel = małe szumy. Problem nie jest
    w dużych szumach, tylko w małej ilości światła.
    Tylko czy taki obiektyw da się w ogóle kupić?

    Żeby było jasne: problem jest w małej ilości światła wpadającego do
    obiektywu. Nie jest takie ważne, na jak dużej powierzchni skupimy to
    światło (aczkolwiek oczywiście potrzebna nam rozdzielczość jest istotna).

    Małe piksele mają swoje problemy, owszem: współczynnik wykorzystania
    powierzchni jest w nich mniejszy (zwłaszcza bez BSI). To jednak chyba
    kwestia technologiczna, do pokonania.
    Małe matryce mają problem z obiektywami: te ostatnie muszą być naprawdę
    dobrej jakości, żeby uzyskać rozdzielczość, ostrość itd. podobną do tych
    dla większych matryc. W pewnym momencie takich obiektywów po prostu nie
    ma.
    --
    Krzysztof Hałasa


  • 53. Data: 2019-03-31 01:03:15
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: Krzysztof Halasa <k...@p...waw.pl>

    "J.F." <j...@p...onet.pl> writes:

    > Ale ... obrazek 24Mpix, a plik niecale 25MB.
    > Dali jakas lekka kompresje, czy to jest tylko 8-bit ?

    Aaa, to dlatego ta tzw. "matryca" jest nieliniowa :-)
    Trzeba przełączyć na "uncompressed raw", tyle że to będzie 2x dłużej
    trwało i 2x więcej miejsca będzie zajmowało.
    --
    Krzysztof Hałasa


  • 54. Data: 2019-03-31 16:30:08
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: Marek S <p...@s...com>

    W dniu 2019-03-31 o 00:45, Krzysztof Halasa pisze:

    >
    > No można napisać, że w punkcie nasycenia matryca jest nieliniowa - nawet
    > bardzo nieliniowa. Ale poniżej tego punktu (punktów dla różnych kolorów)
    > jest jednak zupełnie liniowa.

    Zrób eksperyment: do samo ujęcie, to samo oświetlenie. Zrób kilka fot
    czegoś niezbyt kontrastowego, ale też nie płaskiego w sensie dynamiki,
    tak aby różniły się o 2ev (regulując czasem wyłącznie). Potem wyrównaj
    ich ev w ACR. Przenieś do Photoshopa, policz różnice między sąsiednimi
    ujęciami, wzmocnij te różnice ostrą krzywą.

    Można bardzo się zdziwić. Niektóre obszary będą świecić różnicami jak
    latarnia. Zwróć też uwagę iż w światłach różnice będą znacznie mniejsze
    niż w cieniach. Daje to efekt taki jakby matryca dużo szybciej się
    wysycała niż "niedosycała". Jeśli miałbym to rysować, to dałbym
    charakterystykę w kształcie S o sporym liniowym odcinku, w bielach
    bardzo mocno zakrzywioną a w cieniach długą i łagodną krzywą.

    > To jest prawda, ale nie dlatego, że matryce są nieliniowe, tylko
    > dlatego, że oko jest nieliniowe, a także dlatego, że typowe pliki
    > z grafiką (filmami itp) są (mają być) nieliniowe.

    50% zgody. Pomiary pokazały mi nieliniowość matrycy mimo wszystko. Po
    drugie czym jest przetwarzanie RAW w ACR jak nie nanoszeniem
    nieliniowości oka? A moja teza jest taka, że choćbyś na uszach stawał,
    to nie dasz rady tak skompresować dynamiki, że będzie choćby w
    przybliżeniu podobna do tego, co widzimy. Matryca FF zwyczajnie nie jest
    w stanie zarejestrować obrazu o takiej rozpiętości tonalnej. Nie ma więc
    czego kompresować.

    > Typowy monitor jest w stanie wyświetlić 8-bitową głębię koloru
    > (pomijając 6-bitowe TNy, ew. z FRC). Jeśli będziesz miał monitor, który
    > naprawdę będzie w stanie wyświetlić 14-bitowe kolory (liniowe), to
    > będziesz mógł tak samo przetwarzać wszystkie tony. Chwilowo jednak
    > trzeba oszukiwać.

    Sądzę, że po wzmocnieniu różnic w PS, nawet na 1 bitowym monitorze
    zobaczysz je wyraźnie.

    Tu masz przykład:
    https://drive.google.com/file/d/1B34oZqwQM7jj3g60dw3
    UjCoUxSmQ9rb9/view?usp=sharing

    Komentarz.
    Zdjęcie wyprałem losowo z kolekcji bo nie mam już pomiarowych i nie chce
    mi się ich powtarzać. Ten świecący punkt, to wcale nie żarówka, to
    najbardziej zacieniony element.
    Na zdjęciu swobodnie kształty rozróżnisz. Nie trzeba do tego super -
    monitorów.

    > Jasne jest że większe piksele mają większą pojemność, to chyba nikogo
    > nie zaskakuje.

    Ale kształt charakterystyki zapełniania - już owszem. Jeśli miałbym
    narysować "hydrauliczny" model piksela, to nie byłaby to puszka
    przypominająca walec, do której wlewamy wodę (fotony). Puszzka byłaby
    sporo szersza u podstawy, zwężająca się powiedzmy tak do 20% wysokości,
    potem ścianki byłyby równoległe przez długi odcinek, a na samym końcu
    ostro zwężone.

    Tak więc nalewasz wodę, jej poziom przez dłuższy czas spokojnie,
    nieliniowo rośnie (czernie), potem szybkość podnoszenia się słupa wody
    jest constans aby w końcowej fazie błyskawicznie zwiększyć swój poziom
    (biele - tuż przed nasyceniem).

    >> Ok, a teraz przeciwstawmy teorię. Skoro jest odwrotnie - jak
    >> twierdzisz
    >
    > Niczego takiego nie twierdziłem, oczywiście.

    Ok, ale rozmawiamy. Jak zwać, tak zwać.

    >> - czy można zatem powiedzieć, że im mniejszy piksel, tym
    >> lepsza matryca? W końcu 50Mpx na FF jest lepsze od np. 20Mpx ponoć :-)
    >
    > Jasne że może być, jeśli np. robisz zdjęcia małych detali i matryca
    > 20MPix jest w ogóle nieprzydatna (albo musisz składać zdjęcia
    > z fragmentów).

    Nie o tym mowa. Piszę o dynamice piksela a nie rozdzielczości. Choć i w
    tym przypadku mam obiekcje bo jakoś nie potrafię sobie wyobrazić iż w
    nieskończoność możemy pomniejszać piksele i uzyskiwać większą precyzję
    odwzorowania. Nie chce mi się wierzyć, że choćby mikrozniekształcenia
    światła w optyce nie zachodzą, a które powodowałyby niezasadność
    pomniejszania pikseli.

    >> A'propos - porównałem RAW z Sony A99 z Sony A99 II. Matryca w tym
    >> 2-gim ma 2x mniejsze piksele. Po wyrównaniu rozdzielczości, jakość
    >> obrazu ta sama w cieniach. Bez wyrównania - gorsza w Sony A99 II.
    >
    > A co to znaczy "bez wyrównania"?
    > Oglądając piksele 1:1?

    Zresamplowanie obrazu do tego samego wymiaru: czyli 50Mpx do 20Mpx.
    Jakość w cieniach podobna, bez wyrównania - gorsza dla 50Mpx (czyli
    patrząc piksel w piksel).

    > Chyba nie spodziewałeś się niczego innego?

    Oczywiście, że nie.

    >> Chodziło mi o to, że skoro mały piksel będzie swoim szumem zacierał
    >> detale w cieniu do nierozpoznawalnego poziomu, to nawet obiektyw za 20
    >> koła tego nie poprawi.
    >
    > Ależ poprawi, bardzo łatwo. Mały piksel = małe szumy.

    Czyli chcesz powiedzieć, że np. telefon z matrycą z 20MPx wygeneruje
    mniej zaszumiony obraz niż FF z 20MPx? Bo mały piksel = mały szum?

    Po drugie, chcesz powiedzieć, że obiektyw, powiedzmy jakaś stałka f/2.8
    za 2k zł, da dużo większy szum niż inny obiektyw też f/2.8 ale za 20
    tys. zł?


    > Małe piksele mają swoje problemy, owszem: współczynnik wykorzystania
    > powierzchni jest w nich mniejszy (zwłaszcza bez BSI). To jednak chyba
    > kwestia technologiczna, do pokonania.

    Nie mieszajmy technologii w porównaniach, bo do żadnych wniosków nie
    dojdziemy.


    --
    Pozdrawiam,
    Marek


  • 55. Data: 2019-03-31 16:44:36
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: Marek S <p...@s...com>

    W dniu 2019-03-30 o 18:38, J.F. pisze:

    > Wzialem Imaging Edge ... calkiem niezle rozjasnia, choc ma limit tylko
    > 2EV. Widac folie na framugach, deski na podlodze/parapecie, piasek ?

    Parapet to surowe cegły - świeżo postawiony dom. Desek nie ma tam
    żadnych :-)

    > Aczkolwiek zaszumienie jest.

    I o tym mowa. Jeśli miałbym zrelacjonować jak ja to okiem widziałem, to
    powiedziałbym, że cienie były rozjaśnione o 4ev i bez szumów :-) A więc
    jeszcze raz przytaczam moją tezę - współczesne matryce są przynajmniej o
    rząd czułości gorsze od naszych oczu.

    > Ale ... obrazek 24Mpix, a plik niecale 25MB.
    > Dali jakas lekka kompresje, czy to jest tylko 8-bit ?

    Ilość bitów jest 14. Sony stosuje kompresję bezstratną w RAW.

    --
    Pozdrawiam,
    Marek


  • 56. Data: 2019-03-31 16:46:53
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: Marek S <p...@s...com>

    W dniu 2019-03-31 o 01:03, Krzysztof Halasa pisze:
    > "J.F." <j...@p...onet.pl> writes:
    >
    >> Ale ... obrazek 24Mpix, a plik niecale 25MB.
    >> Dali jakas lekka kompresje, czy to jest tylko 8-bit ?
    >
    > Aaa, to dlatego ta tzw. "matryca" jest nieliniowa :-)

    Bo Sony A99 ma kompresję bezstratną w RAW? To ma być uzasadnienie?
    Wszystkie RAW są 14-bitowe. W superszybkich seriach (sporadycznie
    używam), 12-to bitowe.

    > Trzeba przełączyć na "uncompressed raw", tyle że to będzie 2x dłużej
    > trwało i 2x więcej miejsca będzie zajmowało.

    Nie ma takiej opcji.

    --
    Pozdrawiam,
    Marek


  • 57. Data: 2019-03-31 19:30:49
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: "J.F." <j...@p...onet.pl>

    Dnia Sun, 31 Mar 2019 16:44:36 +0200, Marek S napisał(a):
    > W dniu 2019-03-30 o 18:38, J.F. pisze:
    >> Wzialem Imaging Edge ... calkiem niezle rozjasnia, choc ma limit tylko
    >> 2EV. Widac folie na framugach, deski na podlodze/parapecie, piasek ?
    >
    > Parapet to surowe cegły - świeżo postawiony dom. Desek nie ma tam
    > żadnych :-)

    No to faktycznie matryca nie wyrabia :-)

    http://pl.tinypic.com/view.php?pic=4rot3t&s=9

    Mialem wrazenie, ze jakas szeroka szpare miedzy wyjatkowo nierownymi
    deskami widze :-)

    >> Aczkolwiek zaszumienie jest.
    > I o tym mowa. Jeśli miałbym zrelacjonować jak ja to okiem widziałem, to
    > powiedziałbym, że cienie były rozjaśnione o 4ev i bez szumów :-) A więc
    > jeszcze raz przytaczam moją tezę - współczesne matryce są przynajmniej o
    > rząd czułości gorsze od naszych oczu.

    No i cos w tym jest, ale jak widac - daje sie sporo rozjasnic te 14
    bitow.

    J.


  • 58. Data: 2019-03-31 21:12:28
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: Marek S <p...@s...com>

    W dniu 2019-03-31 o 19:30, J.F. pisze:
    >
    > No to faktycznie matryca nie wyrabia :-)
    >
    > http://pl.tinypic.com/view.php?pic=4rot3t&s=9

    Wow! Rany! A co się temu przytrafiło? Soft kiszkowaty, czy operator? :-D :-D

    Tak powinno być:

    https://drive.google.com/file/d/18KpFCmgm0SU6bWwO8qL
    iAoq7EpuY6QQv/view?usp=sharing

    To, co ja nazywam nie wyrabianiem się matrycy, to jest właśnie powyższe.
    Twój przykład, to jest raczej utylizacja zdjęcia :-D

    > Mialem wrazenie, ze jakas szeroka szpare miedzy wyjatkowo nierownymi
    > deskami widze :-)

    Nie, to pustaki, czy coś takiego. :-D

    > No i cos w tym jest, ale jak widac - daje sie sporo rozjasnic te 14
    > bitow.

    ... owszem, choć nie w Twoim wariancie :-) Bardzo dużo można
    skompresować (nie mylić z rozjaśnieniem). Jednakże aby było to podobne
    do rzeczywistości, to np. pianka pod oknem powinna być całkiem jasna i
    nie być zaszumiona. Gdyby matryca wyciągała może z 4ev więcej, to w tym
    przypadku dałoby się coś zrobić. A potem należałoby podnieść poprzeczkę
    i zrobić to samo zdjęcie przy bezchmurnym niebie (ale nie pod słońce).
    Wtedy okaże się, że może w sumie z 8ev by się przydało. Nie wspominając
    o sofcie typu PS, który póki co nie jest w stanie dokonywać korekcji w
    takim zakresie.

    --
    Pozdrawiam,
    Marek


  • 59. Data: 2019-03-31 21:30:40
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: "J.F." <j...@p...onet.pl>

    Dnia Sun, 31 Mar 2019 21:12:28 +0200, Marek S napisał(a):
    > W dniu 2019-03-31 o 19:30, J.F. pisze:
    >> No to faktycznie matryca nie wyrabia :-)
    >> http://pl.tinypic.com/view.php?pic=4rot3t&s=9
    >
    > Wow! Rany! A co się temu przytrafiło? Soft kiszkowaty, czy operator? :-D :-D

    Soft byc moze, operator na pewno - mialem rozjasnic cienie, to
    rozjasnilem, reszta mnie nie interesowala

    > Tak powinno być:
    > https://drive.google.com/file/d/18KpFCmgm0SU6bWwO8qL
    iAoq7EpuY6QQv/view?usp=sharing
    >
    > To, co ja nazywam nie wyrabianiem się matrycy, to jest właśnie powyższe.

    A ja tam widze calkiem przyzwoicie tam, gdzie wczesniej "ciemnosc
    widze", wiec nie wiem czemu narzekasz, ze nie wyrabia :-)

    Po prostu monitor masz do d* :-)

    >> Mialem wrazenie, ze jakas szeroka szpare miedzy wyjatkowo nierownymi
    >> deskami widze :-)
    > Nie, to pustaki, czy coś takiego. :-D

    Ale szpara, czy wydaje mi sie i to tylko jakas ciemna plama ?

    >> No i cos w tym jest, ale jak widac - daje sie sporo rozjasnic te 14
    >> bitow.
    > ... owszem, choć nie w Twoim wariancie :-) Bardzo dużo można
    > skompresować (nie mylić z rozjaśnieniem).

    To co bylo prawie czarne trzeba rozjasnic :-)

    > Jednakże aby było to podobne
    > do rzeczywistości, to np. pianka pod oknem powinna być całkiem jasna i
    > nie być zaszumiona.

    Mnie tam nie bylo, to nie wiem jakie bylo wrazenie naoczne.
    Ale faktycznie w pokoju widze dobrze i wnetrze i za oknem.

    > Gdyby matryca wyciągała może z 4ev więcej, to w tym
    > przypadku dałoby się coś zrobić. A potem należałoby podnieść poprzeczkę
    > i zrobić to samo zdjęcie przy bezchmurnym niebie (ale nie pod słońce).
    > Wtedy okaże się, że może w sumie z 8ev by się przydało. Nie wspominając
    > o sofcie typu PS, który póki co nie jest w stanie dokonywać korekcji w
    > takim zakresie.

    Jesli matryca szumi, to i soft nie poradzi.
    Ale jesli nie szumi ....

    Tak czy inaczej - troche sie jednak potwierdzila opinia, ze dzieki tej
    duzej ilosci bitow matryca ma jednak wiekszy zakres niz sie na
    nieobrobionej fotce wydaje :-)

    J.


  • 60. Data: 2019-03-31 22:24:38
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: Marek S <p...@s...com>

    W dniu 2019-03-31 o 21:30, J.F. pisze:

    > A ja tam widze calkiem przyzwoicie tam, gdzie wczesniej "ciemnosc
    > widze", wiec nie wiem czemu narzekasz, ze nie wyrabia :-)

    Wyznaję wyższe standardy :-)

    > Po prostu monitor masz do d* :-)

    Akurat monitor do d... znacznie lepiej cienie by prezentował. Czasem
    widuję swoje prace na lapkach różnej maści. Zazwyczaj są mocno
    rozjaśnione niż monitory graficzne.

    > Ale szpara, czy wydaje mi sie i to tylko jakas ciemna plama ?

    Szpara między pustakami! Chyba zaświadczenie od księdza będzie potrzebne
    :-D :-D Odpuść już tej szparze :-D

    >>> No i cos w tym jest, ale jak widac - daje sie sporo rozjasnic te 14
    >>> bitow.
    >> ... owszem, choć nie w Twoim wariancie :-) Bardzo dużo można
    >> skompresować (nie mylić z rozjaśnieniem).
    >
    > To co bylo prawie czarne trzeba rozjasnic :-)

    A to co było jasne - przyciemnić. A to wszystko dokonać za pomocą
    niesymetrycznej krzywej typu S, bo rozjaśnianie/przyciemnianie (czyli
    brightness), z natury rzeczy liniowe, daje fatalne efekty. Kompresując
    taką charakterystyką zbliżamy się do tego, co widzi nasze oko.

    Więc czarnego w żadnym przypadku nie wolno rozjaśniać. No chyba, że masz
    na myśli utylizację zdjęcia w/g własnego przykładu :-D Całość staje się
    do d... i nawet te rozjaśnione cienie są kompletnie nieczytelne bo ...
    są rozjaśnione zamiast skompresowane.

    >> Jednakże aby było to podobne
    >> do rzeczywistości, to np. pianka pod oknem powinna być całkiem jasna i
    >> nie być zaszumiona.
    >
    > Mnie tam nie bylo, to nie wiem jakie bylo wrazenie naoczne.

    Zapewniam, że tylko z tego powodu informuję jakie było :-D

    > Ale faktycznie w pokoju widze dobrze i wnetrze i za oknem.

    Ufff, wreszcie :-D A tyle pisania i demo było trzeba użyć zamiast
    otworzyć oczy i popatrzeć :-D

    >> Gdyby matryca wyciągała może z 4ev więcej, to w tym
    >> przypadku dałoby się coś zrobić. A potem należałoby podnieść poprzeczkę
    >> i zrobić to samo zdjęcie przy bezchmurnym niebie (ale nie pod słońce).
    >> Wtedy okaże się, że może w sumie z 8ev by się przydało. Nie wspominając
    >> o sofcie typu PS, który póki co nie jest w stanie dokonywać korekcji w
    >> takim zakresie.
    >
    > Jesli matryca szumi, to i soft nie poradzi.
    > Ale jesli nie szumi ....

    Cytujesz moje słowa. Napisałem, że szacuję, że jeszcze z 8ev czułości
    może by wystarczyło. Czyli szum powinien być na tyle mniejszy, żeby dać
    te domniemane 8ev.

    > Tak czy inaczej - troche sie jednak potwierdzila opinia, ze dzieki tej
    > duzej ilosci bitow matryca ma jednak wiekszy zakres niz sie na
    > nieobrobionej fotce wydaje :-)

    Nie! Czy dokładając więcej bitowy przetwornik AC do fototranzystora
    czynisz go lepszym elektrycznie???

    Zaczynając ten wątek byłem o tym przekonany. Ale jeden z kolegów użył
    argumentu, który zbił mnie z tropu i przyznałem mu rację: ilość poziomów
    kwantyzacji zwykle skorelowana jest z zakresem dynamiki piksela, ale ta
    korelacja niekoniecznie jest prawdziwa. Marketing ma tu pole do popisu.
    Jemu ulegasz. Przykładowo: matryca jest kwantyzowana 14-bitowo, ale
    szumi na 4-ostatnich bitach. Dało się skwantyzować? Dało!

    Druga rzecz, obrazowo: dajmy na to, że istnieją 2 różnej wielkości
    piksele. Oba dają odpowiedź 0...1V ale szum mają na poziomie 0.2V.
    Nasycamy oba. Mniejszy pomieści 256 fotonów ponad szum aby się nasycić,
    a drugi 1024 przy tym samym czasie naświetlania. Niech 1 foton da nam 1
    poziom kwantyzacji. W obu stosujemy przetwornik 10-bitowy. W tym
    pierwszym przypadku przetwornik AC będzie zawierał puste przebiegi.

    Trzecia rzecz: zwróć uwagę, że oba potrzebowały tyle samo czasu by się
    nasycić ale dają lepszą rozdzielczość. Jeśli zwiększymy natężenie
    padającego światła, to nic się nie zmieni, bo oba są już nasycone. Teraz
    zmieniamy technologie większego piksela. Mniej szumi: np. 0.02V. Okazuje
    się, że zaczyna "widzieć" więcej detali w cieniach więc możemy:

    a) Kwantyzować sygnał tą samą ilością bitów ale zwiększyć zakres
    kwantyzowanych napięć do 0.02...1V zamiast 0.2...1V.
    b) Dodatkowo dorzucić jeszcze ze dwa bity by uzyskać więcej poziomów
    gradacji koloru.

    W obu przypadkach ta "pianka" na zdjęciach da się identycznie dużo
    lepiej wydobyć z cienia a ilość bitów przetwornika nie wpływa na zakres
    dynamiki elementu optoelektrycznego.

    --
    Pozdrawiam,
    Marek

strony : 1 ... 5 . [ 6 ] . 7 ... 20 ... 29


Szukaj w grupach

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: