Polityka_blog_top_bill_desktop
Polityka_blog_top_bill_mobile_Adslot1
Polityka_blog_top_bill_mobile_Adslot2

13.03.2013
środa

Istota istotności

13 marca 2013, środa,


Każdy, kto prowadzi badania obiektów policzalnych lub mierzalnych pewnie prędzej czy później zetknie się z sytuacją, gdy chmurka wyników jednej grupy wyraźnie różni się od chmurki drugiej grupy, a p wcale nie ma zamiaru spaść poniżej magicznego 0,05. Albo przeciwnie – dwie chmurki prawie się nie różnią, ale program statystyczny wybarwi wynik na czerwono ogłaszając triumfalnie – różnica istotna statystycznie.

U zarania statystyki takie sytuacje zostawiano rozsądkowi badacza. W końcu to on jest specjalistą i on wie, co jest istotną różnicą, a co nie. Niestety, jak wiadomo, rozsądku nikomu nie brakuje, ale u każdego działa on inaczej. Stąd już dość wcześnie pojawiły się pomysły obiektywizacji tych rozsądków. Już niejaki Student (William Gosset) próbował wyznaczyć liczbową wartość istotności statystycznej, a zostało to przypieczętowane przez Ronalda Fishera, który zaproponował wartość p<0,05 jako odpowiadającą odejściu od normy o ponad dwa odchylenia standardowe. Co jednak ciekawe, sam Fisher trzydzieści lat później twierdził, że nie można ustalić raz na zawsze poziomu istotności statystycznej, a wartość p jest jedynie jedną z przesłanek, które badacz wykorzystuje na równi z własnym doświadczeniem, intuicją i pomysłami.

Teoretycznie rzeczywiście tak jest. Podręczniki statystyki mówią, że graniczne p<0,05 jest najczęstsze, ale nie jest jedyne możliwe. Programy statystyczne zaczerwieniają (lub wyróżniają w inny sposób) wartości p poniżej 5%, ale zwykle podają dokładne wartości p lub przynajmniej podają kilka zakresów (p<0,001, p<0,01, p<0,05, p<0,1, p>0,1 itp.) i to badacz ma zadecydować. W praktyce jednak odważają się na to chyba nieliczni. Ja na przykład nie czuję się tak wytrawnym statystykiem, by samemu zmieniać tę wartość graniczną. Nawet zaś gdybym się czuł, to pozostaje kwestia recenzentów, którzy patrząc na tabele i wykresy często zwracają uwagę jedynie na gwiazdki sygnalizujące istotność statystyczną, a wnioski wyciągnięte przy p>0,05 traktują jak śmieci.

Z taką postawą walczy Megan D. Higgs z Uniwersytetu Stanowego Montany. Twierdzi ona, że pojęcie istotności statystycznej jest nadużywane i nadinterpretowane. Swoich studentów zmusza do nieużywania tego pojęcia, zachęcając do podawania wartości p i obrony własnego stanowiska, co do wartości wyników. Pisze o tym w zimowym numerze American Scientist.

W swoim artykule w szczególności zaś przestrzega przed używaniem tego ścisłego terminu w popularyzacji wyników, gdyż jest niemal pewne, że niespecjaliści zrozumieją go opacznie. Opisuje ewolucję słowa „significant”, które jeszcze na początku XX w., gdy tworzono zręby statystyki, w języku potocznym znaczyło coś w stylu „zauważalne”, a obecnie znaczy coś w stylu „ważne”. To drobne przesunięcie semantyczne ma dość duże znaczenie psychologiczne przy interpretacji wyników. Wyniki balansujące przy granicy magicznego 0,05 mogą być albo „ważne”, albo „pomijalne”, a przecież sytuacja jest dużo bardziej złożona i nie jest zero-jedynkowa.

Czytając pomyślałem, że w języku polskim jest lepiej. Że słowo „istotne” ma dużo słabszą wagę niż „ważne”. Ale… czy na pewno? Czy to, że ja słowo „istotne” rozumiem jako „zauważalne, ale niekoniecznie bardzo ważne” nie jest moim skrzywieniem zawodowym? Być może stykając się z pojęciem istotności statystycznej wyrobiłem swoje poczucie językowe już pod tym kątem, a przeciętny użytkownik polszczyzny rozumie je inaczej…

Piotr Panek

ilustracja autorstwa IP 84.5, źródło Wikimedia Commons, licencja Creative Commons 3.0

Reklama
Polityka_blog_bottom_rec_mobile
Reklama
Polityka_blog_bottom_rec_desktop

Komentarze: 81

Dodaj komentarz »
  1. Gratulacje za dobór ilustracji!!! A ileż to różnic należy w tych obrazkach odnaleźć? Co do reszty to zamilknę.
    Z poważaniem W.

  2. Przy wszystkich wadach standardu 0,05 (ja za największą uznałbym to, co jest wspólne wszystkim tego typu standardom, a mianowicie że ich użytkownicy często czują się z powodu ich istnienia zwolnieni z krytycznego myślenia) ma on jedną i podstawową zaletę: istnieje. Przy obecnym parciu na wyniki i możliwościach manipulowania doborem próby i modelu statystycznego tak, by „coś ciekawego wyszło”, możliwość zmieniania do woli jeszcze i granicznej wartości p tylko pogorszy sprawę…

  3. Co robić, kiedy wyliczona wartość wskaźnika statystycznego leży tuż poniżej zadanej granicy. Nasz pogram wpadł na pomysł by podawać przedział w którym leży rzeczywista wartość wskaźnika i uniknąć w ten sposób dyskusji. No i się zaczęło. Od kilku lat najczęściej zadawane pytanie to: Dlaczego podawane są trzy wartości wskaźnika i co to znaczy? A najczęściej wykonywana czynność to zmiana ustawień tak, by program tego nie wyświetlał. Życie.

  4. Reklama
    Polityka_blog_komentarze_rec_mobile
    Polityka_blog_komentarze_rec_desktop
  5. „Czy to, że ja słowo ?istotne? rozumiem jako ?zauważalne, ale niekoniecznie bardzo ważne? nie jest moim skrzywieniem zawodowym? ”

    Ha, no właśnie. Z kolei gdy ja używam „istotne” to znaczy, to „niemal kluczowe”, a więc „bardzo ważne”. Poza tym mamy takie stwierdzenia jak: „istotą tego twierdzenia (zjawiska), jest to, że …”, a użycie takiego zwrotu sugerować może zwrot „istotne”. Ale ja nie jestem językoznawcą. Ciekawe, co na to prof. Bralczyk?

  6. Stratosfera. Ja będę szczęśliwy, gdy w Polsce maturzysta doda do swojego słownika i bedzie w stanie swobodnie i naturalnie używać pojęcia mediany.
    Co do p-value to każdy prosty inżynier zapamietuje, iż: „if the p-value is low H0 has to go” a także, że jak p>0.05 to „oczywiście” jest to „dowodem na prawdziwość H0” 😉

    A wartość p ustala mu manual a w przypadkach wątpliwych lokalny statystyczny Merlin, często nazywany Black Beltem.
    Każdy model i każda jego interpretacja są dobre tak długo, jak długo klient zaakceptuje wnioski. 😉 Gdy klient/odbiorca zaczyna mieć wątpliwości i na kolejne spotkanie przyprowadza Madam Mim tylko głupiec przyjdzie na nie bez naszego Merlina.

    Błogosławiona bądź statystyko, bo jak czarodziej zarabiałby na życie gdy nie uda mu się załapać na tenure… 😉

  7. Akurat czy to sie nazywa „poziom istotnosci”, czy jakos inaczej, czy jest 0.005 czy 0.001 jest malo wazne.

    Wazne jest to ze testy statystyczne dzialaja (jak kazda teoria metematyczna) jezeli spelnione sa ZOLZENIA przy ktorych zostaly wyprowazone. Akurat w przypadku testu t-Studenta, to i owo musi miec rozklad normalny, to i owo musi meic rozkald chi-kwadrat, a to i owo musi byc niezalezne. Jezeli te warunki nie sa spelnione, to wyniki testow mozna o kant d… roztluc.

    Problem polaga na tym, ze scientysci, zwlasza z nauk „humanistycznych” traktuja testy statystyczne (i inne procedury statystyczne) tak jak przyslowiowy „kreciolek z korbka”: wrzuca sie dane – wychodza liczby. Ani nikt nei wie ze jakies zalozenia sa potzrebne, ani ze trzeba je sprawdzic, a zwlaszcza jak je sprawdzic. Dzieki temu, wiekszosc resultatow publikowanych nawet w powaznych zurnalach mozna wlasnie o ow kant roztluc.

    Ile osob sprawdza czy metoda najmniejszych kwadratow ma statystyczny sens? Ile osob wie jakie zalozenia musza spelnic „residuals” czyli skladnik losowy aby metoda najmniejszych kwadratow miala statystycznt sens? Ile osob wie ze jezeli „residuals” sa auto-skorelowane, estymatory modelu sa obciazone? Ile osob wie co to znaczy ze estymatory sa obciazone?

    Statystyka to delikatne narzedie. nadaje sie dla mniej wiecej 5 procent tych ktory jej uzywaja. A reszta mysli ze uzywa.

  8. J.Ty.
    13 marca o godz. 11:39
    „sprawiedliwemu i we snie bog zsyla”
    patrz: zygmunt freud 😉

  9. @AL – masz tu 100% racje, a poza tym, to nawet najlepszy test statystyczny nie odrozni np. przypadkowej badz pozornej korelacji od zwiazku przyczynowo-skutkowego, szczegolnie, gdy mamy do czynienia z mala, niereprezentatywna iloscia obserwacji. Statystyka matematyczna jest zreszta oparta na szeregu zalozen, niekoniecznie ‚jedynie slusznych’, a sama definicja prawdopodobienstwa pozostawia wiele do zyczenia…

  10. @zza kaluży

    A ja tam bedę szczęsliwy, kiedy w Polsce maturzysta będzie potrafił odróżnić Androida0.5 od 0.5 litra. Nirwanę osiągnę, jak przeciętny maturzysta doda w pamięci 2 do 2 i wyjdzie mu 4 plus/minus 0.005. Statystycznie raczej to niemożliwe, ale statystyka lubi się mylić, więc nie tracę nadzieje. Bo tak poza wszystkiem wciąż obowiązuje opinia niejakiego Churchilla na temat istotności, znaczenia, ważności itp wyników statystycznych.

  11. kagan: Niedokladnie tak z ta korelaca i przyczynowoscia. Jest sporo badan na temat testow dotyczacych przyczynowosci; wiadacy jest niejaki Judea Pearl ktory w zeszlym roku dastal za to Nagrode Turinga. Niedawno ukazalo sie drugie wydanie jego ksiazki. Niestety, teoria jest dosyc trudna i zdecydowanie niedostepna dla nie-matematykow, wiec ogolna sytuacja sie nie zmieni.

    Zas jak idzie o definicje prawdopodobienstwa, to jak mi wiadomo jest kilka i kazda ma swoje problemy. Niczego lepszego nie wymyslono

  12. 1. „Istotny” nawiązuje do istoty (bytu), czyli tego, co jest. Semantycznie zatem jest ważniejszy, niż „ważny”.
    2. Różnice na obrazkach najlepiej błyskawicznie znaleźć metodą fotogrametryczną: ściągając je oczami w stereoparę. Tam, gdzie są różnice, obraz drga; poza tym – jest płaski.

  13. Prawdopodobieństwo, że coś się w przyszłości wydarzy, policzone metodami statystycznymi nie dotyczy poszczególnego przypadku a jedynie odpowiednio wielkiej liczby przypadków. Jeśli jest prawdopodobne, że to coś wystąpi z prawdopodobieństwem 1/2 to znaczy, że w przyszłości 50% wydarzeń będzie zgodna z oczekiwaniem. Taki jest urok statystyki. Ona nic nie może powiedzieć czy oczekiwane przez nas wydarzenie nastąpi z żadnym prawdopodobieństwem.
    Z poważaniem W.

  14. Wojtek 1942: To dosyc duze uproszczenie. Taka interpertacja statystyki ( czestotliwosciowa) jest jedna z mozliwych. Wnioskowanie Bayesowski na przyklad mozna prowadzic w innych kategoriach, bodz tez nie poslygiwac sie w ogole pojeciem prawdopodobienstwa w klasycznym sensie (Zdzislaw Pawlak).

    Bez problemu przeprowadza sie na prayklad prognoze temperatury na jutro, podalac funkcje rozklado prawdopodobienstwa, mimo ze „jutro” eystapi tylko raz.

    Polecam artykul wikipedii (dosyc rzetelny) Interpretations of probabilities

  15. @A.L.
    Chcesz wyciągnąć wnioski z tego, że coś się wydarzyło kiedyś. Nie mam nic przeciw statystyce i prawdopodobieństwu. Chcę jedynie upierać się przy zdaniu iż z tego, że dotąd zawsze przychodził po nocy dzień i to ze 100% pewnością wcale nie wynika iż jutro też będzie dzień. Acz będzie. To są zdania nieco poza tematem rozprawki więc nie będę sie zbytnio rozwijał.
    Z powazaniem W.

  16. polsta 14 marca o godz. 9:14
    „Nirwanę osiągnę, jak przeciętny maturzysta doda w pamięci 2 do 2 i wyjdzie mu 4 plus/minus 0.005.”
    Tutaj mogę pomóc podsuwając metodologię, za pomocą której mnie uczono:

    http://www.youtube.com/watch?v=4I0_WmZuv68

    Wtedy „0.005” tłumaczono bardziej przystępnie za pomocą „za dokładnie”. Chyba warto wrócić do dawnych, sprawdzonych wzorców.

  17. Wijtek 1942: „Chcesz wyciągnąć wnioski z tego, że coś się wydarzyło kiedyś.”

    Tak. Tak sie wlasnie robi. Nuestety, z twoicj wywodow niewiele rozumiem

  18. @AL
    1. Nie sadze, aby mozna bylo orzec o istnieniu zwiazku przyczynowo-skutkowego, nieznajac mechanizmu danego zjawiska, czyli traktujac dane zjawisko jako tzw. czarna skrzynke (black box).
    2. Istnienie wielu definicji prawdopodobienstwa swiadczy glownie o tym, ze matematycy dalej nie rozumieja o co tu wlasciwie chodzi w tej calej statystyce matematycznej. Dla mnie wiec ten caly rachunek prawdopodobienstwa i oparta na mim statystyka matematyczna jest dziedzina paranaukowa, czym w rodzaju alchemii czy astrologii, przynajmniej do czasu, az wreszcie dowiemy sie czym tak naprawde jest owo prawdopodobienstwo. Jak to pisze Gospodarz tego blogu: ‚sam Fisher trzydzieści lat później twierdził, że nie można ustalić raz na zawsze poziomu istotności statystycznej, a wartość p jest jedynie jedną z przesłanek, które badacz wykorzystuje na równi z własnym doświadczeniem, intuicją i pomysłami’.
    3. A wiec na dobra sprawe, ten ten caly aparat matematyczno-statystyczny uzywany przez badaczy sluzy glownie do uwiarygodnienia wynikow ich badan, poprzez ubranie owych wynikow w szate pseudomatematyczna, a wiec wygladajaca bardzo naukowo. Ale tak naprawde, to wartosc ‚p’, a wiec i wynik testu stsytystycznego, wybieramy arbitralnie, a wiec testy statystyczne to tak naprawde, to niczego nie dowodza poza tym, ze poslugujacy sie nimi slyszal o istnieniu metod statystycznych…
    Pozdrawiam!

  19. kagan 15 marca o godz. 4:05
    I pomyśleć, że są ludzie, którzy takie banialuki wypisują zamiast schowania w mysią dziurę ze wstydu…

    „1. Nie sadze, aby mozna bylo orzec o istnieniu zwiazku przyczynowo-skutkowego, nieznajac mechanizmu danego zjawiska, czyli traktujac dane zjawisko jako tzw. czarna skrzynke (black box).”
    Dali ci czarną skrzynkę, z której wystaje mała zapadka i cyngiel. Gdy zapadka jest w pozycji „A” po nacisnięciu cyngla z pudełka pada strzał a gdy jest w pozycji „B” naciśniecie cyngla nie kończy się wystrzałem. Dostajesz worek złota i trzy wiadra diamentów pod warunkiem ustawienia się naprzeciwko tej ściany pudełka, z której padają strzały i pociagniecia za cyngiel. Możesz sobie sam ustawić zapadkę w jakiej chcesz pozycji i możesz powtórzyć eksperyment z zapadką i cynglem nawet milion razy – ścislej, ile tylko sobie razy zamarzysz – zanim zdecydujesz się stanąć przed „strzelającym pudełkiem” i pociagnąć za cyngiel.
    Twierdzisz, że nie istnieje taka liczba powtórzeń eksperymentu, która przekonałaby ciebie, nawet przy braku możliwości otwarcia pudełka i poznania wewnętrznego mechanizmu, że warto zaryzykować, przestawić zapadkę do pozycji „B”, pociągnąć za cyngiel i stać się posiadaczem obiecanych skarbów?

    2. „Dla mnie wiec ten caly rachunek prawdopodobienstwa i oparta na mim statystyka matematyczna jest dziedzina paranaukowa, czym w rodzaju alchemii czy astrologii”
    To tylko świadczy o twoich tragicznych brakach w edukacji. Człowieku, nie kompromituj się. Dostosowując przykład do twojego poziomu. Jesteś właścicielem wielkiej sieci sklepów i właśnie kupiłeś milion puszek dżemu, które statek przywiózł ci do portu. Aby się przekonać, co za dżem ci przywieziono, poleciłeś otworzyć jedną puszkę i ku swojemu przerażeniu znalazłeś w niej mysz. Co robisz? Otworzysz wszystkie puszki, biedaku, który do szkoły miał pod górkę?
    Wyobraź sobie, że na świecie każdego dnia tysiące ludzi nie robi nic innego, jak tylko rozwiązuje powyższe zadanie. Z kostkami masła, woreczkami cukru, puszkami rybek, amunicją, piwem, częściami samochodowymi, żarówkami, tranzystorami, majtkami i bóg wie czym. I jakoś nie widać gór rozpakowanego masła i wysypanego cukru pomieszanego ze szprotkami w oleju.
    Są ludzie, którzy chodzą do szkoły i uczą się rachunku prawdopodobieństwa i statystyki gdy ty na blogach piszesz androny.

  20. Lekarz po dokładnym zbadaniu pacjenta informuje rodzinę, że pacjent ma 80% szans na przeżycie. To jest właśnie uproszczenie. Lekarz miał jedynie prawo powiedzieć, że dotąd pacjenci z takimi jak pacjent dolegliwościami w 80% przeżyli, tzn 80% tych pacjentów przeżyło. To jest dość proste. Statystyka nie określi prawdopodobieństw tego co się stanie w przyszłości w przypadku jednostkowym. Jak się nie chce to się nie rozumie. I kagan pisząc: ?1. Nie sadze, aby mozna bylo orzec o istnieniu zwiazku przyczynowo-skutkowego, nieznajac mechanizmu danego zjawiska,” pisze zwyczajną prawdę, truizm. Z tego, że coś dotąd zdarzało się w 100% nie pozwala twierdzić, że zdarzy się znów, chyba, że znamy dokładny mechanizm takich zdarzeń. O to chodziło w porównaniu z następującym po nocy dniu.
    Z powazaniem W.

  21. Wojtek 1942: Panie Wojtek, niech Pan nie opowiada bzdur. Jak juz Panu pisalem (i odsylalem do literatury) , interpretacia ” czestosciowa” prawdopodobienstwa nie jest jedyna mozliwa. Propomowalbym aby zamiast wypowaiadac sie o matematyce, wypowiadal sie Pan o rzeczach o ktorych ma Pan jako takie pojrcie

  22. kagan: Problemy przyczynowosci w black box sa stare jak swiat. Zajmowal sie tym juz Norbert Wiener w latach 40 (twierdzenie Payleya-wienera). Jert to chleb powszedni inzynierow elektrykow.

    Zas jak idzie o prawdopodobienstwo, udziele Panu takiej odpowiedzi jak Wojtkowi.

  23. @A.L.
    Serdecznie dziękuję za te niezwykle miłe słowa otuchy. Nie było moim zamiarem interpretowanie czegokolwiek związanego z matematyką a jedynie zwrócenie uwagi na to, że rozumowanie jest niezgodne z logiką (formalnie). I nie przeczytam zalecanej literatury choćby z przekory.
    Z poważaniem W.

  24. Mówiąc ściślej, metody analityczne typu transformaty całkowe pozwalają (bardzo, ale to bardzo skutecznie) badać związki przyczynowo-skutkowe w pewnych konkretnych modelach – skoro zakładamy, że skutek nie może wyprzedzać w czasie przyczyny, potrafimy w niektórych przypadkach wykluczyć kauzalność (związek przyczynowo-skutkowy). Ale to jest wynikanie w jedną stronę, bo następstwo czasowe nie implikuje związku przyczynowo-skutkowego. Jeśli więc, badając jakiś system złożony, odczytam sygnał typu 0, 0, 0, 0, 5, 0, -5, 0, 0, 0, 0, 5, 0, -5, 0, 0, 0, 0, 5, 0, -5, 0, 0, 0, 0, 5, 0, -5 itd., cyklicznie, to nie mogę jedynie na tej podstawie wywnioskować, że pojawienie się -5 w chwili n+2 jest *skutkiem* tego, iż w chwili n odnotowałem 5. Pomijając już delikatniejsze kwestie natury filozoficznej i „filozoficznej”, matematyka może rozstrzygać tylko o własnościach matematycznego modelu jakiegoś zjawiska fizycznego, a o samym zjawisku fizycznym tylko o tyle, o ile model owo zjawisko wiernie opisuje – czy zaś tak jest, to już nie jest kwestia czysto matematyczna. Żadne twierdzenie matematyczne nie zagwarantuje nam przecież, że od jutra świat nie zacznie się rządzić innymi prawami fizyki.

  25. Wojtek 1942: „Niezgodne z logika”. Jaka mianowicie?

    Doceniam manifesto na temat pozostania w ignorancji

  26. Gall Anonim: W zasadzie sie zgadzam. Zainteresowanym proponuje pogoglowac na Granger casuality, speclalnie w kontekscie modeli ARMA. Artykul niejakigo Lin, „Notes on testing casualirt”. Przystepny

  27. I ja też zgadzam się z „Gall Anonim” bowiem nie można sie nie zgodzić ze słusznością. Ale to jest własnie poparcie tego co usiłowałem w najprostszy z możliwych sposobów przedstawić. Model matematyczny to jest pole rządzenia matematyki a z tym i statystyki i nie może mieć statystyka czy rachunek prawdopodobieństwa wpływu na przyszłość rzeczywistości. Proste jeśli się chce słuchać. Niechęć do czytania wybranych przez „obcego” tekstów nie musi być chęcią pozostawania w ignorancji. Zresztą nie zawsze jest najważniejsze co ktoś tam napisał. Mało to dziwnych rzeczy wypisują? To taki kiepski żart. A swoja drogą jakoś nie moge załapać czego nie rozumiesz w moich nieudolnych wywodach.
    Wracając do tekstu głównego to tam jest postawione pytanie czy 5% błędów czy odmiennych efektów eksperymentu dyskwalifikuje tezę czy nie. Jeśli zrozumiałem swoim słabym rozumkiem autora. I to nie jest o prognozowaniu przyszłości metodami statystycznymi.
    Z poważaniem W.

  28. @Wojtek-1942: Jako osoba niespodziewanie obdarzona zaufaniem postaram się odrobinkę wyjaśnić (z konieczności nieco upraszczając; dla dokładniejszych wyjaśnień trzeba jednak coś poczytać o statystyce, na początek cokolwiek o poziomie istotności, weryfikacji hipotez i przedziale ufności). (Hipo)teza badana statystycznie nie ma zwykle charakteru deterministycznego, bo wyznaczane obiekty to na ogół parametry bądź jakieś własności nieznanego a priori rozkładu prawdopodobieństwa, o których chcemy wnioskować na podstawie pewnych ogólnych założeń o charakterze tego rozkładu i małej liczby obserwacji. Na przykład, żeby odnieść się do sytuacji opisanej w jednym z poprzednich wpisów, losujemy próbkę towaru i na podstawie liczby znalezionych wadliwych egzemplarzy (oraz rozmiaru wylosowanej próbki) próbujemy dowiedzieć się czegoś np. na temat ryzyka, że w całej partii towaru jest ponad 10% egzemplarzy wadliwych. Wszystkich egzemplarzy produktu zwykle sprawdzić się pod tym kątem dokładnie nie da – czasem ze względu na koszty takiej procedury, czasem dlatego, że badanie ma charakter niszczący. Niezwykle ważne jest zatem, by dobrze określić rozmiar próby wylosowanej do zbadania i liczbę wadliwych egzemplarzy odkrytych w tej próbie, która przekona nas, że w całej partii towaru jest ponad 10% bubli. Że nasza procedura ma poziom istotności 0,05, oznacza z grubsza tyle, że średnio tylko raz na dwadzieścia przeprowadzeń takiej procedury powinniśmy wysnuć fałszywy wniosek (tu trzeba by jeszcze zwrócić uwagę na to, że błędy statystyczne mogą być dwojakiego rodzaju, tzn. możemy felerną partię towaru mylnie uznać za akceptowalną albo akceptowalną – za felerną). Statystyka matematyczna pozwala dokładnie dobrać w tego typu badaniu minimalny rozmiar próby, który już zapewni poziom istotności 0,05 (albo inny pożądany – notka w blogu dotyczyła głównie tego, dlaczego akurat 0,05, i czy to dobrze, czy też źle).

    Natomiast założenie o tym, w jakim stopniu dotychczasowe ustalenia będą przydatne w przyszłości, to swego rodzaju zakład o naturę świata, nie mający już ścisłego związku z matematyką. W rzeczywistości w codziennym życiu czynimy milcząco (i zwykle nieświadomie) tego typu założenie tak często, że staje się dla nas przezroczyste. Spore działy statystyki mają się dobrze głównie dlatego, że czynione przez nie założenia okazują się nieźle pasować do rzeczywistości – obowiązuje tu swoista selekcja naturalna. Ale jak z każdym ostrym narzędziem, tak i ze statystyką zdarzają się kłopoty, zwłaszcza jeśli dostanie się w ręce osoby niedoświadczonej w jej używaniu lub jest wykorzystywana w złych intencjach.

  29. Wojtek-1942: Na grupie usenetowej pl.sci.fizyka, prawie co dzien mozna spotkac tekst: „co prawda nie znam i nie rozumiem teorii wzglednosci, ale uwazam ze Einstein nie mial racji”

  30. Gall Anonim 15 marca o godz. 21:30
    „losujemy próbkę towaru” oraz „Natomiast założenie o tym, w jakim stopniu dotychczasowe ustalenia będą przydatne w przyszłości, to swego rodzaju zakład o naturę świata, nie mający już ścisłego związku z matematyką. W rzeczywistości w codziennym życiu czynimy milcząco (i zwykle nieświadomie) tego typu założenie tak często, że staje się dla nas przezroczyste”
    W obu przypadkach gratuluję talentu pedagogicznego.
    W przypadku „strzelającego black boxa” proponowałem milion i więcej powtórzeń jako argumentu na rzecz celowości „zakładania się”.
    Uczestniczyłem w projektowaniu, produkcji i testowaniu m.in. czujników ciśnienia płynów hamulcowych. Mogę zapewnić, że przed wprowadzeniem do sprzedaży nie testuje się miliona czujników a zwykle kolejne eksperymenty przeprowadza się co najwyżej na setkach elementów. W sumie pewnie testuje się z kilka tysięcy sztuk.
    I ludzie wsiadają za kierownicę i „zakładają się” ryzykując swoim życiem, że mój czujnik czy inny wihajster zadziała jak trzeba i auto stanie przed a nie na drzewie. 😉

  31. @zza kałuży
    1. Znow tylko ad personam.
    kagan 15 marca o godz. 4:05
    2. Rza jeszcze powtarzam, ze nie mozna orzec o istnieniu zwiazku przyczynowo-skutkowego, nieznajac mechanizmu danego zjawiska, czyli traktujac dane zjawisko jako tzw. czarna skrzynke (black box).? Przyklad z bronia palna jest zas nuerafny, gdyz nie zawsze pociagniuecxie cyngla skutkuje oddaniem strzalu. Po,ijajc oczywisye przyczyny takie jak brak naboju, to dochodzi jeszcze np. mechaniczna awaria urzadzenia powodujacego oddanie strtzalu po pociagnieciu za cyngiel. Tak wec bez zrozumienia dzialania broni palnej, nie mozemy nic powiedziec na temat, tegoze wystrzal jest skutkiem pociganiecia cyngla. Ja sam stane zawsze przed taka bronia, jesli tylko bede pewnien, ze np. usunalem z niej mechanizm laczacy cyngiel z iglica, udrzajaca w splonke.
    2. I jeszcze raz powtarzam, ze dla mnie wiec ten caly rachunek prawdopodobienstwa i oparta na mim statystyka matematyczna jest dziedzina paranaukowa, czym w rodzaju alchemii czy astrologii?. A to, ze tzw. statystyczna kontrola jakosci dziala, nie swiadczy jeszcze o tym, ze teoria za nia stojaca jest naukowo zweryfikowana. Malo ktp wie, ze teoria heliocentryczna Kopernika wcale nie dawala lepszych wynikow jelsi chodzi np. o przweodywanie zacmien slonca niz bledna, geocentryczna toria, gdyz Koprnik blednie zalozyl kolowoe orbity planet. Tak wiec bledna teoria moze dawac calkiem poprawne wyniki dla praktyki. Dobrym przykaldem jest tu tez mdycyna, ktora wasciwie dioiwro od kinca XIX wieku stala sie nauka, a mimo to, ludzie wczesniej tez placicli lekarzom za leczenie, mimo iz ci lekarze mieli bardzo myle pojecie o medycynie!
    To tylko świadczy o twoich tragicznych brakach w edukacji. Człowieku, nie kompromituj się. Dostosowując przykład do twojego poziomu. Jesteś właścicielem wielkiej sieci sklepów i właśnie kupiłeś milion puszek dżemu, które statek przywiózł ci do portu. Aby się przekonać, co za dżem ci przywieziono, poleciłeś otworzyć jedną puszkę i ku swojemu przerażeniu znalazłeś w niej mysz. Co robisz? Otworzysz wszystkie puszki, biedaku, który do szkoły miał pod górkę?
    Wyobraź sobie, że na świecie każdego dnia tysiące ludzi nie robi nic innego, jak tylko rozwiązuje powyższe zadanie. Z kostkami masła, woreczkami cukru, puszkami rybek, amunicją, piwem, częściami samochodowymi, żarówkami, tranzystorami, majtkami i bóg wie czym. I jakoś nie widać gór rozpakowanego masła i wysypanego cukru pomieszanego ze szprotkami w oleju.
    Są ludzie, którzy chodzą do szkoły i uczą się rachunku prawdopodobieństwa i statystyki gdy ty na blogach piszesz androny.
    3. Poza tym, to jelsi ktos zlosliwie i z premedytacja umiescil myszy w sloikach, ktore porozmieszczal nie losowo, a systematycznie, np. glownie na wierzchu ladunku, to losujac sloiki nie otrzymamy probki reprezentatywnej, gdyz calosc ladunku nie jest wtedy jednorodna, a myszy nie wystepuja w nim losowo.Statystyczna kontrola jakosci opiera sie bowiem na zalozeniu, ze bledy wystepuja losowo, a nie systematycznie. Jesli niezadowooloby pracownik bedzie psuc np. co setny przedmiot przez siebie produkowany, to spowoduje on spore zamieszanie w systemie kontroli jakosci opartym na losowaniu.

  32. …a także nie wykonuje się miliona powtórzeń testu dla danego czujnika…

  33. PS: nie usunąłem wszystkich wypocin „zza kałuży” oraz litrerówek, a więc raz jeszcze:
    @zza kałuży
    1. Znow tylko ad personam.
    2. Raz jeszcze powtarzam, ze nie mozna orzec o istnieniu zwiazku przyczynowo-skutkowego, nieznajac mechanizmu danego zjawiska, czyli traktujac dane zjawisko jako tzw. czarna skrzynke (black box). Przyklad z bronia palna jest zas nietrafny, gdyz nie zawsze pociagniuecie cyngla skutkuje oddaniem strzalu. Pomijajac oczywiste przyczyny takie jak brak naboju, to dochodzi jeszcze np. mechaniczna awaria urzadzenia powodujacego oddanie strzalu po pociagnieciu za cyngiel. Tak wiec bez zrozumienia dzialania broni palnej, nie mozemy nic powiedziec na temat, tego, ze wystrzal jest skutkiem pociganiecia cyngla. Ja sam stane zawsze przed taka bronia, jesli tylko bede pewnien, ze np. usunalem z niej mechanizm laczacy cyngiel z iglica, udrzajaca w splonke.
    2. I jeszcze raz powtarzam, ze dla mnie wiec ten caly rachunek prawdopodobienstwa i oparta na mim statystyka matematyczna jest dziedzina paranaukowa, czym w rodzaju alchemii czy astrologii. A to, ze tzw. statystyczna kontrola jakosci dziala, nie swiadczy jeszcze o tym, ze teoria za nia stojaca jest naukowo zweryfikowana. Malo kto wie, ze teoria heliocentryczna Kopernika wcale nie dawala lepszych wynikow jesli chodzi np. o przewidywanie zacmien slonca niz bledna, geocentryczna toria, gdyz Kopernik blednie zalozyl kolowe orbity planet. Tak wiec bledna teoria moze dawac calkiem poprawne wyniki dla praktyki. Dobrym przykladem jest tu tez medycyna, ktora wlasciwie dopiero od konca XIX wieku stala sie nauka, a mimo to, ludzie wczesniej tez placili lekarzom za leczenie, mimo iz ci lekarze mieli bardzo mylne pojecie o medycynie!
    3. Poza tym, to jelsi ktos zlosliwie i z premedytacja umiescil myszy w sloikach, ktore porozmieszczal nie losowo, a systematycznie, np. glownie na wierzchu ladunku, to losujac sloiki nie otrzymamy probki reprezentatywnej, gdyz calosc ladunku nie jest wtedy jednorodna, a myszy nie wystepuja w nim losowo.Statystyczna kontrola jakosci opiera sie bowiem na zalozeniu, ze bledy wystepuja losowo, a nie systematycznie. Jesli niezadowolony pracownik bedzie psuc np. co setny przedmiot przez siebie produkowany, to spowoduje on spore zamieszanie w systemie kontroli jakosci opartym na losowaniu.

  34. kagan 16 marca o godz. 7:24
    „Statystyczna kontrola jakosci opiera sie bowiem na zalozeniu, ze bledy wystepuja losowo”
    I dlatego nie dostałbyś pracy w kontroli jakości. Jakby ktoś tam „opierał się na założeniu” jakiegoś rozkładu BEZ UPRZEDNIEGO ZWERYFIKOWANIA swojej genialnej hipotezy to by wyleciał z roboty po tygodniu, drogi lemologu. Na czym ty się znasz?

  35. @zza kałuży
    Akumulatory do „Nightmarelinera” tez testowano zgodnie z zasadami statystyki matematycznej. Boeinga chyba stac jest na zatrudnienie najlepszych znawcow statystycznych metod kontroli jakosci?
    Niestety, okazalo sie, ze ta statystyka nie zadzialala w tym przypadku, gdyz wbrew temu, co twierdza jej obroncy i zwolennicy, nie daje ona satysfakcjonujacej odpowiedzi na elementarne pytanie typu: „ile godzin lotu nalezy testowac nowy model samolotu, aby prawdopodobienstwo wystapienia w nim powaznej awarii (czyli takiej, ktora powoduje obrazenia a nawet i smierc pasazerow badz zalogi) bedzie nie wieksze niz w obecnie eksploatowanych samolotach podobnego typu”.
    A ty miales po prostu spore szczescie, ze te twoje czujniki okazaly sie malo zawodne. Podobne szczescie mialy zreszta tez pierwsze zalogi kapsul Apollo i tzw. promow kosmicznych, ktorych niezawodnosc zostala wielokrotnie przeszacowana przez najlepszych ekspertow z NASA! Poza tym, jesli awarie twoich czujnikow wynikaja glownie ze zmeczenia materialu, to nie wystarczy przeprowadzac krotkotrwale testy na setkach czy nawet tysiacach czujnikow, a dlugotrwale, trwajace lata testy zmeczeniowe, w ktorych te czujniki beda pracowac latami w warunkach bardzo zblizonych do takich, w jakich beda one eksploatowane, a wiec i przy zmianach temperatury, wilgotnosci, naslonecznienia, po dlugotrwalych przestojach, etc. A tu statystyka malo sie przyda!

  36. @zza kałuży
    Znów tylko ad personam. Cala statystyczna kontrola jakości opiera się bowiem na załozeniu, że błędy wystepują losowo, a nie systematycznie. Ale coż, jak to już pisałem, problemy z nowymi samolotami (A380, B787) dowodza najlepiej, jak zawodnym narzedziem jest owa statystyka. Niestety, zabyt duzo inzynierow mysli, ze owa statystyka jest narzedziem niezawodnym, gdy tymczasem jest to bardzo zawodne narzedzie, ktorego zasady dzialania sa wciaz niedostatecznie zrozumiane.

  37. @Gall Anonim
    Czy aby napewno jest tak, ze statystyka matematyczna pozwala dokładnie dobrać w tego typu badaniu (t.j. jakosci) minimalny rozmiar próby, który już zapewni poziom istotności 0,05? A co z przypadkami awarii A380 i ostatnio B787? Przeciez tam wyraznie nie wykonano dostatecznej ilsoci testow przed oddaniem tych samolotow do eksploatacji! Poodbnie bylo tez w NASA (promy kosmiczne !) Chyba, ze twierdzisz, ze w Airbusie i Boeingu oraz w NSA nie ma (nie bylo)dobrych specjalistow od ststystyki matematycznej. A moze po prostu samolot jest zbyt zlozonym systemem, aby nadawal sie do zastosowania do jego badania a wiec tez i testowania aparatu statystyki matematycznej i ze tu jednak wazniejsze jest doswiadczenie i intuicja inzynierska?

  38. @A.L.
    Obawam sie, ze zbyt przeceniasz swa wiedze, szczegolnie matematyczna. Pamietaj takze, ze matematyka zajmuje sie obiektami idealnymi i bardzo prostymi, czyli inaczej takimi, ktore w realnym swiecie nie wystepuja i wystepowac zwyczajnie nie moga (np. bezwymiarowe punkty czy tez nieskonczonosci wieksze od innych nieskonczonosci w tym sensie, ze posiadajace wiecej elementow).
    I raz jeszcze powtarzam, ze o przyczynowosci mozemy mowic tylko wtedy, kiedy znamy mechanizm danego zjawiska. Z calym szaucnkiem dla Wienera, to on nie jest dla mnie nieomylnym Ojcem Swietym Nauki. A co do definicji prawdopodobienstwa – to, ze nie ma jednej uniwersalnej definicji tegoz prawdopodobienstwa dowodzi najlepiej, ze teoria prawdopodobienstwa jest tak samo naukowa jak np. teoria panstwa i prawa, czyli ze mamy kilka szkol w tejze teorii, ale tez i zadna z nich nie moze sobie roscic prawa do bycia ‚jedynie sluszna’.;-)

  39. Statystyka (czyli nauka o danych i wyciąganiu z nich użytecznych informacji, od dłuższego czasu uprawiana głównie przy użyciu języka i narzędzi matematyki) nie jest ani lepsza, ani gorsza od innych nauk – zrodziła się z potrzeby zrozumienia i z potrzeby zastosowań praktycznych. Podobnie jak inne nauki podlega zmianom i podobnie jak one nie daje żadnych gwarancji bezbłędności. Jeśli ktoś, na przykład Kagan, dysponuje lepszymi narzędziami niż te, które oferują obecnie statystycy, to proponuję ich praktyczną weryfikację – zapewne umożliwiłyby szybkie zbicie majątku na giełdzie, a przedsiębiorcy, nie wyłączając przedstawicieli Boeinga, zaraz ustawiliby się w kolejce po usługi. Dopóki jednak nie zobaczę tej rewolucji, pozwolę sobie na pewien sceptycyzm. Narzekanie na wady metod statystycznych jest proste i przyjemne, sam bardzo lubię to robić, ale kiedy przychodzi do obróbki danych i podjęcia decyzji, statystyka wsparta zdrowym rozsądkiem okazuje się zwykle mimo wszystko użyteczniejsza niż rozkładanie rąk i jęczenie.

  40. @Kagan: Odpowiadając na konkretne pytanie: tak, w matematycznym modelu próbkowania losowego można określić minimalny rozmiar próby zapewniającej żądany poziom istotności – to nie jest zbyt skomplikowane od strony teoretycznej zagadnienie, a przy użyciu dzisiejszych komputerów jest ono też dość proste rachunkowo (zresztą zawsze można sięgnąć po podpowiedź do stosownej tabelki, ale zawszeć lepiej wiedzieć, jak samemu takową sporządzić). Student po kursie statystyki matematycznej powinien być w stanie rzetelnie to wytłumaczyć. Teoria prawdopodobieństwa jest dziedziną nauki, a ściślej mówiąc, działem matematyki. Prawdopodobieństwo nie jest dla matematyka niczym mistycznym, tylko miarą, spełniającą pewne konkretne warunki. Miara z kolei… i tak można by przez kilka godzin, ale prościej sięgnąć po stosowne podręczniki albo udać się na studia zamiast wypisywać na forach, co się komu wydaje. Problem nie leży w obrębie rachunku prawdopodobieństwa tylko na jego styku ze światem niematematycznym, ale to nie jest dylemat ograniczony do probabilistyki czy statystyki, tylko szersze pytanie o to, dlaczego matematyka, traktująca o bytach idealnych, jest tak niesłychanie użyteczna w opisie świata fizycznego. Być może jest to pytanie źle postawione i należałoby raczej spytać, w jaki sposób w ogóle można by świat ściśle opisywać, gdyby język matematyki nie był do tego adekwatny.

  41. @Gall Anonim
    1. Niedawne problemy z samolotami A380 i B787 pokazuja wyraznie, ze metody statystyczne (i ogolnie matematyczne) sa bardzo zawodne i mocno przereklamowane, jesli tylko mamy do czynienia z czyms bardziej zloznym niz rownia pochyla, klin czy wielokrazek.
    2. Od lat istnieja lepsze narzędzia niż te, które oferują obecnie statystycy, a nazywaja sie one doswiadczeniem i intuicja. Stosowane one sa zarowno w technice jak i w medycynie oraz w biznesie, czyli wszedzie tam, gdzie mamy do czynienia z systemami zbyt zlozonymi, aby mozna je opisac metodami czysto matematycznymi, ktore nie sa przeciez w stanie poradzic sobie nawet z tak relatywnie prostymi zjawiskami jak aktywnosc sejsmiczna czy tez zmiany w atmosferze (tzw. pogoda). O ekonomii to juz lepiej nie wspominac, gdyz w niej dochodzi nieobliczalny z definicji czynik ludzki, przez co modelowanie matematyczne w ekonomii (tzw. modele ekonometryczne, dawniej tzw. cybernetyka ekonomiczna), po ktorym tak duzo sobie obiecywano jeszcze jakies 50 lat temu, okazalo sie calkowitym fiaskiem, bo tez i takim fiaskiem sie okazac musialo z samego zalozenia.
    3. Zdrowy rozsadek nam mowi, ze Ziemia jest plaska i ze Slonce krazy wokol niej, a wiec nalezy sie zdecydowac, czy opieramy swa wiedze na owym ‚zdrowym rozsadku’, czy tez na matematyce, ktora tak tu chwali wiekszosc dyskutantow, ale ktora z kolei zawodzi w konfrontacji z rzeczywistoscia.
    4. Doskonale wiem, ze statystycy twierdza, iz w matematycznym modelu próbkowania losowego można określić minimalny rozmiar próby zapewniającej żądany poziom istotności. Tyle, ze musimy wtedy zalozyc, ze znamy rozklad zmiennej, ktora analizujemy i ze takowa probka jest reprezentatywna. Problem pojawia sie zas bardzo szybko, np. wtedy, kiedy badana populacja nie jest jednorodna, a sklada sie, jak np. ludnosc (dajmy na to Polski), z roznych osobnikow, roznych plci (meskiej, zenskiej i nijakiej, obecnie najbardziej modnej), roznego wieku, z roznym IQ, zamieszkalych to w miescie, a to na wsi etc. Wtedy ststystycy staraja sie rowiazac problem przez tzw. losowanie warstwowe, ale przeciez podzial populacji na warstwy jest z definicji arbitralny, a poza tym, to o wyniku badania moze przewazyc cecha ukryta, o ktorej istnieniu badacz moze nie miec pojecia, przez co do jego probki trafi za duzo albo za malo osobnikow z dana cecha, a wtedy to taka probka nie bedzie juz reprezentywna i cale badanie bezwartosciowe, a wnioski z niego wyciagniete bledne… 🙁
    5. Zgoda, ze prawdopodobieństwo jest dla matematyka miarą, spełniającą pewne konkretne warunki. Ale czego miara jest owo prawdopodobienstwo, to juz tego matematyk nie wie, gdyz to przekracza jego horyzont myslowy. Matematycy zreszta zbytnio ulatwili sobie zadanie, zakladajac arbitralnie, ze prawdopodobienstwo jest miara zawarta miedzy zerem a jednoscia, ale to jest przeciez wyraznie sztucznie wprowadzone zalozenie. Prosze mi wyjasnic, czemu np. prawdopodobienstwo nie moze byc ujemne (np. prawdopodobienstwo wystapienia czegos, co jest jeszcze mniej prawdopodobne niz wydarzenie z p=0 – analogia do zbioru ‚wiekszego’ niz taki o nieskonczonej ilosci elementow), albo tez dazace do nieskonczonosci (np. prawdopodobienstwo wystapienia czegos, co jest praktycznie pewne, ale w teorii jednak moze sie czasem nie zdarzyc, chocby tylko bardzo, ale to bardzo rzadko)?
    6. Matematyka, traktująca o bytach idealnych, tylko wydaje się byc jej zwolennikom użyteczna w opisie świata fizycznego. Tak naprawdę, to opisuje ona nie realny świat fizyczny, a tylko jego bardzo uproszczone modele, stąd też np. te trudności z samolotami, projektowanymi przez frmy, ktore maja przeciez dostep do najlepszych matematykow. Po prostu matematyka zawodzi wszedzie tam, gdzie stopien komplikacji jest nieco tylko wiekszy niz np. w tzw. maszynach prostych.
    7. Pytasz sie tez, w jaki sposób w ogóle można by świat ściśle opisywać, gdyby język matematyki nie był do tego adekwatny? Odpowiedz jest prosta – ludzie od niepamietnych czasow tworza sobie modele rzeczywistosci, przy czym sa to modele analogowe, a nie cyfrowe, gdyz na poziomie swiadomego myslenia czlowiek mysli analogowo, a nie cyfrowo, i stad tez matematyka jest sztucznym tworem dla olbrzymiej wiekszosci ludzi. Mam nadzieje, ze sie dostaecznie jasno wyslowilem i ze nikogo przy tym nie obrazilem… 😉

  42. Na marginesie: wydaje mi się, że to wielka szkoda, iż w publikacjach skierowanych do czytelnika masowego operuje się zwykle pojęciem poziomu istotności, a nie przedziału ufności – tam, gdzie jego użycie byłoby możliwe. Pozornie różnica niewielka, ale nieobeznany z detalami metody czytelnik znacznie częściej błędnie interpretuje to pierwsze pojęcie, prześlizgując się, na ogół całkiem nieświadomie, nad kwestią hipotezy zerowej czy wyboru postaci zbioru krytycznego (obie sprawy nie są przecież wcale neutralne, a co więcej mogą służyć zmanipulowaniu odbiorcy, zwłaszcza gdy – jak to zwykle się dzieje – zostają przemilczane w skrótowym opisie), podczas gdy intuicyjne rozumienie przedziału ufności jest zazwyczaj znacznie bliższe poprawnemu. Krótkie wyjaśnienie, które sporządziłem powyżej dla Wojtka, z konieczności prześlizguje się nad ważnymi detalami i pewne kwestie zniekształca – gdybym miał mu w tekście tej samej długości i o podobnej przystępności wyjaśnić, czym jest przedział ufności, mógłbym to zrobić znacznie ściślej…

  43. @Kagan: Odpowiedź zdecydowanie wykraczałaby poza mój horyzont myślowy, rozsądnie postąpię więc milknąc. EOT

  44. PS:
    1. Majatki na gieldzie ‚zbija’ sie nie dzieki np. stosowaniu metod matematycznych w analizie zmian kursow walut czy akcji (tzw. analiza techniczna serii czasowych czyli time series analysis – rodzaj wspolczesnej astrologii, mocno zmatematyzowanej i skomputeryzowanej), a tylko dzieki posiadaniu tzw. insider knowledge (wiedzy niedostepnej reszcie graczy, a dotyczacej np. rzeczywistej kondycji finansowej danej firmy). Czasem, jak to bywa w kasynie (a gielda to przeciez rodzaj kasyna). komus z zewnatrz sie uda postawic na numer, ktory wygra. Ale to jest tylko wyjatek potwierdzajacy regule… 😉
    2. Boeing i Airbus zapewne analizuja teraz dokladnie przyczyny swych problemow z A380 i B787. Jesli w zarzadach tych firm siedza madrzy ludzie, to postawia oni z powrotem na rzady inzynierow.Obecne rzady ksiegowych doprowadzily przeciez do tego, ze za bardzo zaufano modelom matematycznym (‚komputerowym’) i metodom statystycznym, ktore obiecywaly skrocenie czasu projektowania i testowania nowego samolotu, a wiec tez i obnizkze kosztow wdrozenia nowego modelu samolotu. Jak to widac na podsatwie obiektywnych obserwacji, owe matematyczne metody poniosly olbrzymie fiasko. Ale przeciez nie tylko Polak ‚przed szkoda i po szkodzie glupi’. 🙁

  45. @Gall Anomim
    1. Szkoda, ze tak szybko rejterujesz… 🙁
    2. Poza tym, to przedzialy ufnosci tez sa definiowane arbitralnie!
    3. Poza tym, to binarna logika typu hipoteza zerowa albo hipoteza alternatywna, ale tylko jedna, jest takze przyjeta arbitralnie! A swiat, przynajmniej na poziomie makro, nie jest przeciez zero-jedynkowy (czarno-bialy)!
    3. Cytuje z Wikipedii: ‚Na tym etapie procedury weryfikacyjnej przyjmujemy maksymalne dopuszczalne prawdopodobieństwo popełnienia błędu I rodzaju, który polega na odrzuceniu hipotezy zerowej wtedy, gdy jest ona prawdziwa. Prawdopodobieństwo to jest oznaczane symbolem ? i nazywane poziomem istotności. Na ogół przyjmujemy prawdopodobieństwo bliskie zeru, ponieważ chcemy aby ryzyko popełnienia błędu było jak najmniejsze. Najczęściej zakładamy poziom istotności ?=0,05, czasem przyjmuje się np. ?=0,01, ?=0,1.’
    Ale znow – czemu najczęściej zakładamy poziom istotności ?=0,05? Czemu nie 0,04 albo 0,06? Co to przyjmowanie ‚ladnych i okraglych’ liczb typu 0,01 albo 0,05 ma wspolnego z nauka?

  46. PS: Proszę się nie obrażać – przecież to jest BLOG S Z A L O N Y C H NAUKOWCÓW! A wiec chyba wolno na nim ‚szargać świętości’? 😉

  47. kagan: nie da sie mowic o „nienaukowosci” matematyki. Matematyka jest sztuka wnioskowania logicznego; wnioskuje sie na podstawie ARBITRALNIE przyjetych aksjomatow. Owe aksjomaty nie musza miec nic wspolnego z rzeczywistoscia, podobnie jak i rezultaty. Oczywiscie, metoda ta ma swoje ograniczenia na co wskazali tacy jak Goedel czy Turing. Pretensja do matematyki ze operuje zero-wymiarowymi punktami czy nieskonczonymi zbiorami jest bez sensu.

    TAK SIE ZDARZA ze niektore teorie matematyczna „pasuja” do rzeczywistosci. O naturze tego pasowania proponuje popytac Lema – popatrzec na jego analogoie „szlonego krawca”. Proponuje wygoglowac artykul „Matematyka w tworczosci Stanislawa Lema”

    Zas jak idzie o zaleznosci przyczynowo-skutkowe… Stojac na gruncie owej matematyki – „black box” to abstrakcyjny przetwornik abstrakcyjnych sygnalow. Przeksztalca jedne sygnaly (wejsciowe) w inne (wyjsciowe). Gdzy zapytamy czy moze dowolne sygnaly przetwarzac w dowolny sposob – odpowiedz jest „tak” Ale okazuje sie ze jezeli zazadamy „casuality” czyli przyczynowosci, nie moze pzreksztalcac dowolnych sygnalw w dowolne sygnaly. Dla dowolnego zbioru sygnalow wejsciowych i wyjsciowych mozna stwierdzic czy sa one pzretwarzane przez przetwornik „przyczynowy” czy nie.

    Jest to istotne na przyklad dla inzynierow elektrykow (co jako technik energetyk powinien Pan znac): czy mozna zrealizowac okreslone reuily przetwarzania przy pomocy ukladu przyczynowego. Odpowiedz jest: nie kazde. A warunki okresla na przykald owo twierdzenie Paleya-Wienera, na mocy ktorego na przyklad owi inzynierowie wiedza ze nie mozna skostruowac czegos zwanego „idealnym filtrem”: idealny filtr naruszalby zasade przyczynowosci. Podobnie w ekonomii i analizie szeregow czasowych.

    Proponuje popatrzec jednak na matematyke z dystansu. Podejsce „ja tego nie znam/nie rozumiem wiec to musi byc glupie/alchemia” itede to publiczne wystawianei sie na wiatr.

    W szegolnosci zas smieszne jest stwierdzenie ze „prognozowanie i analiza szeregow czasowych” to alchemia. Moze i alchemia, ale pogode sie prognozuje, przeplyw wody w rzekach sie prognozuje, sygnaly radiowe sie prognozuje i duzo innnych sie prognozuje. Dieki filtrom Wienera i ich pochodnych – filtrom Kalmana, daialajacym w oparciu o statystyke i robiacym prognoze – lataja rakiety i samoloty, mozliwa jest telekomunikacja cyfrowa i pare innych rzeczy. Z ktorych Pan z przyjemnoscia korzysta.

    A jak idzie o intuicje… Proponuje intuicyjne, bez modeli matematycznych i komputerow, posterowac systemem rurociagow przesylajacych gaz ziemny, na przyklad. Czy posterowac kolumna destylacyjna w rafinerii. Czy posterowac samolotem Airbus (nie pisze Dreamliner bo ma Pan do nich negatywny stosunek). Do rozwiazania wszystkich tych problemow potzrebna jest statystyka, analiza szergow czasowych, nieskonczone zbiory, przestzrenie Hilberta i pare innych rzeczy dla ktorych zywi Pan pogarde

  48. „Moze i alchemia, ale pogode sie prognozuje, przeplyw wody w rzekach sie prognozuje, sygnaly radiowe sie prognozuje i duzo innnych sie prognozuje.”
    Właśnie o tym myślałem. Pogodę się prognozuje na zasadzie: w 90% przypadków po takich warunkach następowały inne określone warunki. Zatem teraz też należy się spodziewać tego samego. Dokładnie jak w przysłowiach ludowych. Inną sprawą jest prognoza oparta na podstawie przyczyna-skutek. Te się sprawdzają ale są krótko terminowe. Te oparte na modelach matematycznych są zwykłą loterią w której przecież też grający wygrywają.
    I nie „zabraniajcie mi” zabierać głosu w sprawach na których się nie znam. Zarzut taki nie zastąpi argumentu. Dotąd żaden z was nie przedstawił nic co by dowodziło, że dzięki rachunkowi prawdopodobieństwa możemy przewidzieć cokolwiek detalicznie. Masowo tak ale indywidualnie nigdy, niezależnie od tego co czytam cz jako ignorant nie czytam.
    Rzucając kostką niezliczoną ilość razy i znając wyniki tych rzutów zawsze będziemy mieli szansę wyrzucania 6 dokładnie 1/6. Zaprzeczcie a nie odsyłajcie do „literatury”. Jak będę chciał zostać matematykiem to bez waszej rady poczytam co trzeba.
    Z poważaniem W.

  49. Wojtek-1942: „I nie ?zabraniajcie mi? zabierać głosu w sprawach na których się nie znam”

    Nikt nikomu niczego nie zabrania, albowiem jest to forum publiczne. No, dobra, moderatorzy moga zabranieac. Dziwi mnie jednak motywacjq zabierania glosu i formulowanie kategorycznych stwierdzen w dziedzinach na ktorych sie dyskutant nei zna.

    Prognozowanie statystyczne jest jak najbardziej mzoliwe na podstwie korelacji. Szereg zasowy wykazujacy AUTO korelacje, czyli korelacje niedzy wartoscia w pewnej chwili a chwilami poprzedzajacymi, doskonale nadaje sie do prognozowania. Istnieja algorytmy i teorie do tego, od wielu lat, i wielkie doswiadczenie potwierdzajace mozliwosc i dobar jakosc takiego prognozowania. Oczywiscie, jezeli atokorelacja nie wystepuje, najlepsza w sensie ststystycznym prognaza jest „jutro bedzie to samo co dzis”. Na szczescie w wiekszosci przypadkow autokorelacja istnieje i jest znaczaca. Tak sie prognozuje w energetyce, hydrologii, ekonomii, gazownictwie itede. Z dobrym skutkiem.

    „niczego sie nie da przewidziec detalicznie”. Nie wiem co to jest „detalicznie”. Da sie pzrewidziec to co ma opis statystyczny. Nie da sie przewidziec zjawisk pojedynczych, na przyklad katastrofy kolejowej czy awarii reaktora w Zakladach Azotowych Wloclawek.

    Rzucajac kosta zawsze bedziemy mieli sazse wyrzucenia „szostki” rowna 1/6. Natomiast z faktu ze w ostatnim rzucie wyrzucilismy 5, nic nei wynika w sprawie nsatpnego rzutu – kolejne rzuty sa zdarzeniami niezaleznymi, wiec ustawione w szereg maja zerowa autokorelacje. Jak pisalem wyzej, takich procesow nie da sie prognozowac. Z tego tez powodu nie ma szans na niezawodny system do wygrania w „totka”.

    Z kolei, istnienie autokorelacji nei gwarantuje mozliwosci prognozowania. Sa procesy, nawet czysto deterministyczne, ktore prognozowac sie nie daja w zaden sposob. To tak zwane „uklady chaotyczne”. Niemoznosc prognozowania zwiazana jest z mechanizmem generujacym proces. Istnieje duze szanse ze process notowan gieldowych jest wlasnie takim nieprognozowalnym procesem (patrz Mandelbrot, The Misbehavior of Markets, ksizaka taka)

    na tym koncze syskusje z panem, bo bo wobec Panskiego oporu przed pozyskaniem nieco wiedzy nei widze dalszej mozliwosci takiej dyskusji. Nie chce mi sie dyskutowac ze slepym o kolorach

  50. Nie chciałem rozmawiać o statystyce i prawdopodobieństwie „w ogóle”. Zareagowałem tylko na sugestię, że statystyka i rachunek prawdopodobieństwa pozwoli przewidywać wydarzenia ( oczywiście z pewnym prawdopodobieństwem) i właśnie się na to zgodziłeś, że nie w stosunku do pojedynczych wydarzeń i tylko o to szło. Cały ten niby spór jest wynikiem pewnego waszego zaperzenia i traktowania rozmówcy (ignoranta) z góry. To oczywiście nie jest niczym zdrożnym szczególnie na blogu ale sprowadza pewne niebezpieczeństwo olewania takiej zwyczajnej, prostej logiki w powodzi „fachowych” terminów i cytatów mających zaświadczać o waszej wiedzy. To mnie w niczym oczywiście nie przeszkadza i nawet jeśli rozmowa będzie na tematy z „mojej dziedziny” to chętnie porozmawiam z KAŻDYM IGNORANTEM. Używałem liczby mnogiej bowiem jest Was Panowie kilku. I nigdy nie podważałem nieprzydatności metod statystycznych (choć akurat przewidywanie pogody na podstawie modeli matematycznych kuleje, myślę że głównie z powodu zmian klimatycznych jeszcze w modelach nie do końca uwzględnianych)
    Z poważaniem W.

  51. Wojtek-1942: „(choć akurat przewidywanie pogody na podstawie modeli matematycznych kuleje, myślę że głównie z powodu zmian klimatycznych jeszcze w modelach nie do końca uwzględnianych)”

    Jednak odpisze….

    Modele matematyczne klimatu maja problem strukturalny. Ten problem wykryl po raz pierwszy Edward Lorenz probojac zbudowac model matematyczny cyrkulacji powietrza w atmosferze. Okazalo sie ze model ten jest nadzwyczajnie wrazliwy na minimalne zmiany warunkow poczatkowych – zmiany na 6 miejscu po przecinku powoduja ze po dosyc krotkim interwale czasowym rozwiazania odpowiadajace owym roznym warunkom poczatkowym sa kompletnie, dramatycznie rozne. Takie uklady nazywaja sie „ukladami chaotycznymi”; de facto Lorenz zapoczatkowal „medialnie” istnienie takich ukladow. Wczesniej zostaly one odkryte przez Poincare, podczas jego badan nad problemem ruchu trzech cial (za co dostal nagrode Krola Norwegii Olafa II), ale teoria Poincare pozostawala nieznan pzrez dosyc dlugo (i dzis jest dosyc hermetyczna). Problem ruchu trzech cial ma te sama wlasnosc co model Lorenza: ruch jest chaotyczny i nie da sie go przewidziec.

    W kazdym razie, wlasnie owa chaotycznosc powoduje ze nie da sie przeprowadzic dlugookresowej prognozy pogody w oparciu o modele matematyczne. Problem jest znany jako „butterfly efect” – „efekt motylka”. Trzrepanie skrzydelek motyla w Amazonii moze spowodowac tornado na przyklad w Tekasie w USA.

    Oczywiscie, nie ma to zadnego zwiazku z metodami statystycznymi.

  52. Wojtek 1942: Jednak odpisze?.

    Modele matematyczne klimatu maja problem strukturalny. Ten problem wykryl po raz pierwszy Edward Lorenz probojac zbudowac model matematyczny cyrkulacji powietrza w atmosferze. Okazalo sie ze model ten jest nadzwyczajnie wrazliwy na minimalne zmiany warunkow poczatkowych ? zmiany na 6 miejscu po przecinku powoduja ze po dosyc krotkim interwale czasowym rozwiazania odpowiadajace owym roznym warunkom poczatkowym sa kompletnie, dramatycznie rozne. Takie uklady nazywaja sie ?ukladami chaotycznymi?; de facto Lorenz zapoczatkowal ?medialnie? istnienie takich ukladow. Wczesniej zostaly one odkryte przez Poincare, podczas jego badan nad problemem ruchu trzech cial (za co dostal nagrode Krola Norwegii Olafa II), ale teoria Poincare pozostawala nieznan pzrez dosyc dlugo (i dzis jest dosyc hermetyczna). Problem ruchu trzech cial ma te sama wlasnosc co model Lorenza: ruch jest chaotyczny i nie da sie go przewidziec.

    W kazdym razie, wlasnie owa chaotycznosc powoduje ze nie da sie przeprowadzic dlugookresowej prognozy pogody w oparciu o modele matematyczne. Problem jest znany jako ?butterfly efect? ? ?efekt motylka?. Trzrepanie skrzydelek motyla w Amazonii moze spowodowac tornado na przyklad w Tekasie w USA.

    Oczywiscie, nie ma to zadnego zwiazku z metodami statystycznymi.

  53. Wojtek 1942 – odpisalem ale nie wiem czy sie ukaze

  54. Zwolnione z redy.

    GP

  55. Co zwolnione z czego? Moja odpowiedz Wojtkowi sie nie ukazala

  56. Teraz gra?

    GP

  57. @A.L.
    1. Zgoda, ze matematyka jest sztuka wnioskowania logicznego i ze wnioskuje sie w niej na podstawie ARBITRALNIE przyjetych aksjomatow i wedlug ARBITRALNIE przyjetych regul. Ale to znaczy, ze nie jest ona nauka, a czyms bardziej w rodzaju religii albo raczej ideologii niz nauki, gdyz twierdzen matmatyki nie da sie obektywnie, czyli empirycznie, weryfikowac.
    2. Zgoda, czasem jakies kawalki znanej nam dzis matematyki pasuja do rzeczywistsci, ale najczesciej tylko w ten spsoob, ze rzeczywistosc ‚nagina’ albo ‚naciaga’ sie tak, aby pasowala ona do matematyki. Cos takiego jak dostosowywanie czlowieka do ubrania zamiast dostosowywania ubrania do czlowieka… ;-(
    3. W realnym swiecie te czarne skrzynki ulegaja awariom, a wiec nie zawsze dana kombinacja sygnalow na wejsciu daje taka sama kombincje sygnalow na wyjsciu, a zdarza sie tez, ze owa skrzynka generuje na wyjsciu sygnaly ‚sama z siebie’, np. na skutek zwarcia w obwodach. Tak wiec model czarnej skrzynki nie sprawdza sie w pelni nawet w stosunkowo prostym przypadku obwodow elektrycznych.
    4. Prognozwanie pogody czasem sie sprawdza, ale nie zawsze. Wiadomo przeciez, ze w zimie bywa na ogol zimno, a w lecie – cieplo. Ale im dokladniejsza ma byc ta przepowiednia, tym bardziej zwieksza sie ryzyko, ze nie bedzie ona trafna. I tu jest pies pogrzebany – nie dosc, ze do konca nie rozumieny zjawisk zachodzacych w atmosferze, to im wiecej zbieramy o niej danych, tym wiecej musimy zuzyc srodkow na ich przetworzenie, a pamietajmy, ze szybkosc dzialania komputerow jest tez ograniczona prawami fizyki.
    5. Jak na razie, to w kokpicie Airbusa czy Boeinga siedzi zywy pilot, zazwyczaj conajmniej dwoch. Oznacza to, ze bez tej, tak przez A.L. nielubianej ludzkiej intuicji (czyli niematematycznego sposobu myslenia) nie da sie sterowac nawet tak relatywnie prostym systemem jakim jest samolot pasazerski.
    6. Element losowy jest wprowadzany do modeli matematycznych (np. ekonometrycznych) tylko dla tego, ze budujacy te modele nie znaja calosci praw rzadzacych danych zjawiskiem, np. ekonomia. Jestem przekonany, ze tzw. zdarzenia losowe wcale nie sa losowe, a tylko wydaja sie nam losowe, gdyz nie znamy dokladnie mechanizmow nimi rzadzacymi albo tez nie jestemy w stanie wykonac obliczen, ktore daly by nam poprawne rozwiazanie danego problemu (np. jakie liczby padna w totka). Wiara w statystyke przypomina mi wiec wiare w Boga – to, czego nie rozumiemy, uznajemy za bedace poza nasza mozliwoscia poznania i tworzymy sobie byty zastepcze (statystyke martematyczna czy tez bogow), aby jakos pogodzic sie z rzeczywistoscia.
    7. To, ze prognozy oparte na statystyce matematycznej sie ‚na ogol’ sprawdzaja nie swiadczy jeszcze, ze ta staytystyka jest poprawna naukowo. Przeciez astronomowie calkiem trafnie przwewidywali zacmienia slonca czy ksiezyca uzywajac blednego, geocentrycznego modelu. Obawiam sie, ze wspolczesna statystyka matematczna jest wlasnie takim blednym modelem, ktory przez kolejne komplikacje (kolejne ‚cykle na cyklach’ w astronomii geocentrycznej) poprawia swa dokladnosc, ale nigdy nie stanie sie przez te kolejne komplikacje nauka zgodna z obiektywna rzeczywistoscia.
    8. Proces notowan gieldowych jest w znacznej czesci wynikiem swiadomych interwencji ludzkich, a wiec nie da sie on prognozowac metodami matematycznymi.
    9. Chaotycznosc ma duzo wspolnego z metodami statystycznymi, gdyz to, co dla jednego jest chaosem, dla drugiego moze byc rozkladem zmiennej losowej, tyle ze takim, o ktorym nic na razie nie wiemy. A jezeli nie da sie przeprowadzic dlugookresowej prognozy pogody w oparciu o modele matematyczne, to znaczy, ze te modele sa bledne i trzeba szukac nowych, nawet, jezeli oznaczaloby to odrzucenie wiekszosci aksjomatow wspolczesnej matematyki. Obawiam sie, ze naukowcy sa zbyt zasugerowani tym, ze obecnie nam znana matematyka wydaje sie ‚pasowac’ do naszej rzeczywistosci, ze boja sie zaczac ‚od nowa’, a wine za bledy swych prognoz zwalaja nie na siebie, a na nature. Cos jak u Lema, gdzie wybitny fizyk znecal sie przy pomocy mlotka nad oporna mu materia…
    @Wojtek1942
    1. Ja od matematykow oczekuje odpowiedzi na pytanie ‚jaki numer padnie teraz w kasynie na ruletce’ albo ‚jakie numery padna w najblizsza sobote w totku’, a nie jakie sa prawdopodobienstwa padniecia jednego z mozliwych numerow na ruletce, lub np. 6 z mozliwych 45, gdyz to mi zadnego zysku nie przyniesie.
    2. A jesli prawa fizyki (natury) zabraniaja udzielenia odpowiedzi na moje pytania, to mnie ta cala statystyka matematyczna za bardzo nie interesuje.

  58. @A.L.
    Żyłem w przekonaniu, że prognozy długoterminowe są konstruowane metodami statystycznymi, tzn. zajmowano się częstością następstw po określonych sytuacjach. Stąd to porównanie do przysłów ludowych. Zatem wyprowadziłeś mnie z błędu, a ten powstał gdy słuchałem jakiegoś synoptyka w wystąpieniu popularyzatorskim. Za to dzięki.
    Z poważaniem W.

  59. @kagan
    Nie doceniasz praktycznego znaczenia stosowania statystyki i rachunku prawdopodobieństwa.
    Z poważaniem W.

  60. kagan:

    ad1: Pan ma swoja definicje nauki. Nie dziwota ze sa nieporozumienia

    ad2: Gdy Charles Proteus Steinmetz po raz pierwszy zastosowal liczby zespolone do opisu sieci elektrycznych pradu zmiennego, nic nei naginal – ani po stronie matematyki ani po stronie elektryki. Gdy Profesor Bellert zatsosowal teorie pierscieni algebraicznych do opisu topologicznego sieci elektrycznych, nic nie naginal. Gdy po raz pierwszy uzyto rachunku macierzowego do opisu sieci elektrycznych, tez nikt nei naginal

    Z drugiej strony, istnieje pojecie „modelu”, co oznacza przyblizony sposob reprezentacji formalnej pewnych aspektow rzeczywistych, fizycznych zjawisk. Tu sie tez nie „nagina”. Proponuje sie zapoznac

    ad3: Dzieki czasrnym skrzynkom moze Pan ogladac telewizje, rozmawiac przez telefon zwykly i komorkowy, wysylac wiadomosci pzrez Internet. Dzieki czarnym skrzynkom lataja samoloty, rakiety i satelity, i dziaja fabryki. Tez proponuje sie zapoznac

    ad 4: Powracam do koncepcji modelu. Proponuje rozneiz przeczytac moja odpowiedz Wojtkowi na temat systemos chaotycznych i klimatu

    ad 5: Nowoczesne samoloty sa NIESTABILNE. Znaczy to, ze pozostawione same sobie nie lecialyby prosto, a natychmiast zaczelyby wykonywac karkolomne akrobacje zakonczone katastrofa. Dynamika jest zbyt skomplikowana aby czlowiek byl w stanie samolot ustabilizowac. Wiec miedzy sterami a mechanizmami sterujacymi lotem (stery, lotki itede) unieszcza sie komputer ktory dziala tak ze pilot „widzi” samolot stabilny.

    Podobnie jest z niektorymi reakcjami chemicznymi – sa niestabilne i czlowiek nie jest w stanie poprowadzic je tak aby nie doszlo na przyklad do wybuchu

    ad 6: powracam do koncepcji modelu

    ad 7″ co to znaczy ze „statystyka jest poprawna NAUKOWO”? Powracam do punktu pierwszego – statystyka jest czescia matematyki i podlega tym samym prawom i metodologii co matematyka jako taka.

    Geocentryczny model Ptolomeusza NIE JEST BLEDNY. Jest calkiem prawidlowy. Mozna skonstruowac dowolna ilosc poprawnych modeli, zakladajac na przyklad ze wszystko sie kreci wokol Ksiezyca albo wokol garazu Panskiego domu w Australii. Model Ptolomeusza jest skomplikowany obliczeniowo ze wzgledu na koniecznosc uwzglednienie duzej ilosci „epicykli” – dodatkowych „kolek” po ktorych kraza planety. Model Kopernika jest lepszt tylko tym, ze ilosc epicykli jest znacznie mniejsz niz w modelu Ptolomeuszaa, wiec duzo prosciej jest dokonywac obliczenia.

    Zreszta, model Keplera tez nie jest taki doskonaly, bo planety wcale nie kraza po elipsach

    ad 8: Procesy gieldowe sa wynikiem dzialn wielkiej ilosci ludzi ktorzy dzialaja w losowo wybranych momentach, losowo dokonujac zakupu/spzredazy na losowe sumy. Teoria procesow stochastycznych jest doskonalym modelem tego zjawiska

    ad 9: Uklady chaotyczne Z DEFINICJI sa deterministyczne. Owszem, uzywa sie metod statystycznych do analizy sygnalow generowanych przez takie uklady. Mozne takie sygnaly interpretowac jalo sygnaly losowe

    W sprawie odpowiedzi Wojtkowi” Owszem, mozna sie domagac od matematyki aby podala wygrane numery w totka w przyszlym tygodniu. Tak samo jak sie mzona domagac od fizyki aby dostarczyla zroglo „wiecznej energii”. Darmowej. Inaczej – „perpetuum mobile”. czy Panska nauka to umozliwia?

  61. Wojtek 1942: Z tego co sobie przypominam o prognozach pogody (a dlugo z tym nie mielem do czynienie): prognozy krotkoterminowe (tydzien) buduje sie w oparciu o modele matematyczne. Prognozy dlugoterminowe – w oparciu o modele ORAZ „analize analogii”. „Czyste” prognozowanie statystyczne dziala tak sobie – swego czasu analizowalem srednie temteratury dzienne w roznych miejscowosciach. Okazalo sie ze proces nei wykazuje autokorelacji, wiec najlepsza mozliwa prognoza to taka ze „jutro bedzie to co dzis”.

    Jeszcze raz: moje wiadomosci na temat sa dosyc nieswieze i nie znam dokladnie obecnego stanu PRAKTYKI w tym zakresie

  62. @A.L. – mysle, ze twoja analiza jest bledna, gdyz analizowales te szeregi czasowe jako matematyk, a wiec w sposob zbyt formalny, bez proby zrozumienia mechanizmu tego zjawiska. Po prostu szereg czasowy zawierajacy srednie tempertury w danym miejscu posiada wyrazna autokorelacje, szczegolnie w miejscach takich jak np. w Polsce, gdzie mamy wyrazne pory roku. Np. od mniej wiecej konca sierpnia temperatury wyraznie maleja z dnia na dzien, aby ustabilizowac sie w grudniu i zaczac rosnac mniej wiecej w marcu, po czym w pelni lata znow nastepuje ich wzgledna stabilizacja. Autokorelcji brakuje wiec tylko w pelni lata i w pelni zimy, a wiec tylko wtedy (mniej wiecej od czerwca do sierpnia i od grudnia do lutego) mozna zalozyc, ze ‚jutro bedzie to co dzis’.

  63. @A.L.
    Ogranicze sie tylko do najbardziej jaskrawych bledow.
    1. Nowoczesne samoloty potrafia utrzymac ‚same’ kurs przy pomocy autopilota, urzadzenia znanego zreszta od wielu lat i dzialajacego na klasycznej zasadzie sprzezenia zwrotnego (feedback). Piloci sa jednak wciaz niezbedni, szczegolnie kiedy zachodzi nagla zmiana parametrow lotu.
    2. Geocentryczny model Ptolomeusza jest bledny, gdyz nie jest on zgodny z wynikami empirycznych obserwacji. Model Keolera jest zas na tyle zgodny z empiria i daje tak dobre wyniki w praktyce, ze nie ma potrzeby aby zastapic go czyms innym.
    3. Na gieldzie sa gracze i gracze. Jedni dokonuja male transakcje na masowa skale, ale sa tez i tacy, ktorzy dokonuja wielkich transakcji, a wiec zmnieniaja wyraznie kursy poszczegolnych akcji. Stad tez teoria procesow stochastycznych zawodzi w analizie gieldy. Zreszta gdyby mozna bylo przewidywac ze znaczna dokladnoscia przyszle kursy walut, to gielda by sie musiala zamknac, gdyz wtedy nikt by na niej nic nie mogl wygrac – analogia do wyscigow konnych, w ktorych zawsze zwyciezal by faworyt albo do kasyna, w ktorym kazdy gracz wiedzialby jaki numer padnie po kolejnym zakreceniu przez krupiera kola ruletki…
    4. A co z tzw. energia prozni? Teoretycznie mozna by tez uzyskac ‚darmowa’ energie z tzw. Wielkiego Wybuchu (Big Bang), jako iz ona przeciez jest niejako ‚wszedzie’ w naszym Wszechswiecie. Poza tym, to fizyka jest uzyteczna, gdyz dzieki niej mamy coraz to wydajniejsze zrodla energii, zas metody matematyczne sa bezradne, jesli chodzi o przewidywanie przyszlosci. Jesli nie znamy mechanizmu, ktory spowodowal, ze np. wczoraj w totku padly liczby 6, 19, 40, 13, 2 i 5 a nie 17, 31, 24, 16, 2 i 3, to cale te tomy poswiecone rachunkowi prawdopodobienstwa mozna przeznaczyc na makulature.

  64. @Wojtek 1942
    Jakos ta statystyka matematyczna i rachunek prawdopodobieństwa nie przestrzegla Grekow cypryjskich przed przyjeciem euro ani tez nie spowodowala tego, aby najnowsze Boeingi nie zostaly przymusowo uziemnione. Rozumiem, ze medrcy z Komisji Europejskiej i z Boeinga stosuja w praktyce statystyke matematyczna i rachunek prawdopodobieństwa.

  65. Jasne, w wyniku stosowania metod statystyki matematycznej mamy kryzys, a krowy dają kwaśne mleko. Konsumpcyjne szaleństwo, chciwość bankierów i populizm polityków, którzy postanowili jak najdłużej pozwolić na powszechne życie na kredyt, nie mają z tym oczywiście żadnego związku, to wszystko przez statystyków.

  66. @Gall Anonim
    Obecny kryzys gospodarczy wynika glownie z tej przyczyny, ze ekonomia uniwerytecka zostala opanowana przez zwolennikow neoliberalnej szkoly klasycznej, ktora jest dzis mocno zmatematyzowana. Problem jest w tym, ze te metody matematyczne opieraja sie na blednych zalozeniach i niekompletnych a czesto wrecz falszowanych danych (np. zanizone stopy bezrobocia i inflacji oraz zawyzone stopy wzrostu), gdyz mialy one dac tzw. naukowe dowody na to, ze liberalny model wolnorynkowy jest ‚jedynie sluszny’. A to konsumpcyjne szaleństwo, chciwość bankierów i populizm polityków, którzy postanowili jak najdłużej pozwolić na powszechne życie na kredyt, o ktorych piszesz, to sa wlasnie wyniki tej dominacji neoliberalnej, prorynkowej ideologii. Konsumpcja na kredyt miala z zalozenia rozladowac te olbrzymie i wciaz rosnace nadwyzki towarow w sytuacji, gdy pracy jest coraz mniej a zarobki realne sa coraz nizsze. Negatywny wklad matematykow jest tu tylko taki, ze oni uwierzytelniali ta neoklasyczna, liberalna szkole w ekonomii poprzez ubranie jej w matematyczne, a wiec ‚naukowo wygladajace’ szaty.
    Pozdrawiam!

  67. Nie ma takiej tezy, na której poparcie nie dałoby się namówić odpowiednio licznej grupy osób legitymujących się dyplomami uniwersyteckimi. Czepianie się statystyki czy matematyki en gros o neoliberalne ekscesy to jak zarzucanie producentom noży kuchennych, że od czasu do czasu ktoś używa ich do zabójstwa.

  68. kagan: „Problem jest w tym, ze te metody matematyczne opieraja sie na blednych zalozeniach i niekompletnych a czesto wrecz falszowanych danych (np. zanizone stopy bezrobocia i inflacji oraz zawyzone stopy wzrostu), ”

    Nie. Metody matematyczne, jako matematyczne, maja takie zalozenie jakie chca. Problem polega zas na tym, ze ludzie, tak zwani „ekonomisci” nie rozumieja matematyki ani modeli matematycznych, i uzywaja tych modeli tak jak sie uzywa mlotka. Nieszczescia ktore spotkaly ekonomie to nei wida matematyki, to nieuctwo ekonomistow.

    Proponuje lekture

    http://www.wired.com/techbiz/it/magazine/17-03/wp_quant?currentPage=all

    w szczegolnosci slowa niejakiego Li, autora modelu, na temat zrozumienia tego modelu pzrez ekonomistow

  69. Gall Anonim: „Jasne, w wyniku stosowania metod statystyki matematycznej mamy kryzys, a krowy dają kwaśne mleko.”

    W zasadzie tak, ale nie jest to wina statystykow, ale niedouczonych ekonomistow. Patrz moja odpowiedz kaganowi

  70. kagan:

    Ad 1″Nowoczesne samoloty potrafia utrzymac ?same? kurs przy pomocy autopilota, urzadzenia znanego zreszta od wielu lat i dzialajacego na klasycznej zasadzie sprzezenia zwrotnego (feedback). Piloci sa jednak wciaz niezbedni, szczegolnie kiedy zachodzi nagla zmiana parametrow lotu.”

    Autopilot to autopilot, stabilizator to stabilizator. Samolot nei leci caly czas na autopilocie. Od czasu do czasu – podczas startu i ladowania na przyklad, samolotem steruje nie autopilot a czlowiek. Wiec ja powtarzam Panu jeszcze raz: samolot jako taki jest NIESTABILNY i nie jest mozliwe sterowanie reczne bez urzadzenia miedzy dzwigniami sterowymi a lotkami itede. Tak zwane „fly by wire” stosowane we wspolczesnych samolotach polega na tym ze pilot pociagajac za drazek i naciskajac pedaly wydaje polecenia do KOMPUTERA. Do tego samego komputera wydaje pojecenie inny komputer zwany autopilotem

    ad 2: „Geocentryczny model Ptolomeusza jest bledny, gdyz nie jest on zgodny z wynikami empirycznych obserwacji”

    Geocentryczny model Ptolomeusza jest prawidlowy, bowiem umozliwia uzyskanie opisu rychu planet zgodnych z obserwacjami. Jak pisalem, jest bardziej skomplikowany obliczeniowo niz model Kopernika.

    ad 3: „Stad tez teoria procesow stochastycznych zawodzi w analizie gieldy”

    Teoria procesow stochastycznych zawodzi z zupelnie innego powodu ktore sa opisane w cytowanej ksiazce Mandelbrota The Misbehavior of Markets

    ad 4:”zas metody matematyczne sa bezradne, jesli chodzi o przewidywanie przyszlosci. Jesli nie znamy mechanizmu, ktory spowodowal, ze np. wczoraj w totku padly liczby 6, 19, 40, 13, 2 i 5 a nie 17, 31, 24, 16, 2 i 3, to cale te tomy poswiecone rachunkowi prawdopodobienstwa mozna przeznaczyc na makulature”

    Metody numeryczne nigdy nie mialy ambicji aby przewidywac przyswzlosc. Owszem, statystyka ma takie ambicje, ale tylko w ramach okreslonych modeli. W ramach owych modeli nei da sie przewidziec wygranych w totka.

    Wina lezy rozneiz po stronei natury. Pisalem o procesach chaotycznych. Takich procesow nei da sie dobrze prognozowac, i nei dlatego ze matematyka sobie z tym nie radzi, ale dlatego ze taka jest owych procesow natura. Chcialbym aby Pan zauwazyl ze problem tzrech cial poruszajacych sie w polu grawitacyjnym jest wlasnei chaotyczny. Istnieja silne argumenty za tym ze Uklad Sloneczny jest chaotyczny i ze planety wcale nie poruszaja sie wedle praw Keplera.

    Niech Pan sobei poczyta cos popularno naukowego, na przyklad Gleick, Chaos albo Lorenz, The Essence of Chaos.

  71. „Istnieja silne argumenty za tym ze Uklad Sloneczny jest chaotyczny i ze planety wcale nie poruszaja sie wedle praw Keplera.”

    Uściślijmy: na przestrzeni setek lat, czyli bardzo lokalnie w skali czasowej odnoszącej się do istnienia Układu Słonecznego, planety poruszają się w sposób całkiem ładnie zgodny z prawami Keplera. W skali makro, po rozważeniu wielu tysięcy obiegów dookoła Słońca, prawdopodobnie efekty chaotyczne przeważają (istotą chaosu jest to, że z dobrego opisu lokalnego nie sposób nijak wywnioskować deterministycznego opisu globalnego). Oczywiście narastanie odstępstw od praw Keplera wynika z oddziaływania grawitacyjnego pomiędzy planetami (a nie tylko każdej nich ze Słońcem), ale też z poprawek na Ogólną Teorię Względności, ciśnienie wiatru słonecznego, siły pływowe, znaczną utratę materii przez komety i inne mniejsze ciała kosmiczne, powolne zmiany masy Słońca, grawitacyjne zapadanie się Jowisza i pewnie setki innych czynników, których nie sposób w pełni uwzględnić. Ostatecznie mamy więc sytuację jak w bardzo skomplikowanej i olbrzymiej ruletce – niby rządzi się ścisłymi prawami fizyki, ale ciężko zgadnąć, gdzie ostatecznie wyląduje kulka.

  72. @Gall Anonim – gdyby prawa Kelera nie dzialaly, to nie byloby mozliwe np. wyladowanie probnika na Marsie czy Wenus, nie mowiac juz o podrozy ludzi na Ksiezyc i z powrotem…
    Te prawa dzialaja jak dobry zegarek, ktory tez sie zawsze nieco pozni czy spieszy, ale jesli to jest sekunda na dzien, to jaki problem, szczegolnie, gdy znamy z jaka dokladnoscia on ‚chodzi’?

  73. @ Gall Anonim & A.L.
    Niestety, ale matematycy sa tu tez winni, gdyz twierdza oni, ze matematyka da sie zastosowac takze do nauk spolecznych, co jest oczywista nieprawda. Producenci nozy kuchennych wyraznie zas zaznaczaja, ze to sa noze do kuchni, do krojenia zywnosci, a nie do zalatwiania porachunkow rodzinnych czy tez do napadania na przechodniow.
    Matematycy powinni wiec wyraznie powiedziec, ze nie mozna stosowac metod, ktore przyniosly dobre rezultaty np. w fizyce, do ekonomii! Ze te metody sa po prostu zbyt prymitywne, aby je stosowac w naukach spolecznych.

  74. @A.L.
    1. Stabiliatorow elektronicznych potrzebuja tylko niektore samoloty wojskowe, ktore zostaly zaprojektowane tak, aby byly one ‚niewidzialne’ dla radaru, stad tez maja one bardzo marne wlasciwosci aerodynamiczne. Samolot pasazerski nie moze byc zas zalezny od tego ukladu stabilizujacego – za duze byloby wtedy ryzyko dla pasazerow i zalogi w przypadku jego awarii. I zgoda, ?fly by wire? polega na tym ze pilot uzywa tzw. joysticku ktorym wydaje polecenia do komputera, ale w takim samolocie musi byc zawsze mozliwosc jego sterowania ‚bezposredniego’, w przypadku awarii owego komputera.
    2. Znaczy sie, ze Sw. Inkwizycja slusznie przesladowala Galileusza?
    3. Teoria procesow stochastycznych zawodzi w analizie gieldy, gdyz gielda nie zachowuje sie przypadkowo, a jest ona sterowana przez czesc jej graczy oraz przez jej wlascicieli, a Mandelbrot jest (byl?) moze dobrym matematykiem, ale o ekonomii, to nie ma on pojecia, bo i niby skad i jak? 😉
    4. Metody numeryczne i statystyczne zawsze mialy ambicje, aby przewidywac przyszlosc. Na nich opierala sie przeciez tzw. futurologia. I jesli te modele nie pozwalaja przewidziec numerow, ktore padna w totku, to jak moga one miec ambicje przewidywac zachowanie sie bardziej zlozonych systemow niz losowanie 6 numerow z 45?
    5. Problem trzech cial poruszajacych sie w polu grawitacyjnym nie ma nic wspolnego z chaosem, po prostu jest on zbyt zlozony jak na mozliwosci wspolczesnej matematyki. Z tym chaosem to jest dosc zreczna wymowka matematykow, ale nie kazdy to ‚kupi’.
    6. Gleicka i Lorezna czytalem i bylem bardzo zawiedziony tym, co tam znalazlem…
    Pozdrawiam!

  75. @Kagan: Prosty rachunek pokazuje, że wpływ grawitacyjny Jowisza na Marsa jest o mniej więcej cztery rzędy wielkości mniejszy niż wpływ Słońca. W podobnej proporcji pozostaje średnica Marsa do średnicy (ściślej półosi wielkiej, ale dopóki mówimy o rzędach wielkości, to nie ma znaczenia, mimośród jest mały) jego wokółsłonecznej orbity. Stąd nawet co zdolniejszy licealista powinien być w stanie wysnuć wniosek, że błąd w ocenie położenia Marsa na orbicie wynikły z zaniedbania wpływu Jowisza i polegania tylko na prawie Keplera może być podobnego rzędu wielkości co średnica tej planety (z rzadka przypadkowo będzie mniejszy, bo wszystko zależy jeszcze od ustawienia konfiguracji Słońce-Mars-Jowisz). Życzę powodzenia w wysyłaniu sond kosmicznych, ale potrzeba będzie sporo szczęścia…

    I tak dalej…

  76. @Gall Anonim
    1. Widze, ze atakujesz Wasc tzw. slomianego ludzika, gdyz ja nigdzie nie napisalem, ze obecnie wysyla sie sondy w kosmos uzywajac dokladnie tego samego modelu, ktory utworzyl Kepler, a tylko ze obliczenia orbit planet etc. sa dzis oprate na tym modelu, z oczywistymi zmianami, gdyz od XVII wieku astronomia zrobila olbrzymi postep.

  77. kagan: „, gdyz ja nigdzie nie napisalem, ze obecnie wysyla sie sondy w kosmos uzywajac dokladnie tego samego modelu, ktory utworzyl Kepler”

    Kepler nie utworzyl zadnego modelu. Kepler doszedl do swych praw empirycznie, na podstawie analizy danych. Prawa Keplera uzasabnil dopiero Newton, zrobil to w sposob scisly, poslugujac sie matematyka.

    Wnioski jakie wyplywaja z Modelu Newtona dosyc dobrze zgadzaja sie z obserwacja, ale tylko w ramach naszego zywota. Uklad sloneczny, alanlzowany w bardzo dlugich interwalach czasowych pokazuje ze planety wcale nie poruszaja sie tak zgrabnie jak wynika z rozwazan Keplera i Newtona, w alasie w bardziej skomplikowant sposob. Ten bardziej skomplikowany sposob, konkretnie ruch chaotyczny, uzywa sie dzis swiadomie do wyboru trajektorii statkow kosmicznych. Proponuje wygoglowac na nazwiski Belbruno (Edward Belbruno)

  78. Gall Anonim: „Oczywiście narastanie odstępstw od praw Keplera wynika z oddziaływania grawitacyjnego pomiędzy planetami (a nie tylko każdej nich ze Słońcem), ale też z poprawek na Ogólną Teorię Względności, ciśnienie wiatru słonecznego, siły pływowe,..”

    Nie, ruch chaotyczny nie ma nic wspolnego z wiatrem kosmicznym, teoria wzglednosci i ruchami plywowymi. Trzy idealne pubktu odzialujace na siebie grawitacyjnie, bez zadnych dodatkowych oddzialywan z zewntrz, moga poruszac sie ruchem chaotycznym. Taka jest natura owego problemu.

    Niekttore przyklady ruchu chaotycznego tzrech cial sa zadsiwiajaco proste. Proponuje wygoglowac na Sitnikow Problem.

    Zas o informacje o stabilnosci Ukladu Slonecznego, proponuje artykul The Outer Solar System for 200 million Years, oraz Chaotic Evolution of Solar System, Jay Gerald Sussman

  79. gaban:

    [……]
    „Gleicka i Lorezna czytalem i bylem bardzo zawiedziony tym, co tam znalazlem?
    Pozdrawiam!”

    Gdyby Pan czytal Gleicka i Lorenza, to by Pan nie pisal takich nonsensow. Obawiam sie ze dowiedzial sie Pan o tych ksiazkach wczoraj.

    Pozostala czesc Panskiego postu nei zasluguje na polemike

  80. @Kagan: Kwestię stosowalności rzekomego „modelu” Keplera w kwestii lotów międzyplanetarnych w zasadzie wyjaśnił już A.L. – ja mogę tylko dodać, że przed Newtonem sam Kepler usiłował zrozumieć przyczyny, dla których jego – czysto opisowe – prawa są spełnione, ale bezskutecznie. W dodatku „opisowość” praw Keplera jest taka, że w ogóle nie przewiduje toru lotu z Ziemi na Marsa (bo i jak? jaka tu elipsa, co miałoby być jej ogniskiem?), a i ruchu rakiety nie pozwala ująć, choćby z tej prozaicznej przyczyny, że opis Keplera wyprzedzał zasady dynamiki Newtona, a nie tylko prawo powszechnego ciążenia. Wbrew temu, co się Panu wydaje, jeśli chodzi o opis samego ruchu planet stare modele z epicyklami (i to bez znaczenia, czy geocentryczne, jak Ptolemeusza, czy heliocentryczne, jak ten Kopernika) przy dzisiejszej precyzji obserwacji i rachunków można by bez kłopotu rozbudować, bez żadnej zmiany podstawowej zasady opisu, do niemal dowolnej pożądanej dokładności, co wynika z faktu, iż nie są one niczym innym niż geometryczną wersją szeregów Fouriera. Tymczasem prawa Keplera akurat takiej możliwości nie dają – odstępstwa trajektorii planet od elips są naprawdę znaczące.

    @A.L.: Ja wiem, że układ trzech ciał w wersji czysto newtonowskiej też może być mocno chaotyczny; to nie przeczy temu, co pisałem, a mianowicie, że w wersji bliższej rzeczywistości, z rozlicznymi poprawkami, zapewne również jest chaotyczny. Swoją drogą, prawdopodobnie jednak bardziej stabilny niż bez tych poprawek, co może być rozsądnym wyjaśnieniem jego trwania. Rzecz chyba w tym, iż naniesienie stochastycznego szumu na układ dynamiczny, choćby tak prosty jak ten, który opisuje równanie Lotki-Volterry, może znacząco poprawić jego stabilność. Podobnie jest z rozmaitymi układami mechanicznymi, którym nadmierna doskonałość wykonania nie służy, i zapewne z tego samego powodu nasze serca nie biją zbyt regularnie. Zgadywałbym, że liczne interakcje nienewtonowskie, drobne śmieci latające po okolicy i efekty egzogenne (typu zmienny w czasie wpływ grawitacyjny pobliskich gwiazd) mogą w zbliżony sposób poprawiać stabilność Układu Słonecznego.

  81. Tu konkretny przykład z wynikami symulacji (Fig. 3):

    http://arxiv.org/pdf/cond-mat/0310585v2.pdf

css.php