Forum ŚFiNiA Strona Główna ŚFiNiA
ŚFiNiA - Światopoglądowe, Filozoficzne, Naukowe i Artystyczne forum - bez cenzury, regulamin promuje racjonalną i rzeczową dyskusję i ułatwia ucinanie demagogii. Forum założone przez Wuja Zbója.
 
 FAQFAQ   SzukajSzukaj   UżytkownicyUżytkownicy   GrupyGrupy   GalerieGalerie   RejestracjaRejestracja 
 ProfilProfil   Zaloguj się, by sprawdzić wiadomościZaloguj się, by sprawdzić wiadomości   ZalogujZaloguj 

Wiara dla robotów i sztucznej inteligencji

 
Napisz nowy temat   Odpowiedz do tematu    Forum ŚFiNiA Strona Główna -> Filozofia
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
Michał Dyszyński
Bloger na Kretowisku



Dołączył: 04 Gru 2005
Posty: 31312
Przeczytał: 102 tematy

Skąd: Warszawa
Płeć: Mężczyzna

PostWysłany: Nie 16:13, 24 Gru 2017    Temat postu: Wiara dla robotów i sztucznej inteligencji

Rozwój sztucznej inteligencji, robotyki, kognitywistyki w dość ciekawy sposób stawia pytanie o aspekt wiary w rozumowaniu. Pozwala też na sformułowanie ogólnej, niezależnej od światopoglądu, definicji wiary.

Oto założenia tej koncepcji.
Przyjmijmy, że w jakimś obszarze zjawisk, np. zjawisk świata, które są - przynajmniej na starcie - niejasne, działa inteligencja (może sztuczna), która stara się opanować ów obszar swoim modelowaniem. Po jakimś czasie owa inteligencja dorobi się PIERWSZYCH INSTANCJI MODELU DLA ZJAWISK. Oznacza to, że załóżmy będzie ona w stanie rozpoznawać pewne aspekty swoich doznań, kategoryzować je pod jakimś kątem - uznawać, iż należą do jakiejś tam grupy. Jednocześnie powstaną pierwsze hipotezy, powiązania owych rozpoznanych rzeczy z jakimiś skutkami. Załóżmy przykładowo, że obiekty klasy A wykazują właściwość typu W1 - zdarzyło się to w 10 przypadkach. Inteligencja zatem ma zamiar przyjąć, iż W1 zawsze towarzyszy działaniu obiektów klasy A.
Jednak inteligencja nie jest tego pewna. Co prawda nie ma przypadków sprzecznych ze swoim założeniem, ale jednocześnie nie ma absolutnej pewności, że każdy rozpoznany obiekt klasy A, wywoła W1. Przyjecie owej hipotezy będzie jakąś formą WIARY - domknięcie przekonania na poziomie założenia - tak właśnie jest.

Przyjęcie prawdziwości hipotezy na wiarę może odbyć się w dwóch trybach:
1. tryb niepewności, domniemania pomyłki, wtedy roboczo inteligencja przyjmuje ową hipotetyczną zależność, ale gotowa jest zrezygnować z jej utrzymywania w sytuacji, gdy pojawi się jakikolwiek przypadek przeczący.
2 tryb z większą pewnością, poszukiwaniem błędu na innym poziomie - inteligencja nie odrzuca hipotezy, nawet gdy pojawi się jeden przypadek przeczący. W takiej sytuacji, czyli gdy nie ma jakiejś mocnej statystyki za obaleniem hipotezy, hipoteza zostaje, a szuka się INNEGO WYTŁUMACZENIA - np. potencjalnego błędu w klasyfikowaniu, czy to klasy obiektu, czy rozpoznaniu samego zdarzenia

Nauka, w odniesieniu do ugruntowanych twierdzeń nauki, nawet wyraźny pojedynczy przypadek bywa odrzucany. Bo skoro tysiące przypadków było za regułą, to tylko 1 przypadek przeciw, można uznać za powstający z "innych powodów". Tak więc nie obala się łatwo uznanych twierdzeń fizyki.


Ostatnio zmieniony przez Michał Dyszyński dnia Śro 16:27, 03 Sty 2018, w całości zmieniany 1 raz
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
Banjankri




Dołączył: 17 Kwi 2012
Posty: 5344
Przeczytał: 34 tematy


PostWysłany: Śro 15:50, 03 Sty 2018    Temat postu:

AI będzie symulacją komputerową, więc wszytkie tryby będą testowane a wygrywać będzie ten najbardziej skuteczny (w przewidywaniu i kontroli rzeczywistości zgodnie z założeniami).
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
Michał Dyszyński
Bloger na Kretowisku



Dołączył: 04 Gru 2005
Posty: 31312
Przeczytał: 102 tematy

Skąd: Warszawa
Płeć: Mężczyzna

PostWysłany: Śro 16:28, 03 Sty 2018    Temat postu:

Banjankri napisał:
AI będzie symulacją komputerową, więc wszytkie tryby będą testowane a wygrywać będzie ten najbardziej skuteczny (w przewidywaniu i kontroli rzeczywistości zgodnie z założeniami).

A owe założenia, to jest forma wiary. Czyli testowane będzie w zgodności z tym, co sobie owa AI (albo jej twórcy) wymyślą (arbitralnie).
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
Banjankri




Dołączył: 17 Kwi 2012
Posty: 5344
Przeczytał: 34 tematy


PostWysłany: Śro 16:46, 03 Sty 2018    Temat postu:

Pojęcia wiary pojawia się wtedy, kiedy efektywność nie jest mierzalna. Miara jest zupełnie pozbawiona osobowego arbitra, bo jest nią selekcja naturalna. Innymi słowy, pojęcia wiedzy i wiary, są obrazem ludzkiego ograniczenia. AI będzie operować na danych statystycznych i do 65% szansy na sukces nie będzie potrzebowała doklejać ani wiedzy, ani wiary. Po prostu 65%. Ty jak masz 65% na sukces i wierzysz, że się ziści, przyjmujesz postawę to oddającą, czyli co będzie dalej, jak już się uda. AI nie ma tego ograniczenia i może (poprzez kopiowanie wątków) przyjąć oba scenariusze równocześnie, a potem usunąć ten błędny. Wartość wiary spada do 0, bo nic nie wnosi do działania, a AI ma zawsze rację, bo wystarczy, że 1 wątek miał rację. Takie mysłenie w superpozycji.
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
Michał Dyszyński
Bloger na Kretowisku



Dołączył: 04 Gru 2005
Posty: 31312
Przeczytał: 102 tematy

Skąd: Warszawa
Płeć: Mężczyzna

PostWysłany: Śro 22:53, 03 Sty 2018    Temat postu:

Banjankri napisał:
Pojęcia wiary pojawia się wtedy, kiedy efektywność nie jest mierzalna. Miara jest zupełnie pozbawiona osobowego arbitra, bo jest nią selekcja naturalna. Innymi słowy, pojęcia wiedzy i wiary, są obrazem ludzkiego ograniczenia. AI będzie operować na danych statystycznych i do 65% szansy na sukces nie będzie potrzebowała doklejać ani wiedzy, ani wiary. Po prostu 65%. Ty jak masz 65% na sukces i wierzysz, że się ziści, przyjmujesz postawę to oddającą, czyli co będzie dalej, jak już się uda. AI nie ma tego ograniczenia i może (poprzez kopiowanie wątków) przyjąć oba scenariusze równocześnie, a potem usunąć ten błędny. Wartość wiary spada do 0, bo nic nie wnosi do działania, a AI ma zawsze rację, bo wystarczy, że 1 wątek miał rację. Takie mysłenie w superpozycji.

Ten darwinistyczny model wiary jest w moim przekonaniu uproszczony. A przynajmniej ograniczony do dość wąskiej klasy sytuacji (później do tego wrócę, ale teraz chcę naświetlić sprawę bardziej ogólnie).
Tam gdzie AI działałaby w warunkach jakiejś totalnej konkurencji, absolutnej walki o byt, może opisywany przez Ciebie mechanizm by się sprawdzał, bo byłby dominujący. Ale nawet tam (według mnie) nie stanowiłby on całości mechanizmów niezbędnych do przeżycia.
Powodem głównym jest to, że nawet nie sposób jest w pełni ustalić jaki zestaw cech/umiejętności intelektualno-odczuciowych jest tym kluczowym dla przetrwania. W stabilnych warunkach można te cechy optymalizować (a nawet przeoptymalizować), jednak w warunkach zmiennych często kluczowe stają się umiejętności na codzień peryferyjne. Widać to w przyrodzie - gdzie zwierzęta zdają się "inwestować" wiele w cechy dość dalekie od bezpośredniej przeżywalności - typu ogon pawia, umiejętność pięknego śpiewania ptaków i inne.
A przecież AI wcale nie musi działać w warunkach konkurencji i walki o byt - może być tworzona w różnych celach, nawet oderwanych od rywalizacji, czy zdobywania zasobów. Byty AI nie muszą ginąć jeśli nie wykonają zadania, skupienie się na tym, czy innym celu wcale nie musi być ich warunkiem przetrwania. Można sobie wyobrazić sztuczną inteligencję, która swobodnie testuje bardzo wiele różnych strategii w osiąganiu jakiegoś celu. Jedne strategie sprawdzają się lepiej, inne gorzej. Nawet nie do końca musi być określony sam sukces.


Ważny przykład
Wyobraźmy sobie, że mamy sztuczną inteligencję, która zarządza pewną sonda kosmiczną wysyłając jakieś raporty z misji na planetę, na którą zostanie zrzucona. Raporty muszą trzymać się jakiegoś minimum zrozumiałości, muszą być określone do pewnego stopnia, ale twórcy owej maszyny myślącej mogą przewidywać jakieś samodzielne działania, pomysły na lepsze zbadanie owej planety. Poza tym, jako że naukowcy nie wiedzieli z góry zbyt wiele o tej planecie, dali sztucznej inteligencji tylko ogólne wskazówki, że ma szukać przejawów życia, trochę badając pozostałe cechy owej planety, tworzac z tego robocze modele, próbując różnych drug uzyskiwania najciekawszych informacji. Ponieważ raporty są wysyłane tylko w jedną stronę (załóżmy, że odległość od Ziemi, czy inne powody sprawiają, iż komunikacja działa praktycznie w jedną stronę, albo zwrotne skomunikowanie się jest bardzo trudne, a przez to zdarza się bardzo rzadko). Można też założyć, że planeta nie jest jakoś bardzo niebezpieczna a właściwie jedynym istotnym celem jest samo jej badanie - nie ma w ogóle problemu przeżywalności. Nasza AI będzie testowała różne pomysły na zdobywanie informacji - o mikroorganizmach glebowych (jeśli wystąpią), prymitywnej faunie, warunkach geologicznych. Taka AI może w pewnym momencie wysnuć hipoteżę, że w pobliżu szczególnego rodzaju form geologicznych będzie więcej mikroorganizmów. Po sprawdzeniu paru próbek może w tę hipotezę "uwierzyć", co oznacza że zechce zająć się dokładniejszym zbadaniem próbek w tym miejscu, przy pominięciu innych (zapewne mniej obiecujących) obszarów do badania. I może się okazać, że ta wiara sprawdzi się, albo i nie - tzn. rzeczywiście w tym obszarze będą ciekawsze mikroorganizmy. To się okaże jednak po zbadaniu sprawy.

Wiara jest naturalnym sposobem organizowania sobie wiedzy w kontekście przyszłych wyborów - także dla sztucznej inteligencji. Jest mechanizmem uniwersalnym, który zmienia status hiipotezy - ze stanu "sprawdzamy, nic nie jest pewne, nie będziemy na tym bazować przy wyborach" do stanu "hipoteza jest potwierdzone na tyle, że za sensowne uważa się traktowanie je w pobliżu kategorii wiedza".

Zilustruję to przykładem. Oto gdzieś mamy zielone bajorka z cieczą. Nie wiadomo co tam jest, czy można wejść do owego bajorka bez szkody dla zdrowia (albo funkcjonalności w przypadku maszyny). Teraz pojawia się hipoteza - zielony kolor wody w bajorku jest wywołany nieszkodliwymi czynnikami, świadcząc o niskiej toksyczności wody (bo np. w zbyt kwaśnej, zasadowej, czy gorącej wodzie owe zielony glony by sie nie rozijały). Mamy teraz dwa etapy wiedzy na temat bajorka:
- hipoteza nie potwierdzona: wtedy nie wchodzimy do bajorka, tylko za każdym razem gdy spotykamy to bajorko robimy analizę wody, sprawdzamy, czy nie ma niebezpieczeństwa.
Po iluś sprawdzeniach, stwierdzamy hipoteza zawsze się potwierdzała, bo analiza pobranej wody sugeruje, że bajorka są bezpieczne.
Wtedy mamy moment przełomowy - wiara. Oto ów ktoś (może maszyna) wprowadza do swojego rozumowania element quasi wiedzy "zielony kolor bajorek świadczy o bezpiecznej wodzie, zatem można tam wchodzić". Od tego momentu JUŻ BEZ SPRAWDZANIA człowiek (czy maszyna) spokojnie zanurza się w wodę nawet nowego, nie przebadanego wcześniej bajorka.

W tym kontekście wiara nie jest wcale niczym dziwnym, czy zbędnym, a po prostu NADANIEM STATUSU DLA PRZYPUSZCZEŃ - hipotez, czymś co może wręcz być decydującym dla przeżycia. Bo oto może się zdarzyć, że w naszym przypadku z bajorkami jest jeszcze ten element, że w bajorkach znajduje się zwykle pożywienie, zasób ważny dla badającego podmiotu. I może też być tak, że możliwość zbadania wody z każdego bajorka jest ograniczona, wymaga dodatkowych zasobów (odczynników, których jest coraz mniej). Dlatego z dwóch "myślących osobników" (biologia, czy sztuczna inteligencja - nieważne, bo mechanizm jest ten sam) ostatecznie przetrwa ten, który uwierzył (!), bo już nie marnował zasobów na każdorazowe badania i, już bez marnotrawienia czasu, energii, czy ograniczonych współczynników, czerpał pożywienie, energię z bajorek, co umożliwiło mu przetrwanie. Bez owej wiary osobnik, któremu się skończyły odczynniki nie ma prawa zanurzyć się do owego bajorka i pobrać zawartych tam zasobów/energii, czyli zginie.

Ktoś powie, że przykład jest wydumany, ale w moim przekonaniu wcale tak nie jest, bo w warunkach konkurencji (teraz już oczywiście wróciłem ten aspekt, bo piszę o nieco innym, choć pokrewnym, zagadnieniu niż na początku) tak właśnie jest, że zasobów nie starcza na wszystko, więc ten osobnik, który lepiej ulokuje je w to, co pomaga przeżyć (szybko odnajdując nowe rozwiązania i włączając je - mechanizmem wiary w ich poprawne rozpoznanie - do arsenału swoich zachowań), a nie jest uparcie konserwatywny.ten osobnik po prostu będzie miał przewagę. Tak jest szczegółnie w warunkach ograniczonych zasobów i braku dostępu do sprawdzonych informacji, gdy każda dobra hipoteza zastosowana dla polepszenia swojego bytu, jest na wagę złota.


Ostatnio zmieniony przez Michał Dyszyński dnia Śro 22:58, 03 Sty 2018, w całości zmieniany 1 raz
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
decir




Dołączył: 04 Cze 2017
Posty: 411
Przeczytał: 0 tematów

Skąd: kasztel
Płeć: Mężczyzna

PostWysłany: Czw 9:39, 04 Sty 2018    Temat postu:

MD napisał:

Dlatego z dwóch "myślących osobników" (biologia, czy sztuczna inteligencja - nieważne, bo mechanizm jest ten sam) ostatecznie przetrwa ten, który uwierzył (!), bo już nie marnował zasobów na każdorazowe badania i, już bez marnotrawienia czasu, energii, czy ograniczonych współczynników, czerpał pożywienie, energię z bajorek, co umożliwiło mu przetrwanie. Bez owej wiary osobnik, któremu się skończyły odczynniki nie ma prawa zanurzyć się do owego bajorka i pobrać zawartych tam zasobów/energii, czyli zginie.


Ciekawe stwierdzenie ,choć mam pewne obiekcje W moim przekonaniu ,nie ma czegoś takiego jak marnowanie zasobów ,gdy gra toczy się o przetrwanie /uniknięcie ciężkich ran a w przypadku maszyn nieodwracalnego uszkodzenia lub zniszczenia .

Weźmy chociażby przykład dzikich zwierząt żyjących w mieście albo w częstym kontakcie z człowiekiem. W większości przypadków ,zgodnie z tym co opisałeś ich zachowanie cechuje mniejsza wrażliwość na bodźce ,które w innej sytuacji wywołałyby np. ucieczkę ,nie znaczy to jednak ,że lis,sarny ,dziki itd.. wyłączyły te wszystkie zmysły ,które ostrzegały przed zagrożeniem i przeznaczyły całą zaoszczędzoną energię na "ciekawsze sprawy" .Czasem wystarczy jedno odstępstwo od rutyny i "ustawienia" się resetują i "budowanie wiary" zaczyna się od nowa .
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
Banjankri




Dołączył: 17 Kwi 2012
Posty: 5344
Przeczytał: 34 tematy


PostWysłany: Czw 10:11, 04 Sty 2018    Temat postu:

Cytat:
Powodem głównym jest to, że nawet nie sposób jest w pełni ustalić jaki zestaw cech/umiejętności intelektualno-odczuciowych jest tym kluczowym dla przetrwania

A jak to się do tej pory działo? Pierwotniaki musiały wcześniej ustalić zestaw cech kluczowych do ich przetrwania? No nie. To nie jest coś co wymaga ustalenia i odbywa się zupełnie poza świadomością.

Cytat:
Widać to w przyrodzie - gdzie zwierzęta zdają się "inwestować" wiele w cechy dość dalekie od bezpośredniej przeżywalności - typu ogon pawia, umiejętność pięknego śpiewania ptaków i inne.

To nie jest regua, a od niej wyjątki.

Cytat:
A przecież AI wcale nie musi działać w warunkach konkurencji i walki o byt - może być tworzona w różnych celach, nawet oderwanych od rywalizacji, czy zdobywania zasobów.

Mówiąc o inteligencji, odnoszę się do naszej inteligencji, a nie inteligencji proszku do prania.

Cytat:
Byty AI nie muszą ginąć jeśli nie wykonają zadania, skupienie się na tym, czy innym celu wcale nie musi być ich warunkiem przetrwania. Można sobie wyobrazić sztuczną inteligencję, która swobodnie testuje bardzo wiele różnych strategii w osiąganiu jakiegoś celu. Jedne strategie sprawdzają się lepiej, inne gorzej. Nawet nie do końca musi być określony sam sukces.

Jeżeli nie określasz celu, to skąd wiesz, że coś jest robione lepiej, czy gorzej? Bez sensu.

Cytat:
Ważny przykład

To nie jest przykład AI, tylko zwykłej aplikacji zbudowanej przez człowieka, dlatego pojawia się w nim problem wiary.

Cytat:
Po iluś sprawdzeniach, stwierdzamy hipoteza zawsze się potwierdzała, bo analiza pobranej wody sugeruje, że bajorka są bezpieczne.
Wtedy mamy moment przełomowy - wiara.

Taka wiary jest przydatna wtedy, gdy masz ograniczoną liczbę prób i jeden strumień świadomości. Ty dalej myślisz, że AI będzie tak samo ograniczone jak my, przez miejsce i czas. Że będzie dążyło do ukierunkowanej specjalizacji. Tak działają aplikacje pisane przez człowieka, dla człowieka, a nie AI.
Cytat:

W tym kontekście wiara nie jest wcale niczym dziwnym, czy zbędnym, a po prostu NADANIEM STATUSU DLA PRZYPUSZCZEŃ - hipotez, czymś co może wręcz być decydującym dla przeżycia.

Hipotza jest potrzebna tylko wtedy, kiedy nie możesz, z braku środków, lub czasu, dokonać weryfikacji. To jest efekt biologicznego ograniczenia, którego AI mieć nie będzie.

Cytat:
przetrwa ten, który uwierzył (!)

Przetrwa silniejszy. Ty dalej nie rozumiesz, że dla AI konkurencja nie będzie takim problemem jak dla nas, albo ja albo on. AI sama będzie konkurencję generować z samej siebie. Tak jakbyś mógł stworzyć 100 klonów siebie i dał im to samo zadanie, po czym wybrał najlepszy efekt. Te klony sa twoją zdolnością, rozwijasz je jak ośmiornica macki i tak samo zwijasz, a odcięte same się regenerują. Badasz wszystkie możliwości, bo możesz i nie musisz się ograniczać do wiary. Wiara jest potrzebna wtedy, kiedy badasz liniowo w czasie, a nie równolegle. Ty będziesz wierzył, że bajorko jest ok, a AI będzie mieć ciągłą wiedzę o całym składzie wszystkich bajorek. Do tego, to AI nie będzie jednostkowe, tylko wielowątkowe i będzie konkurować między wątkami o to, który wątek lepiej wykorzysta zdobytą wiedzę.
Cytat:

bo już nie marnował zasobów na każdorazowe badania i, już bez marnotrawienia czasu, energii, czy ograniczonych współczynników, czerpał pożywienie, energię z bajorek, co umożliwiło mu przetrwanie. Bez owej wiary osobnik, któremu się skończyły odczynniki nie ma prawa zanurzyć się do owego bajorka i pobrać zawartych tam zasobów/energii, czyli zginie.

I ma zginąć, bo w tej śmierci nie ma nic złego. Człowiek, jako że jest jednostką, nie może sobie na śmierć pozwolić. Dla AI, ta droga jest otwarta.

Cytat:
Ktoś powie, że przykład jest wydumany

Ja powiem, że przykład jest bardzo skromny, z mocno ograniczoną perspektywą.

Cytat:
Tak jest szczegółnie w warunkach ograniczonych zasobów i braku dostępu do sprawdzonych informacji, gdy każda dobra hipoteza zastosowana dla polepszenia swojego bytu, jest na wagę złota.

Może tak być, dla ograniczonego organizmu biologicznego. Ty dalej myślisz, że AI będzie humanoidem. Nie będzie.
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
Michał Dyszyński
Bloger na Kretowisku



Dołączył: 04 Gru 2005
Posty: 31312
Przeczytał: 102 tematy

Skąd: Warszawa
Płeć: Mężczyzna

PostWysłany: Czw 13:36, 04 Sty 2018    Temat postu:

Banjankri napisał:
Cytat:
Tak jest szczegółnie w warunkach ograniczonych zasobów i braku dostępu do sprawdzonych informacji, gdy każda dobra hipoteza zastosowana dla polepszenia swojego bytu, jest na wagę złota.

Może tak być, dla ograniczonego organizmu biologicznego. Ty dalej myślisz, że AI będzie humanoidem. Nie będzie.

Wręcz przeciwnie - to ja niewiele zakładam w zakresie AI. Moje przykłady są oczywiście jakieś szczególne (jak to przykłady, odnoszą się do wybranego zagadnienia, sytuacji), ale problem stawiam ogólnie. AI może być humanoidalna, a może nie być, może posiadać dostęp do nieograniczonych źródeł informacji (przypadek dość fantastyczny, ale taki rozważałeś wcześniej, więc ja też go nie wykluczam), albo wręcz przeciwnie, do bardzo niewielkiej ich klasy. Może być tak, że ta inteligencja walczy o przetrwanie, ale może być tworzona przez ludzi na zasadzie kamikadze - czyli np. aparaty wojskowe typu bomba, która po prostu używa uczenie się i procedur inteligencji dla najlepszego dotarcia do celu, który zniszczy ulegając autodestrukcji. Ja w ogóle nie czynię tu silnych założeń.
Uważam, że wiara w większości owych przypadków wystąpi w jakiejś postaci. Wyjątkiem byłaby chyba taka sztuczna inteligencja, która w ogóle nie przejawia żadnej ekspansji w zakresie opanowywania intelektem świata, albo ta ekspansja byłaby jakaś trywialna.
Jednak w sytuacji, gdy trzeba używać hipotez, gdy wiedzę się tworzy, gdy same kryteria owej wiedzy też bywają niejasne (tak to jest z ludźmi, ale może być inaczej w szczegółach, choć pod tym względem podobnie), zaś wystąpi aspekt OGRANICZONYCH ZASOBÓW, to zawsze pojawią się "rozdroża" w tym intelektualnym opanowywaniu świata; coś trzeba będzie wybrać względem czegoś innego, czemuś zaufać, a drugie zlekceważyć, kierując się na taką ścieżkę, która już porzuciła koncepcje ze ścieżki myślowej zaniechanej.
Tylko jakiś absolutnie skrajny przypadek inteligencji, która testowałaby na raz wszystkie możliwości, co wiązałoby się z wykładniczym (do nieskończoności) wzrostem zapotrzebowania na moc obliczeniową, mógłby pominąć aspekt wiary w rozumowaniu.


Ostatnio zmieniony przez Michał Dyszyński dnia Czw 13:36, 04 Sty 2018, w całości zmieniany 1 raz
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
Banjankri




Dołączył: 17 Kwi 2012
Posty: 5344
Przeczytał: 34 tematy


PostWysłany: Śro 13:56, 10 Sty 2018    Temat postu:

Cytat:
Tylko jakiś absolutnie skrajny przypadek inteligencji, która testowałaby na raz wszystkie możliwości, co wiązałoby się z wykładniczym (do nieskończoności) wzrostem zapotrzebowania na moc obliczeniową, mógłby pominąć aspekt wiary w rozumowaniu.

I moc obliczeniowa (czyli energia), będzie właśnie głównym celem.
Powrót do góry
Zobacz profil autora
Wyświetl posty z ostatnich:   
Napisz nowy temat   Odpowiedz do tematu    Forum ŚFiNiA Strona Główna -> Filozofia Wszystkie czasy w strefie CET (Europa)
Strona 1 z 1

 
Skocz do:  
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach

fora.pl - załóż własne forum dyskusyjne za darmo
Powered by phpBB © 2001, 2005 phpBB Group
Regulamin