Forum ŚFiNiA Strona Główna ŚFiNiA
ŚFiNiA - Światopoglądowe, Filozoficzne, Naukowe i Artystyczne forum - bez cenzury, regulamin promuje racjonalną i rzeczową dyskusję i ułatwia ucinanie demagogii. Forum założone przez Wuja Zbója.
 
 FAQFAQ   SzukajSzukaj   UżytkownicyUżytkownicy   GrupyGrupy   GalerieGalerie   RejestracjaRejestracja 
 ProfilProfil   Zaloguj się, by sprawdzić wiadomościZaloguj się, by sprawdzić wiadomości   ZalogujZaloguj 

Algebra Kubusia - Nowa Teoria Zbiorów (v. Beta 1.0)

 
Napisz nowy temat   Odpowiedz do tematu    Forum ŚFiNiA Strona Główna -> Metodologia / Forum Kubusia
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 32672
Przeczytał: 43 tematy

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Pon 0:46, 10 Paź 2011    Temat postu: Algebra Kubusia - Nowa Teoria Zbiorów (v. Beta 1.0)

v. Beta 1.0

… wszystko co chcecie, żeby ludzie wam czynili, wy też im podobnie czyńcie …
Ewangelia Mateusza 7:12

[link widoczny dla zalogowanych]

Algebra Kubusia
Nowa Teoria Zbiorów

Autor: Kubuś - wirtualny Internetowy Miś
Naszym dzieciom dedykuję

Kim jest Kubuś ?
Kubuś - wirtualny Internetowy Miś, wysłannik obcej cywilizacji, którego zadaniem było przekazanie ludziom tajemnicy poprawnej matematycznie teorii zbiorów.

Podręcznik w oryginale:
Algebra Kubusia – Nowa Algebra Zbiorów

W pracach nad podręcznikiem nowej matematyki bezcennej pomocy udzielili Kubusiowi przyjaciele:
Barah (sfinia), Barycki (śfinia), Emde (sfinia), Fizyk (ateista.pl), Gavrila_Ardalionovitch (ateista.pl), HeHe (ateista.pl), Idiota (ateista.pl), Incognito (ateista.pl), Irbisol (sfinia), Jeremiasz Szary (sfinia), Krowa (śfinia), Krystkon (śfinia), Makaron czterojajeczny (sfinia), Macjan (sfinia), Marcin Kotasiński (śfinia), Michał Dyszyński (śfinia), Miki (sfinia), NoBody (ateista.pl), Paloma (ateista.pl), Quebaab (ateista.pl), Rafał3006 (sfinia), Rexerex (ateista.pl), Rogal (matematyka.pl), Sogors (ateista.pl), Słupek (ateista.pl), tomektomek (ateista.pl), Uczy (wolny), Volrath (sfinia), Windziarz (ateista.pl), WujZbój (sfinia), Wyobraźnia (ateista.pl), zbigniewmiller (sfinia) i inni

Szczególne podziękowania dla:
Wuja Zbója – znakomitego nauczyciela małego Kubusia, dzięki któremu Kubuś nauczył się poprawnie patrzeć na algebrę Boole’a od strony matematycznej.
Volratha – za decydującą o wszystkim dyskusję
Macajna – za ciekawą dyskusję podczas której jako jedyny Ziemianin podał poprawną, matematyczną definicję warunku wystarczającego.
Fizyka, Windziarza i Sogorsa – za fantastyczną dyskusję na ateiście.pl
Idioty – dzięki któremu Kubuś zapisał ŚFIŃSKIE definicje implikacji i rownoważności
Incognito – za podsunięcie pomysłu zapisania całej algebry Kubusia w zbiorach
Palomy i Quebaaba – za finałową dyskusję


Wstęp:

Pięć lat temu Kubuś, przybysz z innego Wszechświata zauważył na forum śfinia Wuja Zbója, iż ziemscy matematycy, eksperci Klasycznego Rachunku Zdań, robią z człowieka idiotę każąc mu uznawać za prawdziwe zdania typu:
Jeśli kura jest psem to człowiek ma dwie nogi
KP=>2N
Najśmieszniejszy dowód prawdziwości tego zdania z jakim Kubuś się spotkał jest taki.
Udowodnij że to zdanie jest fałszywe w innym Wszechświecie!
… a widzisz ?
Nie potrafisz, dlatego to zdanie jest prawdziwe.

W tym momencie dla Kubusia stało się jasne, że Klasyczny Rachunek Zdań to matematyka Szatana, którego wkrótce zlokalizował w postaci definicji „implikacji materialnej”. „Implikacja materialna”, to stara znajoma Kubusia którą ściga od nieskończoności po wszystkich możliwych Wszechświatach.

Wojna Kubusia z Klasycznym Rachunkiem Zdań trwała pięć lat zanim ta bestia, „implikacja materialna”, zgodziła się w ciągu kilku lat opuścić nasz Wszechświat – głupota jest nieśmiertelna.

Każdy człowiek, od 5-cio latka po profesora, doskonale zna algebrę Kubusia i posługuje się nią na co dzień w naturalnym języku mówionym.

Definicja algebry Kubusia:
Algebra Kubusia = Algebra zbiorów => Definicje spójników logicznych => Definicje operatorów logicznych => Algebra bramek logicznych
Definicje spójników logicznych => Algebra naturalnego języka mówionego => Logika człowieka

Fundamentem algebry Kubusia jest teoria zbiorów i wynikające z niej definicje spójników logicznych i operatorów. Algebra naturalnego języka mówionego to zaledwie pięć spójników logicznych, będących fundamentem najważniejszych operatorów logicznych.
Algebra Kubusia jest w 100% zgodna z teorią i praktyką bramek logicznych, jest więc weryfikowalna doświadczalnie!

Nowa algebra zbiorów to fundamentalnie inna interpretacja diagramów logicznych Venna, niż obowiązująca we współczesnej matematyce. Dzisiejsza teoria zbiorów, [link widoczny dla zalogowanych], jest błędna matematycznie co zostanie udowodnione w tym podręczniku.


Spis treści:

Część I
Algebra Kubusia – Nowa Algebra Zbiorów


1.0 Kompendium algebry Kubusia
1.1 Podstawowe definicje teorii zbiorów w algebrze Kubusia
1.2 Definicje operatorów logicznych w algebrze Kubusia
1.3 ŚFIŃSKIE definicje implikacji i równoważności
1.4 Gimnazjalne definicje implikacji i równoważności

2.0 Operatory OR i AND w zbiorach
2.1 Definicja spójnika „i”(*) w zbiorach
2.2 Definicja spójnika „lub”(+) w zbiorach
2.3 Definicja operatora OR
2.4 Definicja operatora AND
2.5 Równanie ogólne dla operatorów OR i AND

3.0 Zdanie zawsze prawdziwe

4.0 Operatory implikacji prostej i odwrotnej w zbiorach
4.1 Definicja operatora implikacji prostej
4.2 Definicja operatora implikacji odwrotnej
4.3 Równanie ogólne dla operatorów implikacji

5.0 Równoważność
6.0 ŚFIŃSKIE definicje implikacji i równoważności
6.1 Gimnazjalne definicje implikacji i równoważności

7.0 Zdania twierdzące
7.1 Implikacja prosta a zdania twierdzące
7.2 Implikacja odwrotna a zdania twierdzące
7.3 Równoważność a zdania twierdzące

8.0 Implikacje nietypowe

9.0 Algebra Kubusia w równaniach logicznych
9.1 Prawa wynikające z definicji operatora AND
9.2 Prawa wynikające z definicji operatora OR
9.3 Najważniejsze prawa algebry Kubusia
9.4 Metody upraszczania równań algebry Kubusia
9.5 Tworzenie równań algebry Kubusia z tabel zero-jedynkowych

10.0 Aksjomatyczne definicje operatorów logicznych
10.1 Abstrakcyjny model operatora logicznego
10.2 Operatory logiczne ~~> i N(~~>)
10.3 Operatory transmisji P i Q
10.4 operatory negacji NP i NQ
10.5 Operator implikacji prostej zdefiniowany spójnikiem “I”(*)

Część II
Algebra Kubusia w służbie lingwistyki


11.0 Operatory OR i AND w świecie zdeterminowanym
11.1 Operatory implikacji w świecie zdeterminowanym

12.0 Podstawowe analizy implikacji prostej i odwrotnej
12.1 Złożona implikacja prosta w świecie zdeterminowanym
12.2 Złożona implikacja odwrotna w świecie zdeterminowanym

13.0 Obietnice i groźby
13.1 Obietnica
13.2 Groźba
13.3 Analiza złożonej obietnicy
13.4 Analiza złożonej groźby
13.5 Obietnice i groźby w ujęciu filozoficznym
13.6 Rodzaje obietnic

14.0 Obietnice i groźby w równaniach matematycznych
14.1 Obietnica w równaniach matematycznych
14.2 Groźba w równaniach matematycznych


Część I
Algebra Kubusia – Nowa Algebra Zbiorów


1.0 Kompendium algebry Kubusia

Notacja
1 – prawda, zawsze i wszędzie, niezależna od logiki dodatniej i ujemnej
0 – fałsz, zawsze i wszędzie, niezależny od logiki dodatniej i ujemnej
~ - symbol przeczenia NIE
Prawo podwójnego przeczenia:
p=~(~p)

Przykład 1:
Jestem uczciwy = Nieprawdą jest ~(…), że jestem nieuczciwy
U = ~(~U)

Przykład 2.
1 – prawda, zawsze i wszędzie, niezależna od logiki dodatniej i ujemnej
Pies ma cztery łapy
P=>4L=1
p=>q
Zdanie prawdziwe w logice dodatniej bo q niezanegowane (q)

Pies nie ma trzech łap
P=>~3L=1
p=>~q
Pies to nie samochód
P=>~S =1
p=>~q
Zdania prawdziwe w logice ujemnej bo q zanegowane (~q)


Spójniki logiczne
W całej matematyce mamy zaledwie pięć spójników logicznych.
Operatory OR i AND:
* - spójnik „i” w mowie potocznej
+ - spójnik „lub” w mowie potocznej
Operatory implikacji i równoważności:
=> - warunek wystarczający, spójnik „musi” w całym obszarze matematyki
~> - warunek konieczny, spójnik „może” w implikacji (nie w równoważności !)
~~> - naturalny spójnik „może” wystarczy pokazać jeden przypadek prawdziwy

Zdanie w algebrze Kubusia
W algebrze Kubusia zdanie to poprawne lingwistycznie zdanie sensowne.
Zdanie musi mieć sens w danym języku.

Zdanie warunkowe:
Jeśli p to q
gdzie:
p – poprzednik
q – następnik
W algebrze Kubusia w zdaniu „Jeśli p to q” poprzednik musi być powiązany z następnikiem warunkiem wystarczającym lub koniecznym albo naturalnym spójnikiem „może” ~~>, wystarczy jedna prawda. Wszelkie sensowne zdania „Jeśli…to…” w naturalnym języku mówionym spełniają ten warunek. Absolutnie nikt, począwszy od 5-cio latka po profesora nie wymawia zdań „Jeśli…to…” w których p i q są ze sobą bez związku lub mają z góry znane wartości logiczne.

Wyjątkiem są tu zdania w logice ujemnej:
Pies to nie kot
P=>~K=1
Pies to nie samochód
P=>~S=1
Oczywiście zdania prawdziwe, tyle że w praktyce pojawiające się wyłącznie w czasie nauki języka 2-latka, albo w dowcipach.


1.1 Podstawowe definicje teorii zbiorów w algebrze Kubusia

Pojęcie zbioru jako zbioru przypadkowych elementów jest matematycznie bez sensu.

Jednorodność zbioru:
Zbiór musi być jednorodny w określonej dziedzinie

Oznacza to, że nie wolno do jednego zbioru wkładać psa, krzesła, samochodu, wąsów dziadka itp

Implikacja:
p=>q
Jeśli p to q
p – poprzednik
q - następnik

Równoważność
p<=>q
p wtedy i tylko wtedy gdy q

Definicja dziedziny:
Dziedzina to kompletny zbiór na którym operuje implikacja lub równoważność

W algebrze Kubusia musi być spełnione:
p+~p=1 – zbiór ~p jest dopełnieniem do dziedziny zbioru p
p*~p=0 – żaden element zbioru ~p nie należy do zbioru p
q+~q=1 – zbiór ~q jest dopełnieniem do dziedziny zbioru q
q*~q=0 - żaden element zbioru ~q nie należy do zbioru q

Przykład:
Jeśli zwierzę jest psem to na pewno => ma cztery łapy
P=>4L

Dziedzina po stronie p:
P + ~P=1
P*~P=0
P – zbiór wszystkich psów
~P – zbiór pozostałych zwierząt
Dziedzina: zbiór wszystkich zwierząt

Dziedzina po stronie q:
4L+~4L=1
4L*~4L=0
4L – zbiór zwierząt mających 4 łapy
~4L – zbiór zwierząt nie mających 4 łap
Dziedzina: zbiór wszystkich zwierząt

Doskonale widać, że wszystkie powyższe zbiory operują w tej samej dziedzinie.

Zbiór bieżący (aktualny):
Zbiór bieżący (aktualny) to zbiór na którym aktualnie pracujemy, zdefiniowany szczegółowo w poprzedniku zdania „Jeśli p to q”

Uwaga:
W zdaniach najczęściej wypowiadanych oba zbiory p i q muszą należeć do tej samej dziedziny jak to pokazano na przykładzie wyżej.

W ogólnym przypadku nie jest to wymagane, prawdziwe są takie implikacje:
Jeśli zwierzę jest psem to na pewno => nie jest kotem
P=>~K=1
Jeśli zwierzę jest psem to na pewno => nie jest samochodem
P=>~S=1

Oczywiście takich zdań ludzie normalni nie wymawiają, chyba że w czasie nauki języka 2-latka, albo w dowcipach.

Operacje na zbiorach dla potrzeb algebry Kubusia:

1.
Zbiory tożsame = identyczne
TR = zbiór trójkątów równobocznych
KR = zbiór trójkątów o równych kątach
Oczywiście zachodzi tożsamość:
Zbiór trójkątów równobocznych = Zbiór trójkątów o równych kątach
Zbiór TR = Zbiór KR

2.
Iloczyn zbiorów = wspólna cześć zbiorów bez powtórzeń (operacja AND)
Y=A*B
A=[1,2], B=[1,2,3,4]
Y=A*B=[1,2]

3.
Suma logiczna zbiorów = wszystkie elementy zbiorów bez powtórzeń (operacja OR)
Y=A+B
A=[1,2], B=[1,2,3,4]
Y=A+B = [1,2,3,4]

4.
Różnica zbiorów A-B = elementy zbioru A pomniejszone o cześć wspólna zbiorów A i B
Y=A-B
A=[1,2,3,4], B=[1,2]
Y=A-B = [3,4]
Y=B-A = 0 – zbiór pusty !

5.
Zbiór pusty
= brak wspólnej części zbiorów w operacji AND, albo różnica zbiorów pusta jak wyżej
Y=A*B=0
A=[1,2], B=[3,4]
Y=A*B =0 – brak części wspólnej, zbiór pusty !


1.2 Definicje operatorów logicznych w algebrze Kubusia

Definicja spójnika „lub”(+)
Suma logiczna (spójnik „i”) jest równa 1 wtedy i tylko wtedy gdy którakolwiek zmienna jest równa 1
Y=p+q
Y=1 <=> p=1 lub q=1
gdzie:
+ - spójnik „lub” (nie operator OR!)

Definicja spójnika „i”(*):
Iloczyn logiczny (spójnik „i”) jest równy 1 wtedy i tylko wtedy gdy wszystkie zmienne są równe 1
Y=p*q
Y=1 <=> p=1 i q=1
gdzie:
* - spójnik „i” (nie operator AND! )

Uwaga:
W algebrze Kubusia nie ma wyróżnionego znaczka dla dowolnego operatora (w tym OR i AND), bowiem nie jest możliwe aby w zdaniu wypowiedzianym występował jakikolwiek operator. W zdaniu wypowiedzianym zawsze mamy do czynienia ze spójnikiem, nigdy z operatorem.

Symboliczna definicja operatora OR:
Kod:

A.
Y=p+q
Y – dotrzymam słowa
Logika dodatnia bo Y
Y=p*q+p*~q+~p*q
 p* q=Y
 p*~q=Y
~p* q=Y
… a kiedy skłamię ?
Przejście ze zdaniem A do logiki ujemnej
B.
~Y=~p*~q
~Y – skłamię
Logika ujemna bo ~Y
~p*~q=~Y

Gdzie:
+ - spójnik „lub” (nigdy operator OR)
* - spójnik „i” (nigdy operator AND)

Związek logiki dodatniej i ujemnej:
Y=~(~Y) – prawo podwójnego przeczenia
Podstawiając A i B mamy prawo de’Morgana:
p+q = ~(~p*~q)

Przykład:
A.
Jutro pójdę do kina lub do teatru
Y=K+T
… a kiedy skłamię ?
Przejście do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów na przeciwne:
~Y = ~K*~T
B.
Skłamię (~Y) wtedy i tylko wtedy gdy jutro nie pójdę do kina (~K) i nie pójdę do teatru (~T)
~Y=~K*~T
Zdanie równoważne do A wynikające z prawa de’Morgana:
C.
Nie może się zdarzyć ~(…), że jutro nie pójdę do kina i nie pójdę do teatru
K+T = ~(~K*~T)

Symboliczna definicja operatora AND:
Kod:

A.
Y=p*q
Y – dotrzymam słowa
Logika dodatnia bo Y
 p* q= Y
… a kiedy skłamię ?
Przejście ze zdaniem A do logiki ujemnej
B.
~Y=~p+~q
~Y – skłamię
Logika ujemna bo ~Y
~Y=~p*~q + ~p*q + p*~q
~p*~q=~Y
~p* q=~Y
 p*~q=~Y

Gdzie:
* - spójnik „i” (nigdy operator AND)
+ - spójnik „lub” (nigdy operator OR)

Związek logiki dodatniej i ujemnej:
Y=~(~Y) – prawo podwójnego przeczenia
Podstawiając A i B mamy prawo de’Morgana:
p*q = ~(~p+~q)

Przykład:
A.
Jutro pójdę do kina i do teatru
Y=K*T
… a kiedy skłamię ?
Przejście do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów na przeciwne:
~Y = ~K+~T
B.
Skłamię (~Y) wtedy i tylko wtedy gdy jutro nie pójdę do kina (~K) lub nie pójdę do teatru (~T)
~Y = ~K+~T
Zdanie równoważne do A wynikające z prawa de’Morgana:
C.
Nie może się zdarzyć ~(…), że jutro nie pójdę do kina lub nie pójdę do teatru
K*T = ~(~K+~T)
Zauważmy, że w naturalnym języku mówionym z prawa przejścia do logiki przeciwnej korzystamy non-stop (najczęściej domyślnie), natomiast z praw de’Morgana praktycznie nigdy, bowiem mając do wyboru dwa równoważne zdania A i C każdy normalny wybierze A.

Definicja symboliczna warunku wystarczającego w logice dodatniej (bo q).
Kod:

p=> q=1
p=>~q=0

p=>q
Jeśli zajdzie p to na pewno => zajdzie q
gdzie:
=> - warunek wystarczający o definicji jak wyżej

Przykłady:
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1
P8=>~P2=0
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR=1
TR=>~KR=0

Symboliczna definicja implikacji prostej:
Kod:

Warunek wystarczający w logice dodatniej (bo q)
A: p=>q=1
B: p=>~q=0
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p=>q = ~p~>~q
Warunek konieczny w logice ujemnej (bo ~q)
C: ~p~>~q=1
D: ~p~~>q=1

p=>q
Jeśli zajdzie p to na pewno => zajdzie q
Z czego wynika że druga linia musi być twardym fałszem
Z czego wynika że p musi być wystarczające dla q
Gdzie:
=> - warunek wystarczający
~> - warunek konieczny
~~> - naturalny spójnik „może”, wystarczy pokazać jeden przypadek prawdziwy

Definicja warunku koniecznego wynika z prawa Kubusia:
~p~>~q = p=>q
Warunek konieczny ~> miedzy p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika => zanegowany następnik.

Przykład:
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2 =1
Badamy warunek konieczny ~>:
jeśli liczba nie jest podzielna przez 8 to może ~> nie być podzielna przez 2
~P8~>~P2 =1 bo 3
~P8~>~P2 = P8=>P2=1
Prawa strona jest prawdą zatem w zdaniu ~P8~>~P2 zachodzi warunek konieczny.

Definicja symboliczna warunku wystarczającego w logice ujemnej (bo ~q):
Kod:

~p=>~q=1
~p=>q=0

~p=>~q
Jeśli zajdzie ~p to na pewno => zajdzie ~q
gdzie:
=> - warunek wystarczający o definicji jak wyżej

Przykłady:
Jeśli liczba nie jest podzielna przez 2 to na pewno nie jest podzielna przez 8
~P2=>~P8 =1
~P8=>P8=0
Jeśli trójkąt nie jest równoboczny to na pewno => nie ma kątów równych
~TR=>~KR=1
~TR=>TR=0

Symboliczna definicja implikacji odwrotnej:
Kod:

Warunek konieczny w logice dodatniej (bo q)
A: p~>q=1
B: p~~>~q=1
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p~>q = ~p=>~q
Warunek wystarczający w logice ujemnej (bo ~q)
C: ~p=>~q=1
D: ~p=>q=0

p~>q
Jeśli zajdzie p to „może” ~> zajść q
bo druga linia p~~>~q też ma prawo wystąpić
Gdzie:
~> - warunek konieczny
=> - warunek wystarczający
~~> - naturalny spójnik „może”, wystarczy pokazać jeden przypadek prawdziwy

Definicja warunku koniecznego wynika z prawa Kubusia:
p~>q = ~p=>~q
Warunek konieczny ~> miedzy p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika => zanegowany następnik.

Przykład:
jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8=1 bo 8
Badamy warunek konieczny:
Jeśli liczba nie jest podzielna przez 2 to na pewno => nie jest podzielna przez 8
~P2=>~P8=1
P2~>P8 = ~P2=>~P8 =1
Prawa strona jest prawdą zatem w zdaniu P2~>P8 zachodzi warunek konieczny.

Definicja symboliczna równoważności:
Kod:

p<=>q = (p=>q)*(~p=>~q)
Warunek wystarczający w logice dodatniej (bo q)
A: p=>q=1
B: p=>~q=0
… a jeśli zajdzie ~p ?
Warunek wystarczający w logice ujemnej (bo ~q)
C: ~p=>~q=1
D: ~p=>q=0

Warunek wystarczający w logice dodatniej (bo q)
p=>q
Jeśli zajdzie p to na pewno => zajdzie q
Z czego wynika że linia B musi być twardym fałszem

Przykład:
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR=1
TR=>~KR=0

Warunek wystarczający w logice ujemnej (bo ~q)
~p=>~q
Jeśli zajdzie ~p to na pewno => zajdzie ~q
Z czego wynika że linia D musi być twardym fałszem

Przykład:
Jeśli trójkąt nie jest równoboczny to na pewno => nie ma kątów równych
~TR=>~KR=1
~TR=>KR=0

Definicja równoważności w równaniu algebry Kubusia:
p<=>q = (p=>q)*(~p=>~q)
Równoważność to iloczyn logiczny warunku wystarczającego w logice dodatniej (bo q) z warunkiem wystarczającym w logice ujemnej (bo ~q)

Nasz przykład:
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(~TR=>~KR)
gdzie:
=> - tylko i wyłącznie warunek wystarczający o definicji jak wyżej (to nie jest implikacja! )


1.3 ŚFIŃSKIE definicje implikacji i równoważności

Definicja warunku koniecznego w algebrze Kubusia:
~p~>~q = p=>q – I prawo Kubusia, definicja implikacji prostej
p~>q = ~p=>~q – II prawo Kubusia, definicja implikacji odwrotnej
Warunek konieczny ~> miedzy p i q zachodzi wtedy i tylko wtedy, gdy z zanegowanego poprzednika wynika => zanegowany następnik.

Z definicji tej wynika, że cała logikę w zakresie rozstrzygania o prawdziwości implikacji i równoważności możemy sprowadzić do łatwych w analizie matematycznej warunków wystarczających. Bezpośrednio z tej definicji wynikają ŚIŃSKIE definicje implikacji i równoważności, najłatwiejsze w codziennym użytkowaniu.

ŚFIŃSKA definicja implikacji prostej:
Zdanie „Jeśli p to q” jest implikacją prostą wtedy i tylko wtedy gdy między p i q zachodzi wyłącznie warunek wystarczający =>.
p=>q=1
p~>q=0
Definicja warunku koniecznego ~>:
p~>q = ~p=>~q =0
Badamy czy: ~p=>~q=0

Przykład:
jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1 – warunek wystarczający spełniony
Badamy warunek konieczny:
P8~>P2 = ~P8=>~P2=0 bo 3
stąd:
P8~>P2=0 – warunek konieczny niespełniony
Wniosek:
Zdanie P8=>P2 spełnia ŚFIŃSkĄ definicje implikacji prostej

ŚFIŃSKA definicja implikacji odwrotnej:
Zdanie „Jeśli p to q” jest implikacją odwrotną wtedy i tylko wtedy gdy między p i q zachodzi wyłącznie warunek konieczny ~>.
p~>q=1
p=>q=0
Definicja warunku koniecznego ~>:
p~>q = ~p=>~q =1
Badamy czy: ~p=>~q=1

Przykład:
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8=1 bo 8
Badamy warunek konieczny:
P2~>P8 = ~P2=>~P8=1
stąd:
P2~>P8=1 – warunek konieczny spełniony
P2=>P8=0 bo 2 – warunek wystarczający nie zachodzi
Wniosek:
Zdanie P2~>P8 spełnia ŚFIŃSKĄ definicję implikacji odwrotnej

ŚFIŃSKA definicja równoważności:
Zdanie „Jeśli p to q” jest równoważnością wtedy i tylko wtedy gdy miedzy p i q zachodzą jednocześnie warunki wystarczający i konieczny
p=>q=1
p~>q=1
Definicja warunku koniecznego ~>:
p~>q = ~p=>~q =1
Badamy czy: ~p=>~q=1

Definicja równoważności:
p<=>q = (p=>q)*(p~>q) = 1*1 =1
gdzie:
<=> - wtedy i tylko wtedy
=> - warunek wystarczający, spójnik „musi” => między p i q (identyczny jak w implikacji)
~> - warunek konieczny, w równoważności nie jest to spójnik „może” (rzucanie monetą) znany z implikacji !

Na mocy definicji warunku koniecznego ~> zapisujemy:
p<=>q = = (p=>q)*(p~>q) = (p=>q)*(~p=>~q)
bo:
p~>q = ~p=>~q – definicja warunku koniecznego

Zauważmy, że de facto w równoważności badamy zachodzenie warunku wystarczającego w logice dodatniej (bo q):
p=>q=1
oraz warunku wystarczającego w logice ujemnej (bo ~q):
~p=>~q=1
Precyzyjnie:
=> - warunek wystarczający , identyczny w implikacji i równoważności
Mniej precyzyjnie ale również dobrze:
=> - symbol równoważności w zdaniu „Jeśli p to q” o ile spełnia powyższą definicję

Uwaga:
W równoważności, i tylko tu, poprawne jest prawo kontrapozycji w tej postaci:
~p=>~q = q=>p
Stąd definicja równoważności uwielbiana przez matematyków:
p<=>q = (p=>q)*(q=>p)
gdzie:
=> - warunek wystarczający (nigdy implikacja! )

Po udowodnieniu warunku wystarczającego w kierunku p=>q, możemy zatem badać warunek wystarczający w kierunku q=>p.

Przykład:
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR

TR=>KR=1 – warunek wystarczający => spełniony
TR~>KR=~TR=>~KR=1 – warunek konieczny ~> spełniony
Wniosek:
Zdanie TR=>KR spełnia ŚFIŃSKĄ definicję równoważności

Oczywiście dopiero po udowodnieniu tego faktu możemy powiedzieć:
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(~TR=>~KR)

ŚFIŃSKA definicja naturalnego spójnika „może” ~~>
Zdanie jest prawdziwe na mocy naturalnego spójnika „może” ~~> jeśli znajdziemy przynajmniej jeden przypadek prawdziwy, wystarczy sama możliwość.

Przykład:
Jeśli liczba jest podzielna przez 8 to może być podzielna przez 2
P8~~>P2=1 bo 8
CND


1.4 Gimnazjalne definicje implikacji i równoważności

Definicje gimnazjalne:
Implikacja to wynikanie => w jedną stronę
Równoważność to wynikanie => w dwie strony
czyli:
Implikacja to warunek wystarczający => zachodzący w jedną stronę
Jeśli p=>q=1 to q=>p=0 albo odwrotnie
Równoważność to warunek wystarczający => zachodzący w dwie strony
p<=>q = (p=>q)*(q=>P) = 1*1=1

Przykład implikacji:
Warunek wystarczajacy:
Jeśli liczba jest podzielna przez 8 to na pewno jest podzielna przez 2
P8=>P2=1
P8=>~P2=0 bo 2
Warunek wystarczający po zamianie p i q:
Jeśli liczba jest podzielna przez 2 to na pewno => jest podzielna przez 8
P2=>P8=0 bo 2
Wniosek:
Zdanie P8=>P2 jest implikacją prostą
Zdanie P8=>P2 nie jest równoważnością bo:
P8<=>P2 = (P8=>P2)*(P2=>P8) = 1*0 =0

Przykład równoważności:
Warunek wystarczający:
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR=1
TR=>~KR=0
Warunek wystarczający po zamianie p i q:
Jeśli trójkąt ma kąty równe to na pewno => jest równoboczny
KR=>TR=1
KR=>~TR=0
Wniosek:
Zdanie TR=>KR jest równoważnością bo zachodzi wynikanie w dwie strony:
TR=>KR=1
KR=>TR=1

Oczywiście zdanie to możemy wypowiedzieć w formie równoważności, ale dopiero po udowodnieniu tego faktu jak wyżej!
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(KR=>TR) = 1*1=1

Twierdzenie:
Jeśli cokolwiek jest równoważnością prawdziwą to nie ma prawa być implikacją prawdziwą i odwrotnie

Dowód:
Definicje zero-jedynkowe implikacji i równoważności.

Definicja zero-jedynkowa implikacji:
Kod:

p q p=>q
1 1 =1   /p=>q=1
1 0 =0   /p=>~q=0
0 0 =1   /~p~>~q=1
0 1 =1   /~p~~>q=1

Tabela zero-jedynkowa powstaje z definicji symbolicznej (komentarz) dla kodowania zgodnego ze zdaniem wypowiedzianym p=>q:
p=1, ~p=0
q=1. ~q=0

Definicja zero-jedynkowa równoważności:
Kod:

p q p<=>q
1 1 =1   /p=>q=1
1 0 =0   /p=>~q=0
0 0 =1   /~p=>~q=1
0 1 =0   /~p=>q=0

Tabela zero-jedynkowa powstaje z definicji symbolicznej (komentarz) dla kodowania zgodnego ze zdaniem wypowiedzianym p<=>q:
p=1, ~p=0
q=1. ~q=0


2.0 Operatory OR i AND w zbiorach

Cała filozofia operatorów OR i AND to zaledwie dwa spójniki logiczne z naturalnego języka mówionego „i”(*) oraz „lub”(+) plus prawo przejścia do logiki przeciwnej !

Zmienna binarna:
Zmienna binarna to zmienna mogąca przyjmować w osi czasu wyłącznie dwie wartości 1 albo 0

Przykłady zmiennych binarnych:
p, q, A, B, 4L, PIES, …

Funkcja logiczna:
Funkcja logiczna to funkcja n-zmiennych binarnych połączonych spójnikami „i”(*) oraz „lub”(+).
Y=p*q + p*~q + ~p*q - funkcja logiczna wielu zmiennych
Y=~p - funkcja logiczna jednej zmiennej

Zwyczajowo funkcję logiczną oznaczamy literą Y, ale nie ma tu żadnego dogmatu.

Definicja spójnika „i” (*):
Iloczyn logiczny (spójnik „i”) n-zmiennych binarnych jest równy 1 wtedy i tylko wtedy gdy wszystkie zmienne są równe 1
Y=p*q
gdzie:
* - spójnik „i” (nie operator AND! )
Co matematycznie oznacza:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy zajdzie p (p=1) i zajdzie q (q=1)
Y=1 <=> p=1 i q=1

Definicja spójnika „lub” (+):
Suma logiczna n-zmiennych binarnych jest równa 1 wtedy i tylko wtedy gdy którakolwiek zmienna jest równa 1.
Y=p+q
gdzie:
+ - spójnik „lub” (nie operator OR!)
Matematycznie oznacza to:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy zajdzie p (p=1) lub zajdzie q (q=1)
Y=1 <=> p=1 lub q=1
gdzie:
p, q – binarne zmienne wejściowe
Y – funkcja logiczna, wyjście cyfrowe

Wystarczy że dowolna ze zmiennych p lub q przybierze wartość 1 i już funkcja Y=1, stan pozostałych zmiennych jest nieistotny.

Uwaga:
W algebrze Kubusia nie ma wyróżnionego znaczka dla dowolnego operatora (w tym OR i AND), bowiem nie jest możliwe aby w zdaniu wypowiedzianym występował jakikolwiek operator. W zdaniu wypowiedzianym zawsze mamy do czynienia ze spójnikiem, nigdy z operatorem.
Definicje operatorów za chwilę.
Matematycznie:
Spójnik logiczny # Operator logiczny

Prawo przejścia do logiki przeciwnej:
Negujemy zmienne i wymieniamy operatory na przeciwne

Przykład:
Dana jest funkcja logiczna
A.
Y=p+q
Przejście do logiki przeciwnej:
B.
~Y=~p*~q

Związek logiki dodatniej i ujemnej:
Y=~(~Y) – prawo podwójnego przeczenia
Podstawiając A i B mamy prawo de’Morgana:
p+q = ~(~p*~q)

Definicja logiki dodatniej i ujemnej w operatorach OR i AND:
Funkcja logiczna Y zapisana jest w logice dodatniej gdy brak przeczenia (Y), w logice ujemnej gdy jest przeczenie (~Y).
gdzie:
Y=1 – dotrzymam słowa, prawdą jest (=1) że wstąpi prawda (Y)
~Y=1 – skłamię, prawdą jest (=1), że wystąpi fałsz (~Y)
Zauważmy że tu nie może być 0 bo mielibyśmy:
~Y=0 – fałszem jest (=0), że wystąpi fałsz (~Y), czyli wystąpi prawda
~Y=0 – oznacza prawdę w logice ujemnej


2.1 Definicja spójnika „i”(*) w zbiorach



Definicja spójnika „i”(*) w zbiorach w logice dodatniej (bo Y):
Y=p*q
Y=1 <=> p=1 i q=1
Co matematycznie oznacza:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy zajdzie p (p=1) i zajdzie q (q=1)

Definicja zero-jedynkowa spójnika „i”(*)
Kod:

p q Y=p*q
1 1 =1   /p*q=Y


Przykład:
A.
Jutro pójdę do kina i do teatru
Y=K*T
co matematycznie oznacza:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdę do kina (K=1) i do teatru (T=1)
Y=K*T
Y=1 <=> K=1 i T=1

Koniec !
O niczym innym zdanie A nie mówi.


2.2 Definicja spójnika „lub”(+) w zbiorach



Na podstawie powyższego diagramu mamy dwie równoważne definicje spójnika “lub”(+) w logice dodatniej (bo Y).
A.
Y=p+q
B
Y= p*q + p*~q + ~p*q
Oczywiście:
Y=Y
stąd definicja równoważna spójnika „lub”
C.
Y=p+q = p*q + p*~q + ~p*q

Doskonale widać poprawność powyższej tożsamości w zbiorach.
Oczywiście wszystkie te zbiory realnie istnieją czyli ich wartość logiczna wynosi 1=prawda.

Stąd matematycznie powyższe równanie możemy rozpisać jako:
D.
Y=1 <=> (p=1 lub q=1) = (p=1 i q=1) lub (p=1 i ~q=1) lub (~p=1 i q=1)

Definicję zero-jedynkową spójnika „lub” otrzymujemy kodując zdanie B w odniesieniu do zdania wypowiedzianego A.

Na mocy definicji spójnika „lub” możemy symbolicznie zapisać:
Y=p+q = p*q + p*~q + ~p*q
Co matematycznie oznacza:
p*q=Y – dotrzymam słowa (Y=1) jeśli zajdzie p=1 i q=1
lub
p*~q=Y – dotrzymam słowa (Y=1) jeśli zajdzie p=1 i ~q=1
lub
~p*q=Y – dotrzymam słowa (Y=1) jeśli zajdzie ~p=1 i q=1

Stąd definicja symboliczna spójnika „lub”:
Kod:

Definicja symboliczna spójnika „lub”
Y – dotrzymam słowa
Y=p+q =p*q + p*~q + ~p*q
 p* q =Y
 p*~q =Y
~p* q =Y

Tabelę zero-jedynkową spójnika „lub”(+) otrzymamy kodując całość w odniesieniu do zdania wypowiedzianego:
Y=p+q
stąd:
Y=1, ~Y=0
p=1, ~p=0
q=1, ~q=0
Definicja zero-jedynkowa spójnika „lub”:
Kod:

Definicja zero-jedynkowa spójnika „lub”
Y – dotrzymam słowa
Y=p+q =p*q + p*~q + ~p*q
p q Y=p+q
1 1 =1    / p* q =Y
1 0 =1    / p*~q =Y
0 1 =1    /~p* q =Y

Wnioski:
1.
Jedynki i zera po stronie p i q oznaczają brak przeczenia (=1) i przeczenie (=0) względem przyjętego punktu odniesienia (zdania wypowiedzianego), innymi słowy oznaczają prawdę (=1) i fałsz (=0) względem zdania wypowiedzianego, nie są to prawdy i fałsze bezwzględne.
2.
Z powyższego wynika, że w definicji symbolicznej spójnika „lub” (komentarz) mamy wszystkie zmienne sprowadzone do jedynek, czyli do teorii zbiorów.
3.
Dla nieskończonej ilości losowań w wyniku dostaniemy same jedynki (Y=1), wszystkie przypadki są możliwe. Dla konkretnego losowania tylko jedno z powyższych zdań będzie prawdziwe (Y=1), pozostałe będą fałszywe (Y=0).

Przykładowo, jeśli założymy że zaszło p*q czyli:
p=1 i q=1
stąd:
~p=0, ~q=0
to tabela zero-jedynkowa dla tego przypadku (w świecie zdeterminowanym) będzie taka:
Kod:

Y – dotrzymam słowa
Y=p+q =p*q + p*~q + ~p*q
p q Y=p+q
1 1 =1  / p* q=Y – wynik 1 bo p=1 i q=1
1 0 =0  / p*~q=Y – wynik 0 bo p=1 i ~q=0
0 1 =0  /~p* q=Y – wynik 0 bo ~p=0 i q=1

Definicja spójnika „i”(*):
Iloczyn logiczny (spójnik „i”) jest równy 1 wtedy i tylko wtedy gdy wszystkie zmienne są równe 1
Stąd:
Tylko pierwsze zdanie jest prawdziwe bo p=1 i q=1.

Definicja świata zdeterminowanego:
Świat zdeterminowany to świat w którym wartości logiczne zmiennych są znane z góry.

Definicja miękkiej i twardej prawdy w logice:
Miękka prawda, może zajść ale nie musi, przykładem jest tu spójnik „lub”
Twarda prawda, tylko jedno zdanie może być prawdziwe, przykładem jest tu spójnik „i”

Twierdzenie:
W świecie zdeterminowanym, gdzie wartości logiczne zmiennych są znane, spójnik logiczny „lub”(+) ulega redukcji do spójnika „i”(*)

Dowód:
W przypadku spójnika „lub”(+) tylko i wyłącznie jedno zdanie może być prawdziwe spośród:
2^n-1
różnych zdań.
gdzie:
2^n – dwa do potęgi n
n – ilość zmiennych
Dla dwóch zmiennych mamy:
2^n-1 = 3
Co jest zgodne z przykładem wyżej.

Z powyższego wynika, że jedynki w spójniku „lub” wyrażają samą możliwość zajścia, że nie są to prawdy twarde, zachodzące zawsze, bez wyjątków.

Ciekawostka:
Czy wiesz drogi czytelniku dlaczego Pani Przedszkolanka koryguje trzylatków którzy mówią:
A.
Pies ma cztery łapy lub szczeka
P=>(4L+S)
żądając jedynie słusznej formy:
B.
Pies ma cztery łapy i szczeka
P=>4L*S

Oczywiście nie wynika to z chciejstwa Pani Przedszkolanki, lecz z matematyki ścisłej, algebry Kubusia, pod którą wszyscy podlegamy.

Zdanie A jest matematycznie równoważne zdaniu:
Jeśli zwierzę jest psem to na pewno => ma cztery łapy lub szczeka
P=>(4L+S)

Rozpiszmy następnik zgodnie z definicją szczegółową spójnika ‘lub”:
C.
4L+S = 4L*S=1 + 4L*~S=0 + S*~4L=0

… i wszystko jasne, dwa ostatnie człony są fałszywe, zatem możemy je wywalić w kosmos.

Stąd po minimalizacji funkcji C otrzymujemy zdanie:
B.
Jeśli zwierze jest psem to na pewno => ma cztery łapy i szczeka
P=>4L*S

Zdanie równoważne w języku potocznym:
Pies ma cztery łapy i szczeka
P=>4L*S

Stąd znana każdemu poloniście reguła lingwistyczna:
Jeśli definiujemy cokolwiek to powinniśmy używać spójnika „i”.

Zastosowaniem algebry Kubusia w lingwistyce zajmiemy się w drugiej części podręcznika.

Przykład:
A.
Jutro pójdę do kina lub do teatru
Y=K+T
Co matematycznie oznacza:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdę do kina (K=1) lub do teatru (T=1)
Y=K+T
Y=1 <=> K=1 lub T=1
Na mocy definicji spójnika „lub” możemy symbolicznie zapisać:
Y=K+T = K*T + K*~T + ~K*T
Co matematycznie oznacza:
K*T =Y – dotrzymam słowa (Y=1) jeśli pójdę do kina (K=1) i do teatru (T=1)
lub
K*~T =Y – dotrzymam słowa (Y=1) jeśli pójdę do kina (K=1) i nie pójdę do teatru (~T=1)
lub
~K*T =Y – dotrzymam słowa (Y=1) jeśli nie pójdę do kina (~K=1) i pójdę do teatru (T=1)

Koniec, tylko tyle mówi zdanie wypowiedziane A !

Zdanie wypowiedziane A w tabeli zero-jedynkowej:
Kod:

Y – dotrzymam słowa
Y=K+T =K*T + K*~T + ~K*T
K T Y=K+T
1 1 =1  / K* T=Y
1 0 =1  / K*~T=Y
0 1 =1  /~K* T=Y

Doskonale widać tabele zero-jedynkową spójnika „lub” dla kodowania zgodnego ze zdaniem wypowiedzianym Y=K+T:
Y=1, ~Y=0
K=1, ~K=0
T=1, ~T=0
Zbiorem aktualnym na którym operuje to zdanie jest zbiór K+T.

Oczywiście w przyszłości wyłącznie jedno z powyższych zdań ma szansę być prawdziwym (Y=1) pozostałe będą fałszywe.

Załóżmy że zaszło:
~K*T=1 – nie byłem w kinie i byłem w teatrze

Na mocy definicji szczegółowej spójnika „lub”(+) mamy:
Y=K*T=0 + K*~T=0 + ~K*T=1
Zdania fałszywe (Y=0) pomijamy, stad po redukcji mamy:
Y=~K*T
co matematycznie oznacza:
Prawdą jest (Y=1), że wczoraj nie byłem w kinie (~K=1) i byłem w teatrze (T=1)
Y=~K*T
Y=1 <=> ~K=1 i T=1
Y=1 – dotrzymałem słowa
Jak widzimy w świecie zdeterminowanym (przeszłość) spójnik „lub”(+) ulega redukcji do spójnika „i”(+)


2.3 Definicja operatora OR

Operator OR to złożenie spójnika „lub”(+) w logice dodatniej (bo Y) ze spójnikiem „i”(*) w logice ujemnej (bo ~Y).



Definicja spójnika „lub”(+) w zbiorach w logice dodatniej (bo Y):
A.
Y=p+q
Y=1 <=> p=1 lub q=1
Definicja równoważna na podstawie powyższego diagramu:
A1.
Y=p*q + p*~q + ~p*q
Y=1 <=> (p=1 i q=1) lub (p=1 i ~q=1) lub (~p=1 i q=1)
stąd:
Y=p+q = p*q + p*~q + ~p*q



Definicja spójnika “I”(*) w zbiorach w logice ujemnej (bo ~Y)
B.
~Y=~p*~q

Zauważmy, że oba diagramy razem opisują zdanie Y=p+q w kompletnej dziedzinie.

Symboliczna definicja operatora OR:
Kod:

A.
Y=p+q
Y – dotrzymam slowa
Y=p*q+p*~q+~p*q
 p* q=Y
 p*~q=Y
~p* q=Y
… a kiedy skłamię ?
Przejście ze zdaniem A do logiki ujemnej
B.
~Y=~p*~q
~Y – skłamię
~p*~q=~Y

Związek logiki dodatniej i ujemnej:
Y=~(~Y) – prawo podwójnego przeczenia
Podstawiając A i B mamy prawo de’Morgana:
p+q = ~(~p*~q)

Możliwe są trzy równoważne kodowania zero-jedynkowe powyższej definicji symbolicznej.
Kod:

Punkt
odniesienia: Zbiory  Y=p+q         ~Y=~p*~q    Y=~(~p*~q)
                     Y=1,~Y=0      ~Y=1,Y=0
                     p=1,~p=0      ~p=1,p=0
                     q=1,~q=0      ~q=1,q=0
-------------------------------------------------
                     p q  Y        ~p~q ~Y     Y
A: Y=p+q
 p* q=Y      1*1=1   1 1 =1         0 0 =0    =1
 p*~q=Y      1*1=1   1 0 =1         0 1 =0    =1
~p* q=Y      1*1=1   0 1 =1         1 0 =0    =1
B:~Y=~p*~q
~p*~q=~Y     1*1=1   0 0 =0         1 1 =1    =0
                     Operator       Operator
                     zero-jedynkowy zero-jedynkowy
                     OR             AND

Podsumowanie:
1. Zbiory
W diagramach wyżej doskonale widać operacje logiczne na zbiorach. Wszystkie zbiory istnieją, żaden iloczyn logiczny nie jest zbiorem pustym, stąd same jedynki w wynikach.
2. Y=p+q
Dla punktu odniesienia ustawionego na zdaniu Y=p+q otrzymujemy zero-jedynkową definicję operatora OR. Jedynki i zera po stronie p i q oznaczają zgodność z punktem odniesienia (=1) albo niezgodność z punktem odniesienia (=0). Nie są to prawdy i fałsze bezwzględne.
3. ~Y=~p*~q
Dla punktu odniesienia ustawionego na zdaniu ~Y=~p*~q otrzymujemy zero-jedynkową definicję operatora AND. Jedynki i zera po stronie ~p i ~q oznaczają zgodność z punktem odniesienia (=1) albo niezgodność z punktem odniesienia (=0). Nie są to prawdy i fałsze bezwzględne.
4.
Tożsamość kolumny wynikowej w operatorze OR, oraz zanegowanej kolumny wynikowej w operatorze AND jest dowodem formalnym poprawności prawa de’Morgana.
Y=p+q = ~(~p*~q)


Wnioski:
1.
Mózg człowieka operuje wyłącznie na zbiorach, poszukując części wspólnej zbiorów, wtedy i tylko wtedy zdanie jest prawdziwe.
2.
Matematycznie, z punktu widzenia świata zewnętrznego widzimy zero-jedynkową definicje operatora OR albo AND w zależności od przyjętego punktu odniesienia.
3.
Sposób kodowania zero-jedynkowego nie wpływa na treść samych zdań, stąd wszystkie trzy kodowania zero-jedynkowe są równoważne.

Przykład:
A.
Jutro pójdę do kina lub do teatru
Y=K+T
co matematycznie oznacza:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdę do kina (K=1) lub do teatru (T=1)
Y=K+T
Y=1 <=> K=1 lub T=1
Wystarczy, że dowolna zmienna po prawej stronie zostanie ustawiona na 1 i już dotrzymałem słowa, stan drugiej zmiennej jest nieistotny.

Wszystkie możliwe przypadki jakie mogą w przyszłości wystąpić to:
Y=K+T = K*T+K*~T+~K*T
Dotrzymam słowa gdy:
K*T – pójdę do kina (K=1) i pójdę do teatru (T=1)
K*~T – pójdę do kina (K=1) i nie pójdę do teatru (~T=1)
~K*T – nie pójdę do kina (~K=1) i pójdę do teatru (T=1)

… a kiedy skłamię ?
Przejście ze zdaniem A do logiki przeciwnej poprzez negację zmiennych i wymianę spójników.
~Y=~K*~T
B.
Skłamię (~Y=1) wtedy i tylko wtedy gdy jutro nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
~Y=~K*~T
~Y=1 <=> ~K=1 i ~T=1


2.4 Definicja operatora AND

Operator AND to złożenie spójnika „i”(*) w logice dodatniej (bo Y) ze spójnikiem „lub”(+) w logice ujemnej (bo ~Y).



Definicja spójnika „i”(*) w zbiorach w logice dodatniej (bo Y):
A.
Y=p*q
Y=1 <=> p=1 i q=1



Definicja spójnika „lub”(+) w logice ujemnej (bo ~Y):
B.
~Y=~p+~q
~Y=1 <=> ~p=1 lub ~q=1
Definicja równoważna na podstawie powyższego diagramu:
B1.
~Y=~p*~q + ~p*q + p*~q
~Y=1 <=> (~p=1 i ~q=1) lub (~p=1 i q=1) lub (p=1 i ~q=1)
stąd:
~Y=~p+~q =~p*~q + ~p*q + p*~q

Zauważmy, że oba diagramy razem opisują zdanie Y=p*q w kompletnej dziedzinie.

Symboliczna definicja operatora AND:
Kod:

A.
Y=p*q
Y – dotrzymam slowa
 p* q= Y
… a kiedy skłamię ?
Przejście ze zdaniem A do logiki ujemnej
B.
~Y=~p+~q
~Y – skłamię
~Y=~p*~q + ~p*q + p*~q
~p*~q=~Y
~p* q=~Y
 p*~q=~Y

Związek logiki dodatniej i ujemnej:
Y=~(~Y) – prawo podwójnego przeczenia
Podstawiając A i B mamy prawo de’Morgana:
p*q = ~(~p+~q)

Możliwe są trzy równoważne kodowania zero-jedynkowe powyższej definicji symbolicznej.
Kod:

Punkt
odniesienia: Zbiory  Y=p*q         ~Y=~p+~q     Y=~(~p+~q)
                     Y=1,~Y=0      ~Y=1,Y=0
                     p=1,~p=0      ~p=1,p=0
                     q=1,~q=0      ~q=1,q=0
-------------------------------------------------
                     p q  Y        ~p~q ~Y      Y
A: Y=p*q
 p* q= Y     1*1=1   1 1 =1         0 0 =0     =1
B: ~Y=~p+~q 
~p*~q=~Y     1*1=1   0 0 =0         1 1 =1     =0
~p* q=~Y     1*1=1   0 1 =0         1 0 =1     =0
 p*~q=~Y     1*1=1   1 0 =0         0 1 =1     =0
                     Operator       Operator
                     zero-jedynkowy zero-jedynkowy
                     AND            OR

Podsumowanie:
1. Zbiory
W diagramach wyżej doskonale widać operacje logiczne na zbiorach. Wszystkie zbiory istnieją, żaden iloczyn logiczny nie jest zbiorem pustym, stąd same jedynki w wynikach.
2. Y=p*q
Dla punktu odniesienia ustawionego na zdaniu Y=p*q otrzymujemy zero-jedynkową definicję operatora AND. Jedynki i zera po stronie p i q oznaczają zgodność z punktem odniesienia (=1) albo niezgodność z punktem odniesienia (=0). Nie są to prawdy i fałsze bezwzględne.
3. ~Y=~p+~q
Dla punktu odniesienia ustawionego na zdaniu ~Y=~p+~q otrzymujemy zero-jedynkową definicję operatora OR. Jedynki i zera po stronie ~p i ~q oznaczają zgodność z punktem odniesienia (=1) albo niezgodność z punktem odniesienia (=0). Nie są to prawdy i fałsze bezwzględne.
4.
Tożsamość kolumny wynikowej w operatorze AND, oraz zanegowanej kolumny wynikowej w operatorze OR jest dowodem formalnym poprawności prawa de’Morgana.
Y=p*q = ~(~p+~q)

Wnioski:
1.
Mózg człowieka operuje wyłącznie na zbiorach, poszukując części wspólnej zbiorów, wtedy i tylko wtedy zdanie jest prawdziwe.
2.
Matematycznie, z punktu widzenia świata zewnętrznego widzimy zero-jedynkową definicje operatora AND albo OR w zależności od przyjętego punktu odniesienia.
3.
Sposób kodowania zero-jedynkowego nie wpływa na treść samych zdań, stąd wszystkie trzy kodowania zero-jedynkowe są równoważne.

Przykład:
A.
Jutro pójdę do kina i do teatru
Y=K*T
co matematycznie oznacza:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdę do kina (K=1) i do teatru (T=1)
Y=K*T
Y=1 <=> K=1 i T=1

… a kiedy skłamię ?
Przejście ze zdaniem A do logiki przeciwnej poprzez negację zmiennych i wymianę spójników.
~Y=~K+~T
B.
Skłamię (~Y=1) wtedy i tylko wtedy gdy jutro nie pójdę do kina (~K=1) lub nie pójdę do teatru (~T=1)
~Y=~K+~T
~Y=1 <=> ~K=1 lub ~T=1
Wystarczy, że dowolna zmienna po prawej stronie zostanie ustawiona na 1 i już dotrzymałem słowa, stan drugiej zmiennej jest nieistotny.

Wszystkie możliwe przypadki jakie mogą w przyszłości wystąpić to:
~Y=~K+~T = ~K*~T+~K*T+K*~T
Dotrzymam słowa gdy:
~K*~T – nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
~K*T – nie pójdę do kina (~K=1) i pójdę do teatru (T=1)
K*~T – pójdę do kina (K=1) i nie pójdę do teatru (~T=1)


2.5 Równanie ogólne dla operatorów OR i AND

Definicja zero-jedynkowa operatora OR:
Kod:

p q Y=p+q
         /Spójnik “lub” w logice dodatniej bo Y
         /Y=p+q = p*q+p*~q+~p*q
1 1  =1  /Y=p*q
1 0  =1  /Y=p*~q
0 1  =1  /Y=~p*q
         /Spójnik „i” w logice ujemnej bo ~q
0 0  =0  /~Y=~p*~q

Wszystkie zmienne w komentarzu symbolicznym mamy sprowadzone do jedynek, czyli do teorii zbiorów !

Definicja zero-jedynkowa operatora AND:
Kod:

p q Y=p*q
         /Spójnik “i” w logice dodatniej bo q
1 1  =1  /Y=p*q
         /Spójnik „lub” w logice ujemnej bo ~Y
         /~Y=~p+~q=~p*~q+~p*q+p*~q
1 0  =0  /~Y=p*~q
0 1  =0  /~Y=~p*q
0 0  =0  /~Y=~p*~q

Wszystkie zmienne w komentarzu symbolicznym sprowadzone do jedynek, czyli do teorii zbiorów !

Na mocy definicji zachodzi:
Y=p+q ## Y=p*q
gdzie:
## - różne na mocy definicji
Oczywiście funkcja logiczna Y z lewej strony nie ma nic wspólnego z funkcją Y z prawej strony. Po obu stronach mamy dwa niezależne układy logiczne pomiędzy którymi nie zachodzą żadne tożsamości matematyczne.

Przykład:
Jutro pójdę do kina lub do teatru ## Jutro pójdę do kina i do teatru
Y=K+T ## Y=K*T

Korzystając z prawa de’Morgana mamy równanie ogólne dla operatorów OR i AND:
Y=p+q = ~(~p*~q) ## Y=p*q=~(~p+~q)
gdzie:
## - różne na mocy definicji
Dla lewej strony znaku ## możemy zapisać układ równań logicznych:
Y=p+q
Y=~(~p*~q)
Negując dwustronnie mamy:
~Y=~p*~q
Podobnie dla prawej strony znaku ## możemy zapisać:
Y=p*q
~Y=~p+~q

Stąd mamy równanie ogólne dla operatorów OR i AND zapisane w formie układu równań logicznych.
Kod:

Dotrzymam słowa (Y)      Dotrzymam słowa (Y)
Y=p+q                ##  Y=p*q
Skłamię (~Y)             Skłamię (~Y)
~Y=~p*~q             ##  ~Y=~p+~q

Podkreślmy to jeszcze raz !
Między układami równań po obu stronach znaku ## mamy dwa totalnie niezależne układy logiczne, czyli p i q po lewej stronie znaku ## jest bez żadnego związku z p i q po prawej stronie znaku ##.
Pod zmienne formalne p i q po obu stronach możemy podstawiać co nam się żywcem podoba czyli na przykład tak:
Lewa strona:
p=K (kino)
q=T (teatr)
Prawa strona:
p=T
q=K

Formalny dowód prawa de’Morgana w tabelach zero-jedynkowych:
Kod:

p q Y=p+q ~Y=~(p+q) ~p ~q ~Y=~p*~q Y=~(~p*~q)
1 1  =1     =0       0  0   =0      =1
1 0  =1     =0       0  1   =0      =1
0 1  =1     =0       1  0   =0      =1
0 0  =0     =1       1  1   =1      =0

Tożsamość kolumn trzeciej i ostatniej jest dowodem prawa de’Morgana:
p+q = ~(~p*~q)


3.0 Zdanie zawsze prawdziwe

Definicja:
Zdanie zawsze prawdziwe to zdanie warunkowe „Jeśli p to q” pozostające prawdziwe przy wszelkich możliwych przeczeniach p i q



Definicja naturalnego spójnika „może” ~~>:
p~~>q
Jeśli zajdzie p to może ~~> zajść q
gdzie:
~~> - naturalny spójnik „może”, wystarczy znaleźć jeden przypadek prawdziwy, jedną część wspólną zbiorów p i q.

Definicja operatorowa zdania zawsze prawdziwego.
Kod:

Punkt
odniesienia:  Zbiory   p~~>q
                       p=1,~p=0
                       q=1,~q=0
p~~> q=1      1*1=1    1 1 =1
p~~>~q=1      1*1=1    1 0 =1
~p~~>~q=1     1*1=1    0 0 =1
~p~~> q=1     1*1=1    0 1 =1
                       Operator ~~>
                       zero-jedynkowy

gdzie:
~~> - naturalny spójnik „może”, wystarczy pokazać jeden przypadek prawdziwy

W powyższym diagramie istnieją części wspólne wszystkich możliwych kombinacji p i q, stąd z punktu odniesienia zbiorów mamy same jedynki.
Dla punktu odniesienia p~~>q mamy tabelę zero-jedynkową operatora zdania zawsze prawdziwego. W całej logice istnieje jeden i tylko jeden operator zdania zawsze prawdziwego jak wyżej, gdzie w wyniku mamy same jedynki. Jak coś jest zawsze prawdziwe to mamy zero jakiejkolwiek logiki. W matematyce zdania typu P8~>P3 są bezwartościowymi śmieciami.
Wszelkie inne operatory zero-jedynkowe, a jest ich 16, mają w wyniku przynajmniej jedno zero, zatem jakiekolwiek sformułowanie „zdanie zawsze prawdziwe” w stosunku do tych operatorów jest błędem czysto matematycznym.

Przykład:
A.
Jeśli liczba jest podzielna przez 8 to może być podzielna przez 3
P8~~>P3=1 bo 24
1 1 =1 – punkt odniesienia, zdanie wypowiedziane
Zbiory:
P8*P3=1 – istnieje wspólna cześć zbiorów P8 i P3
P8=[8,16, 24…]
P3=[3,6,18,24…]
P8*P3=1 bo 24
1*1=1
B.
Jeśli liczba jest podzielna przez 8 to może nie być podzielna przez 3
P8~~>~P3=1 bo 8
1 0 =1
Zbiory:
P8=[8,16, 24…]
~P3=[1,8…]
P8*~P3=1 bo 8
1*1=1
C,
Jeśli liczba nie jest podzielna przez 8 to może nie być podzielna przez 3
~P8~~>~P3=1 bo 5
0 0 =1
Zbiory:
~P8={3,5…]
~P3=[1,5…]
~P8*~P3=1 bo 5
1*1=1
D.
Jeśli liczba nie jest podzielna przez 8 to może być podzielna przez 3
~P8~~>P3=1 bo 3
0 1 =1
Zbiory:
~P8=[3,5…]
P3=[3,6..]
~P8*P3=1 bo 3
1*1=1
Doskonale widać tabelę zero-jedynkową operatora „może” dla kodowania zgodnego ze zdaniem wypowiedzianym A:
P8=1, ~P8=1
P3=1, ~P3=0
Kod:

A: 1 1 =1
B: 1 0 =1
C: 0 0 =1
D: 0 1 =1



4.0 Operatory implikacji prostej i odwrotnej w zbiorach

Definicja implikacji prostej w równaniu algebry Boole’a:
p=>q = ~p~>~q

Definicja implikacji odwrotnej w równaniu algebry Boole’a:
p~>q = ~p=>~q

Definicja równoważności w równaniu algebry Boole’a:
p<=>q = (p=>q)*(~p=>~q)

Cała filozofia operatorów implikacji prostej, implikacji odwrotnej i równoważności to zaledwie dwa spójniki logiczne:
=> - warunek wystarczający, spójnik „musi” między p i q w całym obszarze logiki
~> - warunek konieczny, spójnik „może” miedzy p i q w implikacji (nie w równoważności! )

Definicja logiki dodatniej i ujemnej w operatorach implikacji i równoważności:
Zdanie wypowiedziane jest w logice dodatniej gdy q jest niezanegowane (q), w logice ujemnej gdy q jest zanegowane (~q)


4.1 Definicja operatora implikacji prostej

Implikacja prosta to złożenie warunku wystarczającego => w logice dodatniej (bo q) z warunkiem koniecznym ~> w logice ujemnej (bo ~q)

Definicja implikacji prostej w równaniu algebry Boole’a:
p=>q = ~p~>~q – prawo Kubusia
gdzie:
=> - warunek wystarczający, spójnik „musi” między p i q
~> - warunek konieczny, spójnik „może” miedzy p i q

Definicja warunku wystarczającego w logice dodatniej (bo q)
p=>q
Jeśli zajdzie p to na pewno => zajdzie q
Z czego wynika, że zbiór p musi zawierać się w całości w zbiorze q
Z czego wynika, że p musi być wystarczające dla q, jak zajdzie p to q też musi !

Stąd mamy definicję warunku wystarczającego w zbiorach:



Z wykresu odczytujemy definicję symboliczną warunku wystarczającego w logice dodatniej (bo q):
A.
Jeśli zajdzie p to na pewno => zajdzie q
p=>q=1 – twarda prawda, gwarancja matematyczna
Zbiory:
p*q=1 – zbiór p zawiera się w całości w zbiorze q
1*1=1
stąd:
B.
Jeśli zajdzie p to na pewno => nie zajdzie q
p=>~q=0 – twardy fałsz, wynikły tylko i wyłącznie ze zdania A
Zbiory:
p*~q=0
1*1=0
Zbiory p i ~q istnieją (=1), ale są rozłączne, stad wynik iloczynu logicznego jest równy 0, co doskonale widać na diagramie.

Definicja symboliczna warunku wystarczającego w logice dodatniej (bo q):
Kod:

p=> q=1
p=>~q=0

p=>q
Jeśli zajdzie p to na pewno => zajdzie q

Definicja warunku wystarczającego w logice dodatniej (bo q) w zbiorach:
Kod:

p=>q=1
p*q=1
p=>~q=0
p*~q=0

p=>q=1
Warunek wystarczający => w logice dodatniej (bo q) zachodzi wtedy i tylko wtedy gdy iloczyn logiczny zbiorów p*q jest zbiorem niepustym oraz iloczyn logiczny zbiorów p*~q jest zbiorem pustym.

Zero-jedynkowa definicja warunku wystarczającego w logice dodatniej (bo q)
Kod:

Punkt
odniesienia: Zbiory    p=>q
                       p=1,~p=0
                       q=1,~q=0
p=> q=1      1*1=1     1 1 =1
p=>~q=0      1*1=0     1 0 =0
                       Definicja
                       zero-jedynkowa

Oczywiście wynikowe zero w iloczynie logicznym zbiorów oznacza zbiór pusty, czyli brak choćby jednego wspólnego elementu zbiorów p i ~q.

… a jeśli zajdzie ~p ?
Prawo Kubusia:
p=>q = ~p~>~q

Zobaczmy ten przypadek na diagramie.



Z wykresu odczytujemy definicję warunku koniecznego ~> w logice ujemnej (bo ~q)
C.
Jeśli zajdzie ~p to może ~> nie zajść q
~p~>~q=1 – miękka prawda, może zajść ale nie musi bo zdanie D
Zbiory:
~p*~q=1 – istnieje cześć wspólna
1*1=1
lub
D.
Jeśli zajdzie ~p to może ~~> zajść q
~p~~>q=1 – miękka prawda, może zajść ale nie musi bo zdanie C
Zbiory:
~p*q=1 – istnieje część wspólna
1*1=1
W zdaniu D nie zachodzi warunek konieczny ~> bo prawo Kubusia nie może być zgwałcone:
D: ~p~>q = B: p=>~q
Zdanie B jest fałszywe zatem w zdaniu D nie może zachodzić warunek konieczny ~>.
Zdanie D jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy pokazać jeden przypadek prawdziwy.

Z powyższego mamy.

Symboliczna definicja implikacji prostej:
Kod:

Warunek wystarczający w logice dodatniej (bo q)
A: p=>q=1
B: p=>~q=0
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p=>q = ~p~>~q
Warunek konieczny w logice ujemnej (bo ~q)
C: ~p~>~q=1
D: ~p~~>q=1

p=>q
Jeśli zajdzie p to na pewno => zajdzie q
Z czego wynika że druga linia musi być twardym fałszem
Z czego wynika że p musi być wystarczające dla q
Gdzie:
=> - warunek wystarczający
~> - warunek konieczny
~~> - naturalny spójnik „może”, wystarczy pokazać jeden przypadek prawdziwy

Definicja warunku koniecznego wynika z prawa Kubusia:
~p~>~q = p=>q
Warunek konieczny ~> miedzy p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika => zanegowany następnik.
Z definicji tej wynika, że całą logikę matematyczną możemy sprowadzić do badania łatwych w dowodzeniu warunków wystarczających =>.

Zero-jedynkowa definicja implikacji prostej:
Kod:

Punkt
odniesienia:     Zbiory   p=>q       ~p~>~q
                          p=1,~p=0   ~p=1,p=0
                          q=1,~q=0   ~q=1,q=0
-------------------------------------------------
                          p q  p=>q  ~p~q ~p~>~q
Warunek wystarczający
A: p=>q=1        1*1=1    1 1 =1      0 0 =1
B: p=>~q=0       1*1=0    1 0 =0      0 1 =0
Warunek konieczny
C: ~p~>~q=1      1*1=1    0 0 =1      1 1 =1
D: ~p~~>q=1      1*1=1    0 1 =1      1 0 =1
                          Definicja   Definicja
                          operatora   operatora
                          implikacji  implikacji
                          prostej     odwrotnej

Podsumowanie:
1. Zbiory
W diagramach wyżej doskonale widać operacje logiczne na zbiorach. W zdaniu B zbiory p i ~q są rozłączne stąd w wyniku mamy zero.
2. p=>q
Dla punktu odniesienia ustawionego na zdaniu p=>q otrzymujemy zero-jedynkową definicję implikacji prostej. Jedynki i zera po stronie p i q oznaczają zgodność z punktem odniesienia (=1) albo niezgodność z punktem odniesienia (=0). Nie są to prawdy i fałsze bezwzględne.
Zero w wyniku wtedy i tylko wtedy gdy p=1 i q=0.
3. ~p~>~q
Dla punktu odniesienia ustawionego na zdaniu ~p~>~q otrzymujemy zero-jedynkową definicję implikacji odwrotnej. Jedynki i zera po stronie ~p i ~q oznaczają zgodność z punktem odniesienia (=1) albo niezgodność z punktem odniesienia (=0). Nie są to prawdy i fałsze bezwzględne.
Zero w wyniku wtedy i tylko wtedy gdy ~p=0 i ~q=1.
4.
Tożsamość kolumny wynikowej w operatorze p=>q oraz kolumny wynikowej w operatorze ~p~>~q jest dowodem formalnym prawa Kubusia.
p=>q = ~p~>~q
5.
W warunku wystarczającym => mamy do czynienia z twardą prawdą, gwarancją matematyczną.
Oznacza to że jeśli zajdzie p to q też musi zajść. Tylko i wyłącznie z tego faktu wynika twardy fałsz w linii B.
6.
W warunku koniecznym ~> mamy do czynienia z miękką prawdą, może zajść ale nie musi.
C: ~p~>~q=1
Jeśli zajdzie ~p to może zajść ~q.
Dla tego przypadku zdanie D będzie fałszem.
LUB
D: ~p~~>q=1
Jeśli zajdzie ~p to może zajść q
Dla tego przypadku zdanie C będzie fałszem

Wnioski:
1.
Mózg człowieka operuje wyłącznie na zbiorach, poszukując części wspólnej zbiorów, wtedy i tylko wtedy zdanie jest prawdziwe.
2.
Matematycznie, z punktu widzenia świata zewnętrznego widzimy zero-jedynkową definicje operatora implikacji prostej albo implikacji odwrotnej w zależności od przyjętego punktu odniesienia.
3.
Sposób kodowania zero-jedynkowego nie wpływa na treść samych zdań, stąd wszystkie trzy kodowania zero-jedynkowe są równoważne.

Przykład:
A.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1 bo 8,16… - twarda prawda, gwarancja matematyczna, zachodzi zawsze bez wyjątków
1 1 =1 – punkt odniesienia, zdanie wypowiedziane
Zbiory:
P8=[8,16…]
P2=[2,4,8,16..]
P8*P2=1 bo 8,16…
1*1=1
B.
Jeśli liczba jest podzielna przez 8 to na pewno => nie jest podzielna przez 2
P8=>~P2=0 – twardy fałsz wynikły tylko i wyłącznie ze zdania A
1 0 =0
Zbiory:
P8=[8,16..]
~P2=[1,3,5…]
P8*~P2=0 – zbiory rozłączne
1*1=0
… a jeśli liczba nie jest podzielna przez 8 ?
Prawo Kubusia:
P8=>P2 = ~P8~>~P2
C.
Jeśli liczba nie jest podzielna przez 8 to może ~> nie być podzielna przez 2
~P8~>~P2=1 bo 3,5.. – miękka prawda, może zajść ale nie musi bo D
0 0 =1
Zbiory:
~P8=[2,3,5…]
~P2=[3,5,7…]
~P8*~P2=1 bo 3,5…
1*1=1
LUB
D.
Jeśli liczba nie jest podzielna przez 8 to może ~~> być podzielna przez 2
~P8~~>P2=1 bo 2,4… - miękka prawda, może zajść ale nie musi bo C
0 1 =1
Zbiory:
~P8=[2,4,5…]
P2=[2,4,6…]
~P8*P2=1 bo 2,4…
1*1=1
W zdaniu D nie zachodzi warunek konieczny bo prawo Kubusia:
D: ~P8~>P2 = B: P8=>~P2=0 bo 8
Prawa strona jest fałszem zatem w zdaniu D nie ma prawa zachodzić warunek konieczny, prawo Kubusia nie może być zgwałcone.

Doskonale widać tabelę zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym A:
P8=1, ~P8=0
P2=1, ~P2=0
Kod:

A: 1 1 =1
B: 1 0 =0
C: 0 0 =1
D: 0 1 =1


Ostatnio zmieniony przez rafal3006 dnia Śro 23:47, 30 Lis 2011, w całości zmieniany 61 razy
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
Rafal3011




Dołączył: 16 Wrz 2011
Posty: 142
Przeczytał: 0 tematów

Skąd: GDAŃSK
Płeć: Mężczyzna

PostWysłany: Pon 0:53, 10 Paź 2011    Temat postu:

4.2 Definicja operatora implikacji odwrotnej

Implikacja odwrotna to złożenie warunku koniecznego ~> w logice dodatniej (bo q) z warunkiem wystarczającym => w logice ujemnej (bo ~q)

Definicja implikacji odwrotnej w równaniu algebry Boole’a:
p~>q = ~p=>~q – prawo Kubusia
gdzie:
~> - warunek konieczny, spójnik „może” miedzy p i q
=> - warunek wystarczający, spójnik „musi” między p i q

Definicja warunku koniecznego wynika z prawa Kubusia:
p~>q= ~p=>~q
Warunek konieczny ~> między p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika => zanegowany następnik.
Wynika z tego, że cała logikę matematyczną możemy sprowadzić do badania łatwych w dowodzeniu warunków wystarczających.

Warunek konieczny w diagramie logiki wygląda następująco:



p~>q

Z wykresu odczytujemy definicje symboliczną warunku koniecznego w logice dodatniej (bo q):
A.
Jeśli zajdzie p to może ~> zajść q
p~>q=1
Zbiory:
p*q=1 – istnieje cześć wspólna zbiorów p i q
1*1=1
LUB
B.
Jeśli zajdzie p to może ~~> zajść ~q
p~~>~q=1
Zbiory:
p*~q=1 – istnieje część wspólna zbiorów p i ~q
1*1=1

… a jeśli nie zajdzie p ?
Prawo Kubusia:
p~>q = ~p=>~q

Zobaczmy to na diagramie logicznym:



~p=>~q

Z diagramu odczytujemy:
C.
Jeśli zajdzie ~p to na pewno => zajdzie ~q
~p=>~q=1
Zbiory:
~p*~q=1 – istnieje cześć wspólna zbiorów ~p i ~q
1*1=1
stąd:
D.
Jeśli zajdzie ~p to na pewno => zajdzie q
~p=>q=0
Zbiory:
~p*q=0
1*1=0
Zbiory ~p i q istnieją (=1), ale są rozłączne, stad wynik iloczynu logicznego jest równy 0, co doskonale widać na diagramie.

Zauważmy że w zdaniu B nie może zachodzić warunek konieczny bo prawo Kubusia:
B: p~>~q = D: ~p=>q=0
Zdanie jest fałszywe, zatem w zdaniu B nie może zachodzić warunek konieczny ~>.
Zdanie B jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy pokazać jeden przypadek prawdziwy.

Definicja symboliczna warunku wystarczającego w logice ujemnej (bo q):
Kod:

~p=>~q=1
~p=>q=0

~p=>~q
Jeśli zajdzie ~p to na pewno => zajdzie ~q

Definicja warunku wystarczającego => w logice ujemnej (bo ~q) w zbiorach:
Kod:

~p=>~q=1
~p*~q=1
~p=>q=0
~p*q=0

~p=>~q
Warunek wystarczający => w logice ujemnej (bo ~q) zachodzi wtedy i tylko wtedy gdy iloczyn logiczny zbiorów ~p*~q jest zbiorem niepustym oraz iloczyn logiczny zbiorów ~p*q jest zbiorem pustym.

Zero-jedynkowa definicja warunku wystarczającego w logice ujemnej (bo q)
Kod:

Punkt
odniesienia: Zbiory    ~p=>~q
                       ~p=1,p=0
                       ~q=1,q=0
~p=>~q=1     1*1=1     1 1 =1
~p=>q=0      1*1=0     1 0 =0
                       Definicja
                       zero-jedynkowa

Oczywiście wynikowe zero w iloczynie logicznym zbiorów oznacza zbiór pusty, czyli brak choćby jednego wspólnego elementu zbiorów ~p i q.

Z powyższego mamy.

Symboliczna definicja implikacji odwrotnej:
Kod:

Warunek konieczny w logice dodatniej (bo q)
A: p~>q=1
B: p~~>~q=1
… a jeśli zajdzie ~p ?
Prawo Kubusia:
p~>q = ~p=>~q
Warunek wystarczający w logice ujemnej (bo ~q)
C: ~p=>~q=1
D: ~p=>q=0

p~>q
Jeśli zajdzie p to „może” ~> zajść q
bo druga linia p~~>~q też ma prawo wystąpić
Gdzie:
~> - warunek konieczny
=> - warunek wystarczający
~~> - naturalny spójnik „może”, wystarczy pokazać jeden przypadek prawdziwy

Definicja warunku koniecznego wynika z prawa Kubusia:
p~>q = ~p=>~q
Warunek konieczny ~> miedzy p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika => zanegowany następnik.
Z definicji tej wynika, że całą logikę matematyczną możemy sprowadzić do badania łatwych w dowodzeniu warunków wystarczających =>.

Zero-jedynkowa definicja implikacji odwrotnej:
Kod:

Punkt
odniesienia:     Zbiory   p~>q       ~p=>~q
                          p=1,~p=0   ~p=1,p=0
                          q=1,~q=0   ~q=1,q=0
-------------------------------------------------
                          p q  p~>q  ~p~q ~p=>~q
Warunek konieczny
A: p~>q=1        1*1=1    1 1 =1      0 0 =1
B: p~~>~q=1      1*1=1    1 0 =1      0 1 =1
Warunek wystarczający
C: ~p=>~q=1      1*1=1    0 0 =1      1 1 =1
D: ~p=>q=0       1*1=0    0 1 =0      1 0 =0
                          Definicja   Definicja
                          operatora   operatora
                          implikacji  implikacji
                          odwrotnej   prostej

Podsumowanie:
1. Zbiory
W diagramach wyżej doskonale widać operacje logiczne na zbiorach. W zdaniu D zbiory ~p i q są rozłączne stąd w wyniku mamy zero.
2. p~>q
Dla punktu odniesienia ustawionego na zdaniu p~>q otrzymujemy zero-jedynkową definicję implikacji odwrotnej. Jedynki i zera po stronie p i q oznaczają zgodność z punktem odniesienia (=1) albo niezgodność z punktem odniesienia (=0). Nie są to prawdy i fałsze bezwzględne.
Zero w wyniku wtedy i tylko wtedy gdy p=0 i q=1
3. ~p=>~q
Dla punktu odniesienia ustawionego na zdaniu ~p=>~q otrzymujemy zero-jedynkową definicję implikacji prostej. Jedynki i zera po stronie ~p i ~q oznaczają zgodność z punktem odniesienia (=1) albo niezgodność z punktem odniesienia (=0). Nie są to prawdy i fałsze bezwzględne.
Zero w wyniku wtedy i tylko wtedy gdy ~p=1 i ~q=0.
4.
Tożsamość kolumny wynikowej w operatorze p~>q oraz kolumny wynikowej w operatorze ~p=>~q jest dowodem formalnym prawa Kubusia.
p~>q = ~p=>~q
5.
W warunku wystarczającym => (zdanie C) mamy do czynienia z twardą prawdą, gwarancją matematyczną.
Oznacza to, że jeśli zajdzie ~p to ~q też musi zajść. Tylko i wyłącznie z tego faktu wynika twardy fałsz w linii D.
6.
W warunku koniecznym ~> mamy do czynienia z miękką prawdą, może zajść ale nie musi.
A: p~>q=1
Jeśli zajdzie p to może zajść q.
Dla tego przypadku zdanie B będzie fałszem.
LUB
B: p~~>~q=1
Jeśli zajdzie p to może zajść ~q
Dla tego przypadku zdanie A będzie fałszem

Wnioski:
1.
Mózg człowieka operuje wyłącznie na zbiorach, poszukując części wspólnej zbiorów, wtedy i tylko wtedy zdanie jest prawdziwe.
2.
Matematycznie, z punktu widzenia świata zewnętrznego widzimy zero-jedynkową definicje operatora implikacji odwrotnej albo implikacji prostej w zależności od przyjętego punktu odniesienia.
3.
Sposób kodowania zero-jedynkowego nie wpływa na treść samych zdań, stąd wszystkie trzy kodowania zero-jedynkowe są równoważne.

Przykład:
A.
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8=1 bo 8,16… - miękka prawda, może zajść ale nie musi bo zdanie B
1 1 =1 – zdanie wypowiedziane, punkt odniesienia
Zbiory:
P2=[2,4,8,16..]
P8=[8,16…]
P2*P8=1 bo 8,16…
1*1=1
LUB
B.
Jeśli liczba jest podzielna przez 2 to może ~~> nie być podzielna przez 8
P2~~>~P8=1 bo 2,4… - miękka prawda, może zajść ale nie musi bo zdanie A
1 0 =1
Zbiory:
P2=[2,4,6…]
~P8=[2,4,5…]
P2*~P8=1 bo 2,4…
1*1=1
… a jeśli liczba nie jest podzielna przez 2 ?
Prawo Kubusia:
P2~>P8 = ~P2=>~P8
C.
Jeśli liczba nie jest podzielna przez 2 to na pewno => nie jest podzielna przez 8
~P2=>~P8=1 bo 3,5… - twarda prawda, gwarancja matematyczna
0 0 =1
Zbiory:
~P2=[3,5,7…]
~P8=[2,3,5…]
~P2*~P8=1 bo 3,5…
1*1=1
stad:
D.
Jeśli liczba nie jest podzielna przez 2 to na pewno => jest podzielna przez 8
~P2=>P8=0 – twardy fałsz wynikły tylko i wyłącznie ze zdania C
0 1 =0
Zbiory:
~P2=[1,3,5…]
P8=[8,16..]
~P2*P8=0 – zbiory rozłączne
1*1=0

W zdaniu B nie zachodzi warunek konieczny bo prawo Kubusia:
B: ~P2~>P8 = D: P2=>~P8=0 bo 8
Prawa strona jest fałszem zatem w zdaniu B nie ma prawa zachodzić warunek konieczny, prawo Kubusia nie może być zgwałcone.

Doskonale widać tabelę zero-jedynkową implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym A:
P2=1, ~P2=0
P8=1, ~P8=0
Kod:

A: 1 1 =1
B: 1 0 =1
C: 0 0 =1
D: 0 1 =0



4.3 Równanie ogólne dla operatorów implikacji

Definicja zero-jedynkowa implikacji prostej:
Kod:

p q p=>q
         /Warunek wystarczający w logice dodatniej bo q
1 1  =1  /p=>q=1
1 0  =0  /p=>~q=0
         /Warunek konieczny w logice ujemnej bo ~q
0 0  =1  /~p~>~q=1
0 1  =1  /~p~~>q=1

Wszystkie zmienne w komentarzu symbolicznym mamy sprowadzone do jedynek, czyli do teorii zbiorów !

Definicja zero-jedynkowa implikacji odwrotnej:
Kod:

p q p~>q
         /Warunek konieczny w logice dodatniej bo q
1 1  =1  /p~>q=1
1 0  =1  /p~~>~q=1
         /Warunek wystarczający w logice ujemnej bo ~q
0 0  =1  /~p=>~q=1
0 1  =0  /~p=>q=0

Wszystkie zmienne w komentarzu symbolicznym sprowadzone do jedynek, czyli do teorii zbiorów

Na mocy definicji zachodzi:
p=>q ## p~>q
gdzie:
## - różne na mocy definicji
Oczywiście warunek wystarczający p=>q z lewej strony znaku ## nie ma nic wspólnego z warunkiem koniecznym p~>q z prawej strony znaku ##. Po obu stronach mamy dwa niezależne układy logiczne pomiędzy którymi nie zachodzą żadne tożsamości matematyczne.

Przykład:
Jeśli liczba jest podzielna przez 8 to na pewno jest podzielna przez 2
P8=>P2
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8
Na mocy definicji zachodzi:
P8=>P2 ## P2~>P8
gdzie:
## - różne na mocy definicji

Korzystając z prawa Kubusia mamy równanie ogólne dla operatorów implikacji:
p=>q = ~p~>~q ## p~>q = ~p=>~q
gdzie:
## - różne na mocy definicji

Dla naszego przykładu mamy:
P8=>P2 = ~P8~>~P2 ## P2~>P8 = ~P2=>~P8
gdzie:
## - rożne na mocy definicji

Podkreślmy to jeszcze raz !
Między układami równań po obu stronach znaku ## mamy dwa totalnie niezależne układy logiczne, czyli p i q po lewej stronie znaku ## jest bez żadnego związku z p i q po prawej stronie znaku ##.
Pod zmienne formalne p i q po obu stronach możemy podstawiać co nam się żywcem podoba czyli na przykład tak:
Lewa strona:
p=P8
q=P2
Prawa strona:
p=P2
q=P8

Formalny dowód prawa Kubusia w tabelach zero-jedynkowych:
Kod:

p q p=>q ~p ~q ~p~>~q
1 1  =1   0  0   =1
1 0  =0   0  1   =0
0 0  =1   1  1   =1
0 1  =1   1  0   =1

Tożsamość kolumn trzeciej i ostatniej jest dowodem prawa Kubusia:
p=>q = ~p~>~q

Formalny dowód braku przemienności argumentów w implikacji prostej:
Kod:

p q p=>q q=>p
1 1  =1   =1
1 0  =0   =1
0 0  =1   =1
0 1  =1   =0

Brak tożsamości w dwóch ostatnich kolumnach jest dowodem braku przemienności argumentów w implikacji prostej.
p=>q # q=>p
Jeśli dowolna strona jest prawdą to druga strona musi być fałszem
Przykład:
P8=>P2=1 # P2=>P8=0 bo 2

Formalny dowód braku przemienności argumentów w implikacji odwrotnej:
Kod:

p q p~>q q~>p
1 1  =1   =1
1 0  =1   =0
0 0  =1   =1
0 1  =0   =1

Brak tożsamości w dwóch ostatnich kolumnach jest dowodem braku przemienności argumentów w implikacji odwrotnej.
p~>q # q~>p
Jeśli dowolna strona jest prawdą to druga strona musi być fałszem

Przykład:
P2~>P8=1 # P8~>P2=0
Dowód prawdziwości lewej strony znaku #:
P2~>P8 = ~P2=>~P8=1 – prawo Kubusia
Prawa strona jest prawdą zatem w zdaniu P2~>P8 zachodzi warunek konieczny
cnd

Dowód fałszywości prawej strony znaku #:
P8~>P2 = ~P8=>~P2=0 bo 2
Prawa strona jest fałszem, zatem nie zachodzi warunek konieczny w zdaniu:
P8~>P2=0
cnd

Z powyższego mamy gimnazjalną definicję implikacji
Implikacja to wynikanie wyłącznie w jedną stronę
p=>q # q=>p
Jeśli stwierdzimy pewne wynikanie => wyłącznie w jedna stronę to mamy dowód iż zdanie jest implikacją prostą.


5.0 Równoważność

Definicja równoważności:
p<=>q = (p=>q)*(~p=>~q)

Równoważność to jednoczesne zachodzenie warunku wystarczającego w logice dodatniej (bo q) i warunku wystarczającego w logice ujemnej (bo ~q)

Zobaczmy to na diagramach logiki:



Warunek wystarczający w logice dodatniej:
p=>q=1
p=>~q=0
Z diagram widzimy, że zbiory p I q są dokładnie tymi samymi zbiorami:
p=q
co wymusza tożsamość zbiorów:
~p=~q



Warunek wystarczający w logice ujemnej:
~p=>~q=1
~p=>q=0
Z diagram widzimy, że zbiory ~p I ~q są dokładnie tymi samymi zbiorami:
~p=~q
co wymusza tożsamość zbiorów:
p=q

Z powyższego mamy operatorową definicję równoważności.
p<=>q = (p=>q)*(~p=>~q)

Warunek wystarczający w logice dodatniej (bo q)
A.
Jeśli zajdzie p to na pewno => zajdzie q
p=>q=1
1 1 =1
Zbiory:
p*q=1 – zbiory p i q są tymi samymi zbiorami
1*1=1
B.
Jeśli zajdzie p to na pewno => nie zajdzie q
p=>~q=0
1 0 =0
Zbiory:
p*~q=0 – zbiory rozłączne
1*1=0
… a jeśli nie zajdzie p ?
Warunek wystarczający w logice ujemnej:
C.
Jeśli nie zajdzie p to na pewno => nie zajdzie q
~p=>~q=1
0 0 =1
Zbiory:
~p*~q=1 – zbiory ~p i ~q są tymi samymi zbiorami
1*1=1
D.
Jeśli nie zajdzie p to na pewno => zajdzie q
~p=>q=0
0 1 =0
Zbiory:
~p*q=0 – zbiory rozłączne
1*1=1
Doskonale widać definicje zero-jedynkową równoważności dla kodowania zgodnego ze zdaniem A:
p=>q=1
p=1, ~p=0
q=1, ~q=0

Definicja zero-jedynkowa równoważności:
Kod:

A: 1 1 =1
B: 1 0 =0
C: 0 0 =1
D: 0 1 =0


Definicja symboliczna równoważności:
Kod:

p<=>q = (p=>q)*(~p=>~q)
Warunek wystarczający w logice dodatniej (bo q)
A: p=>q=1
B: p=>~q=0
… a jeśli zajdzie ~p ?
Warunek wystarczający w logice ujemnej (bo ~q)
C: ~p=>~q=1
D: ~p=>q=0

Warunek wystarczający w logice dodatniej (bo q)
p=>q
Jeśli zajdzie p to na pewno => zajdzie q
Z czego wynika że linia B musi być twardym fałszem

Warunek wystarczający w logice ujemnej (bo ~q)
~p=>~q
Jeśli zajdzie ~p to na pewno => zajdzie ~q
Z czego wynika że linia D musi być twardym fałszem

Definicja równoważności w równaniu algebry Kubusia:
p<=>q = (p=>q)*(~p=>~q)
Równoważność to iloczyn logiczny warunku wystarczającego w logice dodatniej p=>q z warunkiem wystarczającym w logice ujemnej (bo ~q)

Zero-jedynkowa definicja równoważności:
Kod:

Punkt
odniesienia:     Zbiory   p=>q       ~p=>~q
                          p=1,~p=0   ~p=1,p=0
                          q=1,~q=0   ~q=1,q=0
Warunek wystarczający
A: p=>q=1        1*1=1    1 1 =1      0 0 =1
B: p=>~q=0       1*1=0    1 0 =0      0 1 =0
Warunek wystarczający
C: ~p=>~q=1      1*1=1    0 0 =1      1 1 =1
D: ~p=>q=0       1*1=0    0 1 =0      1 0 =0
                          Definicja   Definicja
                          operatora   operatora
                      równoważności   równoważności

Podsumowanie:
1. Zbiory
W diagramach wyżej doskonale widać operacje logiczne na zbiorach. W zdaniach B i D zbiory są rozłączne stąd w wyniku mamy zero.
2. p=>q
Dla punktu odniesienia ustawionego na zdaniu p=>q otrzymujemy zero-jedynkową definicję równoważności w logice dodatniej (bo q).
3. ~p=>~q
Dla punktu odniesienia ustawionego na zdaniu ~p=>~q otrzymujemy zero-jedynkową definicję równoważności w logice ujemnej bo ~q.

Aksjomatyczna definicja równoważności wynikająca z tabeli zero-jedynkowej:
p<=>q = (p=>q)*(~p=>~q)

W równoważności poprawne jest prawo kontrapozycji:
~p=>~q = q=>p
stąd równoważna definicja równoważności:
p<=>q = (p=>q)*(q=>p)
czyli:
Równoważność to zachodzenie warunku wystarczającego => w dwie strony.

Definicja warunku koniecznego:
Warunek konieczny ~> między p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika => zanegowany następnik.
p~>q = ~p=>~q
~p~>~q = p=>q
Oczywiście badanie warunku koniecznego ~> sprowadza się do badania warunku wystarczającego =>.

Wynika z tego kolejna definicja równoważności:
p<=>q = (p=>q)*(p~>q) = (p=>q)*(~p=>~q)
stąd:
ŚFIŃSKA definicja równoważności:
Równoważność to jednoczesne zachodzenie warunku wystarczającego => i warunku koniecznego ~>
p=>q=1
p~>q = ~p=>~q=1
Oczywiście w równoważności nie ma miejsca na rzucanie monetą i spójnik „może” ~> znany z implikacji. W równoważności symbol ~> to warunek konieczny na poziomie abstrakcyjnym (nie spójnik „może”!)

Twierdzenie Rexerexa:
Jeśli równoważność jest udowodniona to zachodzi wszystko co tylko możliwe:
p=>q = p<=>q = (p=>q)*(~p=>~q) = ~p<=>~q = (p=>q)*(q=>p) = q=>p …

Bowiem analiza zdań wynikłych ze wszystkich możliwych przeczeń p i q daje identyczną, zero-jedynkowa definicje równoważności.

Przykład:
Warunek wystarczający w logice dodatniej (bo KR)
A.
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR=1 – gwarancja matematyczna
1 1 =1
B.
Jeśli trójkąt jest równoboczny to na pewno=> nie ma katów równych
TR=>~KR=0
1 0 =0
Warunek wystarczający w logice ujemnej (bo ~KR)
C.
Jeśli trójkąt nie jest równoboczny to na pewno => nie ma katów równych
~Tr=>~KR=1 – gwarancja matematyczna
0 0 =1
D.
Jeśli trójkąt nie jest równoboczny to na pewno => ma kąty równe
~TR=>KR=0
0 1 =0

Doskonale widać, tabele zero-jedynkowa równoważności dla kodowania zgodnego ze zdaniem wypowiedzianym A:
TR=>KR=1
TR=1, ~TR=0
KR=1, ~KR=0
Precyzyjnie zdanie A jest wyłącznie warunkiem wystarczającym w logice dodatniej (bo TR).
Dopiero po udowodnieniu równoważności, co wyżej uczyniliśmy, możemy powiedzieć że zdanie A jest równoważnością.

Oczywiście zdanie A możemy wypowiedzieć w formie równoważności.
A.
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(~TR=>~KR)


6.0 ŚFIŃSKIE definicje implikacji i równoważności

Cała algebra Kubusia w zakresie implikacji i równoważności to jedna jedyna definicja warunku wystarczającego => plus prawa Kubusia z których wszystko wynika.

Definicja warunku wystarczającego => w logice dodatniej (bo q) w zapisie symbolicznym:
Kod:

A: p=>q=1
B: p=>~q=0

p=>q
Jeśli zajdzie p to musi zajść q
Z czego wynika że druga linia musi być twardym fałszem
Z czego wynika że p musi być wystarczające dla q

Przykład:
A.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1 – twarda prawda, gwarancja matematyczna, zachodzi zawsze bez wyjątków
B.
Jeśli liczba jest podzielna przez 8 to na pewno => nie jest podzielna przez 2
P8=>~P2 =0 – twardy fałsz wynikły z powyższego

Definicja warunku wystarczającego => w logice ujemnej (bo ~q) w zapisie symbolicznym:
Kod:

A: ~p=>~q=1
B: ~p=>q=0

~p=>~q
Jeśli zajdzie ~p to musi zajść ~q
Z czego wynika że druga linia musi być twardym fałszem
Z czego wynika że ~p musi być wystarczające dla ~q

Przykład:
A.
Jeśli liczba nie jest podzielna przez 2 to na pewno => nie jest podzielna przez 8
~P2=>~P8=1 – twarda prawda, gwarancja matematyczna
B.
Jeśli liczba nie jest podzielna przez 2 to na pewno => jest podzielna przez 8
~P2=>P8=0 – twardy fałsz wynikły z powyższego

Definicja kontrprzykładu
Wynika bezpośrednio z definicji warunku wystarczającego w algebrze Kubusia
Kod:

A.
Jeśli zajdzie p to „może”~~> zajść q
p~~>q=1
B.
Jeśli zajdzie p to „może” ~~> zajść ~q
p~~>~q=1

Gdzie:
~~> - naturalny spójnik „może”, wystarczy znaleźć jeden przypadek prawdziwy

Algorytm postępowania:
A.
Znajdujemy jeden przypadek prawdziwy p~~>q=1
B.
Znajdujemy jeden przypadek prawdziwy p~~>~q=1

Wnioski:
1.
Zajście A i B wyklucza warunek wystarczający między p i q
p=>q=0
2.
Zajście A i brak możliwości wystąpienia B jest dowodem zachodzenia warunku wystarczającego miedzy p i q
p=>q=1

Przykład:
Jeśli liczba jest podzielna przez 2 to na pewno => jest podzielna przez 8
P2=>P8 = ?
Na mocy definicji kontrprzykładu szukamy:
P2~~>P8=1 bo 8
P2~~>~P8=1 bo 2
Wniosek:
P2=>P8=0
CND

Definicja warunku koniecznego obowiązująca w całej algebrze Kubusia:
p~>q = ~p=>~q – I prawo Kubusia
~p~>~q = p=>q – II prawo Kubusia
Warunek konieczny między p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika zanegowany następnik.

Najważniejsza interpretacja praw Kubusia:
Udowodnienie warunku wystarczającego => z prawej strony równania Kubusia jest dowodem zachodzenia warunku koniecznego ~> z lewej strony równania Kubusia.

Wynika z tego, że całą logikę możemy sprowadzić do badania łatwych w dowodzeniu warunków wystarczających.

Definicja warunku koniecznego ~> w logice dodatniej (bo q)
I Prawo Kubusia:
p~>q = ~p=>~q
Zabieramy p wymuszając zniknięcie q
~p=>~q
Wtedy i tylko wtedy spełniony jest warunek konieczny ~> w zdaniu p~>q

Przykład:
A.
Jeśli jutro będzie pochmurno to może ~> padać
CH~>P=1
Prawo Kubusia:
CH~>P = ~CH=>~P
Zabieramy chmury wykluczając możliwość padania: ~CH=>~P
C.
Jeśli jutro nie będzie pochmurno to na pewno => nie będzie padać
~CH=>~P=1
Wniosek:
Warunek konieczny w zdaniu A zachodzi

Definicja warunku koniecznego ~> w logice ujemnej (bp ~q)
II Prawo Kubusia:
~p~>~q = p=>q
Wymuszamy p z czego musi wyniknąć q
p=>q
Wtedy i tylko wtedy spełniony jest warunek konieczny ~> w zdaniu ~p~>~q

Przykład:
A.
Jeśli jutro nie będzie padać to może ~> nie być pochmurno
~P~>~CH=1
Prawo Kubusia:
~P~>~CH = P=>CH
Wymuszając padanie deszczu wymuszamy istnienie chmur: P=>CH
C.
Jeśli jutro będzie padać to na pewno => będzie pochmurno
P=>CH=1
Wniosek:
Warunek konieczny w zdaniu A zachodzi

Definicja logiki dodatniej i ujemnej w implikacji i równoważności
p~>q = ~p=>~q
~p~>~q = p=>q
Zdanie „jeśli p to q” wyrażone jest w logice dodatniej wtedy i tylko wtedy gdy q nie jest zanegowane.


ŚFIŃSKIE definicje implikacji i równoważności wynikające bezpośrednio z praw Kubusia.

ŚFIŃSKA definicja implikacji prostej:
Zdanie „Jeśli p to q” jest implikacją prostą wtedy i tylko wtedy gdy między p i q zachodzi wyłącznie warunek wystarczający =>.
p=>q=1
p~>q=0
Definicja warunku koniecznego ~>:
p~>q = ~p=>~q =0
Badamy czy: ~p=>~q=0

Przykład:
jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1 – warunek wystarczający spełniony
Badamy warunek konieczny:
P8~>P2 = ~P8=>~P2=0 bo 3
stąd:
P8~>P2=0 – warunek konieczny niespełniony
Wniosek:
Zdanie P8=>P2 spełnia ŚFIŃSkĄ definicje implikacji prostej

ŚFIŃSKA definicja implikacji odwrotnej:
Zdanie „Jeśli p to q” jest implikacją odwrotną wtedy i tylko wtedy gdy między p i q zachodzi wyłącznie warunek konieczny ~>.
p~>q=1
p=>q=0
Definicja warunku koniecznego ~>:
p~>q = ~p=>~q =1
Badamy czy: ~p=>~q=1

Przykład:
Jeśli liczba jest podzielna przez 2 to może ~> być podzielna przez 8
P2~>P8=1 bo 8
Badamy warunek konieczny:
P2~>P8 = ~P2=>~P8=1
stąd:
P2~>P8=1 – warunek konieczny spełniony
P2=>P8=0 bo 2 – warunek wystarczający nie zachodzi
Wniosek:
Zdanie P2~>P8 spełnia ŚFIŃSKĄ definicję implikacji odwrotnej

ŚFIŃSKA definicja równoważności:
Zdanie „Jeśli p to q” jest równoważnością wtedy i tylko wtedy gdy miedzy p i q zachodzą jednocześnie warunki wystarczający i konieczny
p=>q=1
p~>q=1
Definicja warunku koniecznego ~>:
p~>q = ~p=>~q =1
Badamy czy: ~p=>~q=1

Definicja równoważności:
p<=>q = (p=>q)*(p~>q) = 1*1 =1
gdzie:
<=> - wtedy i tylko wtedy
=> - warunek wystarczający, spójnik „musi” => między p i q (identyczny jak w implikacji)
~> - warunek konieczny, w równoważności nie jest to spójnik „może” (rzucanie monetą) znany z implikacji !

Na mocy definicji warunku koniecznego ~> zapisujemy:
p<=>q = = (p=>q)*(p~>q) = (p=>q)*(~p=>~q)
bo:
p~>q = ~p=>~q – definicja warunku koniecznego

Zauważmy, że de facto w równoważności badamy zachodzenie warunku wystarczającego w logice dodatniej (bo q):
p=>q=1
oraz warunku wystarczającego w logice ujemnej (bo ~q):
~p=>~q=1
Precyzyjnie:
=> - warunek wystarczający , identyczny w implikacji i równoważności
Mniej precyzyjnie ale również dobrze:
=> - symbol równoważności w zdaniu „Jeśli p to q” o ile spełnia powyższą definicję

Uwaga:
W równoważności, i tylko tu, poprawne jest prawo kontrapozycji w tej postaci:
~p=>~q = q=>p
Stąd definicja równoważności uwielbiana przez matematyków:
p<=>q = (p=>q)*(q=>p)
gdzie:
=> - warunek wystarczający (nigdy implikacja! )

Po udowodnieniu warunku wystarczającego w kierunku p=>q, możemy zatem badać warunek wystarczający w kierunku q=>p.

Przykład:
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR

TR=>KR=1 – warunek wystarczający => spełniony
TR~>KR=~TR=>~KR=1 – warunek konieczny ~> spełniony
Wniosek:
Zdanie TR=>KR spełnia ŚFIŃSKĄ definicję równoważności

Oczywiście dopiero po udowodnieniu tego faktu możemy powiedzieć:
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(~TR=>~KR)

ŚFIŃSKA definicja naturalnego spójnika „może” ~~>
Zdanie jest prawdziwe na mocy naturalnego spójnika „może” ~~> jeśli znajdziemy przynajmniej jeden przypadek prawdziwy, wystarczy sama możliwość.

Przykład:
Jeśli liczba jest podzielna przez 8 to może być podzielna przez 2
P8~~>P2=1 bo 8
CND


6.1 Gimnazjalne definicje implikacji i równoważności

W tym punkcie poznamy kompletną teorię implikacji i równoważności zrozumiała dla ucznia I klasy gimnazjum. Zobaczmy jak wykładowca Kubuś uczy logiki w I klasie gimnazjum.

Wizytator, ekspert KRZ, na lekcji matematyki w I klasie gimnazjum.
Wykładowca: Kubuś

Temat lekcji:
Implikacja i równoważność

Wykład podstawowy.

Drogie dzieci!
W algebrze Kubusia mamy zaledwie trzy definicje załatwiające totalnie rozpoznawanie i prawdziwość dowolnej implikacji lub równoważności.
Są to:
A. Definicja warunku wystarczającego => (potocznie zwanego wynikaniem)
B. Gimnazjalna definicja implikacji
C. Gimnazjalna definicje równoważności

A.
Definicja warunku wystarczającego => (wynikania)

Kod:

A: p=> q=1
B: p=>~q=0

p=>q
Jeśli zajdzie p to na pewno => zajdzie q
Z czego wynika że p musi być wystarczające dla q
gdzie:
=> - symbol warunku wystarczającego, spójnik „na pewno” => w całym obszarze matematyki

Trzy sposoby dowodzenia warunku wystarczającego:

1.
Sprawdzamy czy dla każdego p zachodzi q
TAK, to koniec dowodu

2.
Szukamy jednego przypadku spełniającego A oraz jednego przypadku spełniającego B czyli:
Kod:

A: p~~> q=1
B: p~~>~q=1

gdzie:
~~> - naturalny spójnik „może”, wystarczy znaleźć jeden przypadek prawdziwy

Algorytm:
A1
Jeśli znajdziemy A i znajdziemy B to:
p=>q=0
A2
Jeśli znajdziemy A i wykluczymy B to:
p=>q=1

Przykład A1:
Jeśli liczba jest podzielna przez 2 to może ~~> być podzielna przez 8
P2~~>P8=1 bo 8
P2~~>~P8=1 bo 2
stąd:
P2=>P8=0

Przykład A2
Jeśli liczba jest podzielna przez 8 to może ~~> być podzielna przez 2
P8~~>P2=1 bo 8
P8~~>~P2=0 – nie ma takiej liczby
Stąd:
P8=>P2=1

3.
Szukamy jednego kontrprzykładu obalającego A:
Kod:

A: p=> q=1

Przykład:
Jeśli liczba jest podzielna przez 2 to na pewno => jest podzielna przez 8
P2=>P8=0 bo 2
cnd

W praktyce najprościej korzystać ze sposobu 3.

B.
Gimnazjalna definicja implikacji:


Implikacja to wynikanie => wyłącznie w jedna stronę
A: p=>q=1
B: q=>p=0

Przykład implikacji:
A.
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1
Zdanie odwrotne:
B.
Jeśli liczba jest podzielna przez 2 to na pewno => jest podzielna przez 8
P2=>P8=0 bo 2
Wniosek:
Zdanie A spełnia gimnazjalną definicję implikacji, w skrócie możemy powiedzieć że zdanie A jest implikacją.
cnd

Zauważmy, ze po udowodnieniu prawdziwości zdania A możemy o nim powiedzieć tylko i wyłącznie że jest to warunek wystarczający prawdziwy, absolutnie nic więcej. Rozstrzygającym dowodem iż zdanie A jest implikacją jest udowodnienie fałszywości zdania B!


C.
Gimnazjalna definicja równoważności


Równoważność to wynikanie => w dwie strony
A: p=>q=1
B: q=>p=1

Przykład równoważności:
A.
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR=1
Zdanie odwrotne:
B.
Jeśli trójkąt ma kąty równe to na pewno => jest równoboczny
KR=>TR=1

Wniosek:
Zdanie A spełnia gimnazjalna definicję równoważności, w skrócie możemy powiedzieć że zdanie A jest równoważnością!
cnd

Zauważmy, ze po udowodnieniu prawdziwości zdania A możemy o nim powiedzieć tylko i wyłącznie że jest to warunek wystarczający prawdziwy, absolutnie nic więcej. Rozstrzygającym dowodem iż zdanie A jest równoważnością jest udowodnienie prawdziwości zdania B!

Tylko i wyłącznie dla tego przypadku zdanie A możemy wypowiedzieć w formie równoważności:
C.
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(KR=>TR) = 1*1=1


Wnioski z gimnazjalnych definicji implikacji i równoważności:
1.
Warunek wystarczający p=>q jest identyczny w implikacji i równoważności
2.
Po udowodnieniu prawdziwości warunku wystarczającego p=>q zdania może być już tylko implikacją prawdziwą albo równoważnością prawdziwą. Nie ma innych możliwości matematycznych.
Warunek wystarczający może istnieć samodzielnie, czyli możemy udowodnić prawdziwość warunku wystarczającego => i nic więcej nie musimy dowodzić jeśli nic więcej nas nie interesuje.
3.
Na mocy powyższych definicji nic co jest równoważnością prawdziwą nie ma prawa być implikacja prawdziwą i odwrotnie.
4.
Algebra Kubusia w zakresie implikacji i równoważności jest w 100% jednoznaczna

Koniec wykładu!

… do akcji wkracza Wizytator!

Drogie dzieci, wszystko co wam Kubuś powiedział to brednie, brednie i jeszcze raz brednie!
Matematyka w zakresie implikacji i równoważności nigdy nie była i nigdy nie będzie jednoznaczna.

Otóż drogie dzieci w matematyce zwanej Klasycznym Rachunkiem Zdań istnieją implikacje prawdziwe z których da się zrobić równoważność.
Przykład:
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR=1
TR<=>KR = (TR=>KR)*(KR=>TR) = 1*1=1 – równoważność prawdziwa

Oraz istnieją implikacje prawdziwe z których nie da się zrobić równoważności.
Przykład:
Jeśli liczba jest podzielna przez 8 to na pewno => jest podzielna przez 2
P8=>P2=1
P8<=>P2 = (P8=>P2)*(P2=>P8 ) = 1*0 =0 – równoważność fałszywa

Oczywisty wniosek:
Matematyka w zakresie rozpoznawania implikacji nie jest jednoznaczna … a Kubuś bredzi.


7.0 Zdania twierdzące

Twierdzenie:
Dowolne zdanie twierdzące można zapisać w postaci warunku wystarczającego =>, w formie warunku koniecznego ~>, oraz w formie naturalnego spójnika „może” ~~>.

Dodatkowo zdanie twierdzące może spełniać definicję implikacji prostej, implikacji odwrotnej, albo równoważności.

Zobaczmy to na przykładach.


7.1 Implikacja prosta a zdania twierdzące

Definicja warunku wystarczającego:
Kod:

p=>q=1
p=>~q=0

p=>q
Jeśli zajdzie p to musi zajść q
Z czego wynika że zbiór p musi zawierać się w całości w zbiorze q
Z czego wynika że p musi być wystarczające dla q

Definicja warunku wystarczającego w zbiorach:



Przykład implikacji prostej wzorcowej:
A.
Jeśli zwierzę jest psem to na pewno => ma cztery łapy
P=>4L=1
p=>q=1
To samo w zbiorach:
P*4L=1
p*q=1
Zbiór psów zawiera się w całości w zbiorze zwierząt mających 4 łapy, stąd iloczyn logiczny tych zbiorów jest równy 1
Bycie psem wystarcza aby mieć 4 łapy.
W logice pomijamy psy kalekie, inaczej mamy zero logiki.
B.
Jeśli zwierze jest psem to na pewno => nie ma czterech łap
P=>~4L=0
p=>~q=0
To samo w zbiorach:
P*~4L=0
p*~q=0
Zbiór psów i zbiór zwierząt nie mających 4 łap to zbiory rozłączne, stąd iloczyn logiczny tych zbiorów jest równy 1.

… a jeśli zwierze nie jest psem ?
Prawo Kubusia:
P=>4L = ~P~>~4L

Definicja warunku koniecznego:
Warunek konieczny ~> miedzy p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika => zanegowany następnik
~P~>~4L = P=>4L
Warunek wystarczający w zdaniu A udowodniliśmy wyżej.
Stąd na mocy definicji wynika iż nie bycie psem (~P) jest warunkiem koniecznym ~>, aby nie mieć czterech łap (~4L).
CND

Definicja warunku koniecznego w logice ujemnej (bo ~q) w zbiorach:



Z powyższego diagramu odczytujemy:
C.
Jeśli zwierze nie jest psem to może ~> nie mieć czterech łap
~P~>~4L=1 bo kura, wąż …
~p~>~q=1
To samo w zbiorach:
~P*~4L=1
~P*~q=1
Zbiór zwierząt nie będących psami i zbiór zwierząt nie mających czterech łap ma cześć wspólną np. kura, wąż …
LUB
D.
Jeśli zwierzę nie jest psem to może ~~> mieć cztery łapy
~P~~>4L=1 bo słoń, koń …
~p~~>q=1
To samo w zbiorach:
~P*4L=1
~p*q=1
Zbiór zwierząt nie będących psami i zbiór zwierząt mających cztery łapy ma cześć wspólną np. słoń, koń …
W zdaniu D nie jest spełniony warunek konieczny bo prawo Kubusia:
D: ~P~>4L = B: P=>~4L=0
Zdanie B jest twardym fałszem, zatem w zdaniu D wykluczony jest warunek konieczny ~>.
Zdanie D jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy znaleźć jeden przypadek prawdziwy.

Zdania z naturalnego języka mówionego równoważne do zdania A:
A1. Jeśli dowolne zwierzę jest psem to na pewno => ma cztery łapy
A2. Jeśli zwierzę jest psem to ma cztery łapy
Uwaga;
W logice spójnik „na pewno =>” jest domyślny i nie musi być wypowiadany
A3. Jeśli to pies to ma cztery łapy
A4. Pies ma cztery łapy

W ostatnim przypadku warunek wystarczający A zredukowaliśmy do zdania twierdzącego.
Dowód iż zdanie A4 jest w rzeczywistości warunkiem wystarczającym jest banalny i wychodzi w pytaniu o „nie psa”.

A4.
Pies ma cztery łapy
P=>4L=1
1 1 =1
B4.
Pies nie ma czterech łap
P=>~4L=0
1 0 =0
… a jeśli to nie pies ?
Prawo Kubusia:
P=>4L= ~P~>~4L
Stąd poprawna odpowiedź:
C4.
Nie pies może ~> nie mieć czterech łap
~P~>~4L=1 bo kura
0 0 =1
LUB
D5.
Nie pies może ~~> mieć cztery łapy
~P~~>4L=1 bo słoń
0 1 =1
Uwaga:
W logice spójnik „może” nie jest domyślny i musi być wypowiedziany (wyjątkiem są tu groźby o których w dalszej części).
Doskonale widać definicje implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym:
P=1, ~P=0
4L=1, ~4L=0

Zauważmy, iż dopiero całkowita analiza zdania A4 upoważnia nas do stwierdzenia iż zdanie A4 to w rzeczywistości piękna implikacja prosta.

Zauważmy że traktowanie zdania A4 jako zdania twierdzącego w formie tożsamości (równoważności) jest matematycznie błędne bo:
A41.
Pies ma cztery łapy
P=4L=1
P=1 <=> 4L=1
B41.
Pies nie ma czterech łap
P=~4L=0
… a nie pies ?
W kodowaniu A41 mamy tożsamość matematyczną, stad po dwustronnej negacji otrzymujemy:
~P=~4L
czyli:
Nie pies nie ma czterech łap
~P=~4L=0 bo słoń
Wniosek:
Nie wolno zdania A41 kodować znakiem tożsamości, bowiem nie otrzymujemy poprawnej matematycznie odpowiedzi na pytanie o „nie psa”.


7.2 Implikacja odwrotna a zdania twierdzące

Implikacja odwrotna to złożenie warunku koniecznego ~> w logice dodatniej (bo q) z warunkiem wystarczającym => w logice ujemnej (bo ~q)

Definicja implikacji odwrotnej w równaniu algebry Boole’a:
p~>q = ~p=>~q – prawo Kubusia
gdzie:
~> - warunek konieczny, spójnik „może” miedzy p i q
=> - warunek wystarczający, spójnik „musi” między p i q

Definicja warunku koniecznego wynika z prawa Kubusia:
p~>q= ~p=>~q
Warunek konieczny ~> między p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika => zanegowany następnik.

Warunek konieczny w diagramie logiki wygląda następująco:



p~>q

Z wykresu odczytujemy definicje symboliczną warunku koniecznego w logice dodatniej (bo q).

Wzorcowa implikacja odwrotna:
A.
Jeśli zwierzę ma cztery łapy to może ~> być psem
4L~>P=1 bo pies
p~>q=1
To samo w zbiorach:
4L*P=1
p*q=1
Istnieje część wspólna zbiorów 4L i P, to pies
LUB
B.
Jeśli zwierzę ma cztery łapy to może ~~> nie być psem
4L~~>~P=1 bo słoń, koń …
p~~>q=1
To samo w zbiorach:
4L*~P=1
Istnieje cześć wspólna zbiorów 4L i P, to słoń, koń …
… a jeśli zwierze nie ma czterech łap ?
Prawo Kubusia:
4L~>P = ~4L=>~P
Zobaczmy to na diagramie logicznym:



~p=>~q

Z diagramu odczytujemy:
C.
Jeśli zwierzę nie ma czterech łap to na pewno => nie jest psem
~4L=>~P=1 bo kura, wąż ..
~p=>~q=1
To samo w zbiorach:
~4L*~P=1
~p*~q=1
Istnieje cześć wspólna zbiorów ~4L i ~P, to kura, wąż …
D.
Jeśli zwierzę nie ma czterech łap to na pewno => jest psem
~4L=>P=0
~p=>q=0
To samo w zbiorach:
~4L*P=0
~p*q=0
Zbiór zwierząt nie mających czterech łap i zbiór zwierząt będących psami to zbiory rozłączne, stąd fałsz w wyniku.

Budowa zdań twierdzących na bazie implikacji odwrotnej to opuszczenie spójnika „Jeśli…to…”.

Ta sama analiza w formie zdań twierdzących.
A.
Zwierzę które ma cztery łapy może ~> być psem
4L~>P=1 bo pies
1 1 =1
B.
Zwierzę które ma cztery łapy może ~~> nie być psem
4L~~>~P=1 bo słoń, koń …
1 0 =1
… a jeśli zwierzę nie ma czterech łap ?
Prawo Kubusia:
4L~>P = ~4L=>~P
C.
Zwierzę które nie ma czterech łap na pewno => nie jest psem
~4L=>~P=1
0 0 =1
D.
Zwierzę które nie ma czterech łap na pewno => jest psem
~4L=>P=0
0 1 =0
W zdaniu B nie zachodzi warunek konieczny ~> bo prawo Kubusia:
B: 4L~>~P = D: ~4L=>P =0
Prawa strona jest fałszem, zatem w zdaniu B nie może zachodzić warunek konieczny.
Zdanie B jest prawdziwe na mocy naturalnego spójnika „może” ~~>, wystarczy pokazać jeden przypadek prawdziwy.


7.3 Równoważność a zdania twierdzące

Definicja równoważności:
p<=>q = (p=>q)*(~p=>~q)

Równoważność to jednoczesne zachodzenie warunku wystarczającego w logice dodatniej (bo q) i warunku wystarczającego w logice ujemnej (bo ~q)

Zobaczmy to na diagramach logiki:



Warunek wystarczający w logice dodatniej:
p=>q=1
p=>~q=0
Z diagram widzimy, że zbiory p I q są dokładnie tymi samymi zbiorami:
p=q
co wymusza tożsamość zbiorów:
~p=~q



Warunek wystarczający w logice ujemnej:
~p=>~q=1
~p=>q=0
Z diagram widzimy, że zbiory ~p I ~q są dokładnie tymi samymi zbiorami:
~p=~q
co wymusza tożsamość zbiorów:
p=q

Z powyższego mamy operatorową definicję równoważności.
p<=>q = (p=>q)*(~p=>~q)

Wzorcowa równoważność:

Warunek wystarczający w logice dodatniej (bo KR)
A.
Jeśli trójkąt jest równoboczny to na pewno => ma kąty równe
TR=>KR=1 – gwarancja matematyczna
p=>q=1
To samo w zbiorach:
TR*KR=1
p*q=1
Istnieje cześć wspólna zbioru trójkątów o równych bokach i trójkątów o równych kątach, to dokładnie te same zbiory
B.
Jeśli trójkąt jest równoboczny to na pewno=> nie ma kątów równych
TR=>~KR=0
p=>~q=0
To samo w zbiorach:
TR*~KR=0
p*~q=0
Zbiór trójkątów o równych bokach i zbiór trójkątów o nie równych kątach to zbiory rozłączne, stąd zero w wyniku (fałsz).

Warunek wystarczający w logice ujemnej (bo ~KR)
C.
Jeśli trójkąt nie jest równoboczny to na pewno => nie ma katów równych
~TR=>~KR=1 – gwarancja matematyczna
~p*~q=1
To samo w zbiorach:
~TR*~KR==1
~p*~q=1
Zbiory ~TR i ~KR są dokładnie tymi samymi zbiorami, stąd jedynka w wyniku (prawda)
D.
Jeśli trójkąt nie jest równoboczny to na pewno => ma kąty równe
~TR=>KR=0
~p=>q=0
To samo w zbiorach:
~TR*KR=0
~p*q=0
Zbiory ~TR i KR są rozłączne, stąd zero w wyniku (fałsz).

Oczywiście zdanie A możemy wypowiedzieć w formie równoważności.
A.
Trójkąt jest równoboczny wtedy i tylko wtedy gdy ma kąty równe
TR<=>KR = (TR=>KR)*(~TR=>~KR)

Ta sama analiza po redukcji spójnika „Jeśli…to…”, czyli w formie zdań twierdzących.
A.
Trójkąt równoboczny ma kąty równe
(TR=KR) =1
1 1 =1
B.
Trójkąt równoboczny nie ma kątów równych
(TR=~KR) =0
1 0 =0
… a jeśli trójkąt nie ma katów równych ?
Negujemy tożsamość A dwustronnie:
(TR=KR) = (~TR=~KR)
C.
Trójkąt nierównoboczny nie ma kątów równych
(~TR = ~KR) =1
0 0 =1
D.
Trójkąt nierównoboczny ma kąty równe
(~TR=KR) =0
0 1 =0
Doskonale widać, tabele zero-jedynkowa równoważności dla kodowania zgodnego ze zdaniem wypowiedzianym A:
TR=>KR=1
TR=1, ~TR=0
KR=1, ~KR=0

Zauważmy że w tym przypadku możemy używać znaku tożsamości, bowiem otrzymujemy poprawną odpowiedź na pytanie o trójkąty nierównoboczne


8.0 Implikacje nietypowe

Dotychczas rozważaliśmy implikacje i równoważności w których p i q należały do tej samej dziedziny oraz zbiory p i q nie były zbiorami rozłącznymi. W praktyce naturalnego języka mówionego praktycznie wszystkie zdania spełniają powyższy warunek.

Matematycznie, prawdziwe są też zdania w których p i q należy do tej samej dziedziny, gdzie p i q to zbiory rozłączne.

Przykład:
Jeśli zwierzę jest psem to na pewno nie jest kurą
P=>~K=1
To samo w formie zdania twierdzącego:
Pies to nie kura
p=>q
Dziedzina po stronie poprzednika p: zbiór wszystkich zwierząt
Dziedzina po stronie następnika q: zbiór wszystkich zwierząt

Matematycznie, prawdziwe są również zdania w których p i q należą do różnych dziedzin. Oczywiście wymusza to rozłączność zbiorów p i q.

Przykład:
Jeśli coś jest psem to na pewno => nie jest samochodem
P=>~S=1
To samo w formie zdania twierdzącego:
Pies to nie samochód
p=>~q
Dziedzina po stronie poprzednika: zbiór wszystkich zwierząt
Dziedzina po stronie następnika: zbiór pojazdów mechanicznych
Dziedzina wspólna: uniwersum (wszystkie możliwe zbiory)

… i wszystko jasne !
Czyż trzeba kogokolwiek przekonywać dlaczego zdania jak wyżej nie są używane w praktyce języka mówionego ?

Oczywiście takie zdania mają sens w fazie nauki języka mówionego niemowlaka, albo w kabarecie.

Jak widzimy zdania te mają formę:
p=>~q

Zobaczmy to na diagramie:



p=>~q

Na mocy powyższego diagramu, ogólna analiza tego typu implikacji jest następująca.
A.
Jeśli zajdzie p to na pewno => zajdzie ~q
p=>~q=1
1 1 =1
To samo w zbiorach:
p*~q=1
1*1=1
Zbiory p=1 i ~q=1 istnieją i są niepuste.
Zbiór p zawiera się w całości w zbiorze ~q
B.
Jeśli zajdzie p to na pewno => zajdzie q
p=>q=0
1 0 =0
To samo w zbiorach:
p*q=0
1*1=0
Zbiory p=1 i q=1 istnieją i są niepuste, ale są rozłączne, stąd ich iloczyn logiczny jest równy zeru (fałsz)
Zdania A i B spełniają definicje warunku wystarczającego:
Kod:

p=>~q=1
p=>q=0

… a jeśli zajdzie ~p ?
Prawo Kubusia:
p=>~q = ~p~>q
C.
Jeśli zajdzie ~p to może ~> zajść q
~p~>q=1
0 0 =1
To samo w zbiorach:
~p*q=1
1*1=1
Zbiory ~p=1 i q=1 istnieją i są niepuste, oraz mają część wspólną, stąd w wyniku mamy jeden (prawda)
LUB
D.
Jeśli zajdzie ~p to może ~~> zajść ~q
~p~~>~q=1
0 1 =1
To samo w zbiorach:
~p*~q=1
1*1=1
Zbiory ~p=1 i ~q=1 istnieją i są niepuste, oraz mają część wspólną, stąd w wyniku mamy jeden (prawda).

Uwagi:
1.
Doskonale widać tabelę zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym p=>~q czyli:
p=1, ~p=0
~q=1, q=1
2.
Nie ma tu szans na równoważność bowiem zbiory p i q są rozłączne, natomiast w równoważności zbiory p i q musza być dokładnie tymi samymi zbiorami.
3.
W szczególny przypadku, gdy zbiór q jest zbiorem pustym, zdanie wypowiedziane A będzie spełniać wyłącznie definicję warunku wystarczającego.

Analiza ogólna zdania A dla przypadku, gdy zbiór q jest zbiorem pustym.
Oczywiście iloczyn logiczny zbioru pustego i dowolnego innego zbioru jest zbiorem pustym.

Założenie:
q=0 – zbiór pusty o wartości logicznej zero (fałsz)

Dla tego przypadku będziemy mieli:
A.
Jeśli zajdzie p to na pewno => zajdzie ~q
p=>~q=1
1 1 =1
To samo w zbiorach:
p*~q=1
1*1=1
Zbiory p=1 i ~q=1 istnieją i są niepuste.
Zbiór p zawiera się w całości w zbiorze ~q
B.
Jeśli zajdzie p to na pewno => zajdzie q
p=>q=0
1 0 =0
To samo w zbiorach:
p*q=0
1*0=0
Zbiór q=0 jest zbiorem pustym, stąd iloczyn logiczny jest równy zeru, niezależnie od wzajemnego położenia zbiorów p i q.
Zdania A i B spełniają definicje warunku wystarczającego:
Kod:

p=>~q=1
p=>q=0

… a jeśli zajdzie ~p ?
Prawo Kubusia:
p=>~q = ~p~>q
C.
Jeśli zajdzie ~p to może ~> zajść q
~p~>q=0
0 0 =0
To samo w zbiorach:
~p*q=1
1*0=0
Zero w wyniku wymusza zbiór pusty q=0 o wartości logicznej zero (fałsz)
LUB
D.
Jeśli zajdzie ~p to może ~~> zajść ~q
~p~~>~q=1
0 1 =1
To samo w zbiorach:
~p*~q=1
1*1=1
Zbiory ~p=1 i ~q=1 istnieją i są niepuste, oraz mają część wspólną, stąd w wyniku mamy jeden (prawda).

Doskonale widać, że zdanie A nie spełnia definicji zero-jedynkowej implikacji prostej dla kodowania zgodnego z tym zdaniem p=>~q czyli:
p=1, ~p=0
~q=1, q=0

tabela zero-jedynkowa jaka tu otrzymujemy wygląda następująco:
Kod:

   p ~q p=>~q
Warunek wystarczający
A: 1  1  =1
B: 1  0  =0
Dalsza część nie ma nic wspólnego ani z implikacją ani z równoważnością
C: 0  0  =0
D: 0  1  =1

Uwagi:
1.
Warunek wystarczający => może istnieć samodzielnie, przykład: zdanie A wyżej
2.
Warunek konieczny ~> nie może istnieć samodzielnie bowiem nie pozwala na to jego definicja.

Definicja warunku koniecznego:
p~>q = ~p=>~q – I prawo Kubusia
~p~>~q = p=>q – II prawo Kubusia
Warunek konieczny ~> miedzy p i q zachodzi wtedy i tylko wtedy, gdy z zanegowanego poprzednika wynika => zanegowany następnik.

Przykład zdania p=>~q gdzie q nie jest zbiorem pustym:
A.
Jeśli zwierze jest psem to na pewno => nie ma dwóch nóg
P=>~2N=1
1 1 =1
To samo w zbiorach:
P*~2N=1
1*1=1
Zbiór zwierząt będących psami (P=1) i zbiór zwierząt nie mających 2 nóg (~2N=1) jest zbiorem niepustym bo pies, stąd iloczyn logiczny jest równy 1 (prawda).
B.
Jeśli zwierze jest psem to na pewno => ma dwie nogi
P=>2N=0
1 0 =0
To samo w zbiorach:
P*2N=0
1*1=0
Zbiór psów (P=1) i zbiór zwierząt mających dwie nogi (2N=1) to zbiory rozłączne, zatem ich iloczyn logiczny jest równy zero (fałsz)
… a jeśli zwierze nie jest psem ?
Prawo Kubusia:
P=>~2N = ~P~>2N
C.
Jeśli zwierze nie jest psem to może > mieć dwie nogi
~P~>2N=1 bo kura
0 0 =1
To samo w zbiorach:
~P*2N=1
1*1=1
Istnieje zbiór zwierząt nie będących psami (~P=1) oraz zbiór zwierząt mających dwie nogi (2N=1).
Zbiory te maja część wspólną (kura), stad wynik iloczynu logicznego równy 1 (prawda)
LUB
D.
Jeśli zwierze nie jest psem to może ~~> nie mieć dwóch nóg
~P~~>~2N=1 bo słoń
0 1 =1
To samo w zbiorach:
~P*~2N=1
1*1=1
Istnieje zbiór zwierząt nie będących psami (~P=1) oraz zbiór zwierząt nie mających dwóch nóg (~2N=1).
Zbiory te maja część wspólną (słoń), stad wynik iloczynu logicznego równy 1 (prawda)

Doskonale widać zero-jedynkową definicję implikacji prostej dla kodowania zgodnego ze zdaniem P=>~2N czyli:
P=1, ~P=0
~2N=1, 2N=0

Przykład zdania p=>~q gdzie q jest zbiorem pustym:
A.
Jeśli zwierze jest psem to na pewno nie ma miliona nóg
P=>~MN=1
1 1 =1
To samo w zbiorach:
P*~MN=1
1*1=1
B.
Jeśli zwierze jest psem to na pewno ma milion nóg
P=>NM=0
1 0 =0
To samo w zbiorach:
P*MN=1
1*0=0
Bo zbiór zwierząt mających milion nóg jest zbiorem pustym czyli: MN=0
… a jeśli zwierze nie jest psem ?
Prawo Kubusia:
P=>~MN = ~P~>MN
C.
Jeśli zwierze nie jest psem to może mieć milion nóg
~P~>MN=0
0 0 =0
To samo w zbiorach:
~P*MN=0
1*0=0
Bo zbiór zwierząt mających milion nóg jest zbiorem pustym czyli: MN=0
LUB
D.
Jeśli zwierze nie jest psem to może nie mieć miliona nóg
~P~~>~MN=1
0 1 =1
To samo w zbiorach:
~P*~MN=1
1*1=1
Istnieje zbiór nie psów (~P=1) i zbiór zwierząt nie mających miliona nóg (~MN=1).
Zbiory te maja cześć wspólną (kura, sloń…), stad wynik iloczynu logicznego równy 1 (prawda).

Doskonale widać że zdanie A spełnia wyłącznie definicję warunku wystarczającego:
Kod:

   P ~MN P=>~MN
Definicja warunku wystarczającego
A: 1  1   =1
B: 1  0   =0
To co niżej nie jest ani warunkiem wystarczającym ani koniecznym
C: 0  0   =0
D: 0  1   =1


Ostatnio zmieniony przez Rafal3011 dnia Wto 10:48, 15 Lis 2011, w całości zmieniany 22 razy
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 32672
Przeczytał: 43 tematy

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Pon 0:55, 10 Paź 2011    Temat postu:

9.0 Algebra Kubusia w równaniach logicznych

W naturalnym języku mówionym każdy człowiek posługuje się równaniami algebry Kubusia (algebry Boole’a), nigdy tabelami zero-jedynkowymi.

Twierdzenie:
Dowolną tabele zero-jedynkową można zapisać w postaci równoważnego równania algebry Kubusia i odwrotnie.

Równania algebry Kubusia można łatwo minimalizować. Szczególnie użyteczna jest tu technika przechodzenia do logiki ujemnej i z powrotem co za chwile zobaczymy.

Operatory implikacji i równoważności to operatory dwuargumentowe.
Równania algebry Kubusia z operatorami implikacji i równoważności są banalne.
Prawa Kubusia:
p=>q = ~p~>~q – definicja operatora implikacji prostej
p~>q = ~p=>~q – definicja operatora implikacji odwrotnej
Definicja równoważności:
p<=>q = (p=>q)*(~p=>~q) = (p=>q)*(q=>p)
gdzie:
=> - warunek wystarczający
~> - warunek konieczny

Definicja warunku wystarczającego:
Kod:

p=>q=1
p=>~q=0

p=>q
Jeśli zajdzie p to musi zajść q
Z czego wynika że druga linia musi być fałszem
Z czego wynika że p musi być wystarczające dla q

Definicja warunku koniecznego:
p~>q = ~p=>~q
~p~>~q = p=>q
Warunek konieczny ~> miedzy p i q zachodzi wtedy i tylko wtedy gdy z zanegowanego poprzednika wynika => zanegowany następnik.

Zupełnie inną sytuację mamy w operatorach AND i OR, gdzie argumentów może być nieskończenie wiele. Fundament algebry Kubusia w operatorach OR i AND to zaledwie dwie definicje, definicja spójnika „i” oraz definicja spójnika „lub”.


9.1 Prawa wynikające z definicji operatora AND

Definicja zero-jedynkowa operatora AND:
Kod:

p q Y=p*q
1 1  =1
1 0  =0
0 1  =0
0 0  =0


Definicja iloczynu logicznego w logice dodatniej:
Iloczyn logiczny n-zmiennych binarnych jest równy jeden wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden.
Y=A*B
Y=1 <=> A=1 i B=1

Definicja równoważna w logice ujemnej:
Iloczyn logiczny jest równy zeru gdy którakolwiek zmienna jest równa zeru.
Y=A*B
Y=0 <=> A=0 lub B=0
Zauważmy, że mamy tu niezgodność z naturalną logiką człowieka. W zapisie matematycznym mamy spójnik „i”(*) a w rozwinięciu szczegółowym używamy spójnika „lub”(+) – dlatego to jest logika ujemna.

Prawa wynikające bezpośrednio z tej definicji:
1*0=0
1*1=1
A*0=0
A*1=A
A*A=A
A*~A=0
Odpowiedniki z języka mówionego:
Pies szczeka i miauczy
P=>S*M = S*0 =0
Pies szczeka i szczeka
P=>S*S = S*1= S
Pies szczeka i nie szczeka
P=>S*~S = 1*0=0

Przykłady z języka mówionego:
A.
Jutro pójdę do kina i pójdę do kina = jutro pójdę do kina
Y=K*K=K
B.
Jutro pójdę do kina i nie pójdę do kina
Y=K*~K=0 – sprzeczność, sytuacja niemożliwa, dlatego wartość logiczna zdania to fałsz (0).

W naturalnym języku mówionym zdania A i B to bełkot, dlatego nikt tak nie mówi.


9.2 Prawa wynikające z definicji operatora OR

Definicja zero-jedynkowa operatora OR:
Kod:

p q Y=p+q
1 1  =1
1 0  =1
0 1  =1
0 0  =0


Definicja sumy logicznej w logice dodatniej:
Suma logiczna n-zmiennych binarnych jest równa jeden gdy którakolwiek zmienna jest równa 1
Y=A+B
Y=1 <=> A=1 lub B=1

Definicja równoważna w logice ujemnej:
Suma logiczna n-zminnych binarnych jest równa zeru wtedy i tylko wtedy gdy wszystkie zmienne są równe zeru.
Y=A+B
Y=0 <=> A=0 i B=0
Zauważmy, że mamy tu niezgodność z naturalną logiką człowieka. W zapisie matematycznym mamy spójnik „lub”(+) a w rozwinięciu szczegółowym używamy spójnika „i”(*) – dlatego to jest logika ujemna.

Prawa wynikające bezpośrednio z tej definicji:
1+0=1
0+0=0
A+1=1
A+0=A
A+A=A
A+~A=1
Odpowiedniki z języka mówionego, wątpliwej jakości
Pies szczeka lub miauczy
P=>S+M = S+0 = S+0 =S
Pies miauczy lub miauczy
P=>M+M = 0+0=0
Pies szczeka lub szczeka
P=>S+S = S+1= S
Pies szczeka lub nie szczeka
P=>S+~S=1+0=1

Przykłady z języka mówionego:
C.
Jutro pójdę do kina lub pójdę do kina = jutro pójdę do kina
Y=K+K = K
D.
Jutro pójdę do kina lub nie pójdę do kina
Y=K+~K=1
Twarda prawda, bowiem jutro musi wystąpić K lub ~K, nie ma innej możliwości matematycznej.
Nikt tak nie mówi, bowiem mamy tu zero sensu, czyli nic nie zależy od decyzji człowieka, cokolwiek zrobi, nie skłamie. W technice cyfrowej takie połączenie sygnałów to również bezsens, zero logiki.

Czasami mówimy:
Jutro pójdę do kina albo nie pójdę do kina
Y=K+~K
Wyrażając tym samym swoje niezdecydowanie, dając do zrozumienia odbiorcy, że rozważmy pójście do kina ale nie jesteśmy tego pewni.
Zdania równoważne:
Zastanawiam się czy jutro pójść do kina
Możliwe że jutro pójdę do kina
itp


9.3 Najważniejsze prawa algebry Kubusia

W języku mówionym prawa łączności i przemienności to oczywistość, natomiast absorpcja, rozdzielność i pochłanianie są przydatne jedynie w technice cyfrowej.

Kolejność wykonywania działań:
nawiasy, AND, OR

Łączność:
A+(B+C) = (A+B)+C
A*(B*C)=(A*B)*C

Przemienność:
A+B=B+C
A*B=B*C

Absorpcja:
A+(A*B)=A
A*(A+B)=A

Rozdzielność:
A+(B*C) = (A+B)*(A+C)
A*(B+C)=(A*B)+(A*C)

Pochłanianie – fundament algebry Kubusia (i algebry Boole’a):
1.
A*~A=0 – iloczyn logiczny zbioru A i jego dopełnienia ~A jest zbiorem pustym (=0).
Żaden element zbioru A nie ma prawa należeć do zbioru ~A (zbiory rozłączne)
2.
A+~A=1 – suma logiczna zbioru A i zbioru ~A jest zbiorem pełnym (=1)
Zbiór ~A jest dopełnieniem zbioru A do dziedziny (zbioru pełnego)

Zbiór pełny = dziedzina na której operuje zdanie lub cześć zdania


9.4 Metody upraszczania równań algebry Kubusia

Podstawowe metody pokażemy na przykładzie praw logicznych przedstawionych w poprzednim punkcie.

Definicja bramki logicznej
Bramka logiczna to układ fizyczny o n wejściach (A,B,C…) i tylko jednym wyjściu (Y) realizujący ściśle określoną funkcje logiczną

Bramka logiczna = funkcja logiczna

Przykład funkcji logicznej:
Y=A+B(C+~D)
Zarówno wejścia logiczne (A,B,C,D…) jak i wyjście logiczne to zmienne binarne mogące przyjmować w osi czasu wyłącznie dwie wartości, zero albo 1.

Absorbcja:
A+(A*B)=A
1.
Dowód metodą bramek logicznych (funkcji logicznej Y):
Y=A+(A*B)
Jeśli A=1 to Y=A+(A*B)=1+(A*B)=1+x=1
Jeśli A=0 to Y=A+(A*B)=0+(0*B)=0+0=0
niezależnie od wartości B
stąd:
Y=A+(A*B)=A
CND
2.
Ten sam dowód metodą rachunku zero-jedynkowego:
Kod:

A B A*B A+A*B
1 1 =1   =1
1 0 =0   =1
0 1 =0   =0
0 0 =0   =0

Tożsamość kolumn pierwszej i ostatniej jest dowodem zachodzenia prawa absorpcji:
A+A*B = A

Zauważmy, że przy wypełnianiu tabeli zero-jedynkowej korzystamy wyłącznie z dwóch definicji.

Definicja iloczynu logicznego w logice dodatniej:
Iloczyn logiczny n-zmiennych binarnych jest równy jeden wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden.
Y=A*B
Y=1 <=> A=1 i B=1

Definicja sumy logicznej w logice dodatniej:
Suma logiczna n-zmiennych binarnych jest równa jeden gdy którakolwiek zmienna jest równa 1
Y=A+B
Y=1 <=> A=1 lub B=1

Koniec !
Absolutnie nic więcej nie jest nam potrzebne do poprawnego wypełnienia tabeli zero-jedynkowej dowolnej funkcji logicznej.

Absorpcja:
A*(A+B)=A
1.
Dowód metoda bramek logicznych (funkcji logicznej Y):
Y=A*(A+B)
Jeśli A=1 to Y=A*(A+B)= 1*(1+B)=1*1=1
Jeśli A=0 to Y=A*(A+B)=0*(A+B)=0
niezależnie od wartości B.
stąd:
Y=A*(A+B)=A
CND
2.
Ten sam dowód metodą rachunku zero-jedynkowego:
Kod:

A B A+B A*(A+B)
1 1 =1   =1
1 0 =1   =1
0 1 =1   =0
0 0 =0   =0

Tożsamość kolumn pierwszej i ostatniej jest dowodem zachodzenia prawa absorpcji:
A*(A+B) = A

Rozdzielność:
A+(B*C) = (A+B)*(A+C)

Uwaga:
Zasady mnożenia wielomianów w algebrze Kubusia są identyczne jak w matematyce klasycznej, mnożymy każdy element z każdym.
1.
Dowód metodą mnożenia wielomianów plus prawo absorpcji:
Y=(A+B)*(A+C) = A*A+A*C+B*A+B*C
A*A=A
stąd:
Y== (A+A*C)+A*B+B*C
A+A*C=A – absorpcja
stąd:
Y=A+A*B+B*C
A+A*B=A – absorpcja
stąd:
Y=A+B*C = A+(B*C)
CND

2.
Ten sam dowód metodą bramek logicznych:
Y=(A+B)*(A+C)
Jeśli A=0 to Y=B*C
Jeśli A=1 to Y=(1+B)*(1+C) = 1*1=1
stąd:
Y=A+B*C = A+(B*C)
Suma logiczna jest tu wymuszona przez przypadek:
Jeśli A=1 to Y=1
CND

Rozdzielność:
A*(B+C)=(A*B)+(A*C)

1.
To jest najzwyklejsze mnożenie zmiennej przez wielomian znane z matematyki klasycznej
CND

2.
Dowód przez przejście do logiki ujemnej plus redukcja przy pomocy prawa absorpcji:
Y=(A*B)+(A*C)
Przejście do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów:
~Y=(~A+~B)*(~A+~C) = ~A*~A+~A*~C+~B*~A+~B*~C
~A*~A=~A
stad:
~Y=~A+~A*~C+~B*~A+~B*~C
~A+~A*~C=~A – absorpcja
stąd:
~Y=~A+~A*~B + ~B*~C
~A+~A*~B=~A – absorpcja
stąd:
~Y = ~A + ~B*~C
Przejście do logiki dodatniej poprzez negacje zmiennych i wymianę operatorów:
Y=A(B+C)
CND

3.
Dowód metodą bramek logicznych:
Y=(A*B)+(A*C)
Jeśli A=0 to Y=(0*B)+(0*C) = 0+0=0
jeśli A=1 to Y=(1*B)+(1*C) = B+C
stąd:
Y=A*(B+C)
Iloczyn logiczny jest tu wymuszony przez przypadek:
Jeśli A=0 to Y=0
CND

4.
Dowód metodą rachunku zero-jedynkowego:
Kod:

A B C B+C A(B+C) A*B A*C (A*B)+(A*C)
1 1 1  1   1      1   1    1
1 1 0  1   1      1   0    1
1 0 1  1   1      0   1    1
1 0 0  0   0      0   0    0
0 1 1  1   0      0   0    0
0 1 0  1   0      0   0    0
0 0 1  1   0      0   0    0
0 0 0  0   0      0   0    0

Tożsamość kolumn 5 i ostatniej jest dowodem zachodzenia prawa rozdzielności:
A(B+C) = (A*B)+(A*C)


9.5 Tworzenie równań algebry Kubusia z tabel zero-jedynkowych

Dowolną tabelę zero-jedynkową możemy opisać jednoznacznie równaniem algebry Kubusia i odwrotnie, czyli na podstawie dowolnego równania algebry Kubusia możemy wygenerować jednoznaczną tabelę zero- jedynkową.

W tym przypadku:
Równania algebry Kubusia = Równania algebry Boole’a

Twierdzenie Prosiaczka mówi o sposobie przejścia z tabeli zero-jedynkowej n-elementowej do równania algebry Boole’a opisującego tą tabelę.

Definicja zero-jedynkowa operatora OR:
Kod:

p q  Y=p+q
1 1 =1
1 0 =1
0 1 =1
0 0 =0


Kubuś, nauczyciel logiki w I klasie LO w stumilowym lesie:
Kto potrafi z powyższej tabeli zero-jedynkowej wygenerować równanie algebry Boole’a ?

Wszystkie ręce w górze, do tablicy podchodzi Jaś:
W ostatniej linii w wyniku mamy samotne zero, zatem dla tej linii możemy zapisać najprostsze równanie.

Z tabeli widzimy że:
A.
Y=0 <=> p=0 i q=0
Przejście z takiego zapisu do równań algebry Boole’a jest banalne. Należy skorzystać z definicji iloczynu logicznego sprowadzając wszystkie zmienne do jedynki albo z definicji sumy logicznej sprowadzając wszystkie zmienne do zera.

Sposób I.
Sprowadzam wszystkie zmienne do jedynki dzięki czemu w równaniu algebry Kubusia możemy się pozbyć bezwzględnych zer i jedynek:
B.
Y=0 czyli ~Y=1
p=0 czyli ~p=1
q=0 czyli ~q=1

Definicja iloczynu logicznego (logika dodatnia):
Iloczyn logiczny (spójnik „i”) n-zmiennych binarnych jest równy jeden wtedy i tylko wtedy gdy wszystkie zmienne są równe jeden.
Y=p*q
Y=1 <=> p=1 i q=1

Korzystając z A i B na podstawie tej definicji mamy:
~Y=1 <=> ~p=1 i ~q=1
mając sprowadzone wszystkie zmienne do tej samej wartości logicznej, opuszczamy bezwzględne jedynki.
stąd:
~Y = ~p*~q
Przechodzimy do logiki przeciwnej metodą przedszkolaka negując wszystkie zmienne i wymieniając spójniki na przeciwne.
Y = p+q

Sposób II
Sprowadzamy wszystkie zmienne do zera i stosujemy definicję sumy logicznej.

Definicja sumy logicznej (logika ujemna):
Suma logiczna (spójnik „lub”) n-zmiennych binartnych jest równa zeru wtedy i tylko wtedy gdy wszystkie składniki sumy są równe zeru
Y=p+q
Y=0 <=>p=0 i q=0
Zauważmy, że mamy tu niezgodność zapisu z naturalną logiką człowieka.
W równaniu algebry Kubusia mamy spójnik „lub”(+):
Y=p+q
natomiast w szczegółowej rozpisce mamy spójnik „i”(*):
Y=0 <=>p=0 i q=0
dlatego to jest logika ujemna!

W równaniu A wszystkie zmienne są równe zeru, zatem tu nic nie musimy robić, od razu mamy równanie algebry Kubusia dla powyższej tabeli zero-jedynkowej.
A.
Y=0 <=> P=0 i q=0
stąd:
Y=p+q

Kubuś:
Jasiu, zapisałeś równanie algebry Kubusia wyłącznie dla ostatniej linii, skąd wiesz jakie będą wartości logiczne w pozostałych liniach, nie opisanych tym równaniem ?

Twierdzenie Prosiaczka:
Równania algebry Kubusia dla dowolnej tabeli zero-jedynkowej n-elementowej tworzymy na podstawie linii z tą samą wartością logiczną w wyniku. Wszelkie nie opisane równaniem linie przyjmą wartości przeciwne do linii opisanych. Dla dowolnej tabeli zero-jedynkowej możliwe jest wygenerowanie ośmiu równań algebry Kubusia.

Powyżej ułożyliśmy równanie wyłącznie dla ostatniej linii tabeli gdzie w wyniku było zero, wszelkie pozostałe linie, zgodnie z twierdzeniem Prosiaczka muszą być jedynkami niezależnie od chciejstwa człowieka … bo to jest matematyka przecież.

Kubuś:
Z tego co mówisz wynika, że dla powyższej tabeli można ułożyć równoważne równania dla linii z jedynkami w wyniku, czy potrafisz je zapisać ?

Jaś:
Postępujemy identycznie jak wyżej !
Korzystnie jest tu przejść do tabeli symbolicznej w logice dodatniej (do teorii zbiorów! ) przyjmując:
p=1, ~p=0
q=1, ~q=0
Y=1, ~Y=0
Stąd mamy definicję sumy logicznej w wersji symbolicznej:
Kod:

Dotrzymam słowa (Logika dodatnia bo Y) gdy:
Y=p+q = p*q+p*~q+~p*q
 p* q = Y   /1 1 =1
 p*~q = Y   /1 0 =1
~p* q = Y   /0 1 =1
Skłamię (logika ujemna bo ~Y) gdy:
~p*~q =~Y   /0 0 =0

Stąd równoważne równanie algebry Boole’a dla samych jedynek (Y) przybierze postać:
C.
Y=p+q = (p*q)+(p*~q)+(~p*q)
Z powyższym równaniem możemy przejść do logiki ujemnej negując sygnały i wymieniając operatory na przeciwne.
D.
~Y = ~p*~q = (~p+~q)*(~p+q)*(p+~q)
Negujemy stronami przechodząc do logiki dodatniej:
Y = ~[~p*~q] = ~[(~p+~q)*(~p+q)*(p+~q)]

Twierdzenie Prosiaczka w równaniu algebry Kubusia:
Y=p+q = p*q+ p*~q +~p*q

Dowód metoda przejścia do logiki przeciwnej i z powrotem:
Y=p*q+ p*~q +~p*q
Y=p(q+~q)+~p*q
Prawa algebry Kubusia:
q+~q=1
p*1=p
stąd:
Y=p+(~p*q)
Przechodzimy do logiki ujemnej poprzez negacje zmiennych i odwrócenie spójników:
~Y = ~p(p+~q)
stąd:
~Y=~p*p+~p*~q
Prawa algebry Kubusia:
~p*p=0
0+A=A
stąd:
~Y=~p*~q
Przechodzimy z powrotem do logiki dodatniej poprze negację zmiennych i wymianę spójników na przeciwne.
Y=p+q
CND

Z powyższego wynika że to samo zdanie:
Y=p+q
możemy wypowiedzieć na wiele różnych sposobów.

W naturalnym języku mówionym najczęściej używamy formy najprostszej jak wyżej. Część z możliwych zdań równoważnych będzie dla człowieka trudno zrozumiała.

Dowód, iż tabelę zero-jedynkową operatora OR możemy opisać ośmioma równaniami algebry Kubusia na przykładzie.

Przykład:
A1.
Jutro pójdę do kina lub do teatru
Y=K+T
… a kiedy skłamię ?
Przejście do logiki ujemnej poprzez negację zmiennych i wymianę operatorów.
A2.
Skłamię (~Y=1) gdy jutro nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
~Y=~K*~T
związek logiki dodatniej i ujemnej:
Y=~(~Y)
stąd:
Y = K+T = ~(~K*~T)
A3.
Nie może się zdarzyć, że jutro nie pójdę do kina i nie pójdę do teatru
Y = K+T = ~(~K*~T)
A4.
Wyłącznie negujemy równanie A1:
~Y = ~(K+T)
Skłamię (~Y) jeśli nie zdarzy się ~(…), że jutro pójdę do kina (K=1) lub do teatru (T=1)

Analogiczną serię zdań otrzymamy dla równań równoważnych ułożonych dla jedynek w definicji zero-jedynkowej sumy logicznej.
B1.
Y=K+T = K*T+K*~T+~K*T
czyli:
Dotrzymam słowa, jeśli wystąpi którekolwiek zdarzenie:
K*T – byłem w kinie i w teatrze
K*~T – byłem w kinie i nie byłem w teatrze
~K*T – nie byłem w kinie i byłem w teatrze
Oczywiście wyłącznie jedno z powyższych zdarzeń ma szansę wystąpić w rzeczywistości.

… a kiedy skłamię ?
Przejście ze zdaniem B1 do logiki ujemnej poprzez negację zmiennych i wymianę operatorów na przeciwne:
B2.
~Y = (~K+~T)*(~K+T)*(K+~T)
Negujemy dwustronnie i mamy kolejne możliwe zdanie:
B3.
Y = ~[(~K+~Y)*(~K+T)*(K+~T)]
Ostatnie możliwe zdanie otrzymujemy negując dwustronnie B1:
B4.
~Y= ~[(K*T)+(K*~T)+(~K*T)]

Mamy wyżej fantastyczną możliwość powiedzenia tego samego na wiele różnych sposobów.

Wszystkie zdania z wyjątkiem B2 i B3 są dla przeciętnego człowieka intuicyjnie zrozumiałe !

Zdania B2 i B3 to rozbudowane zdania ze zmiennymi w logice ujemnej w stosunku do zdania wypowiedzianego A1.

Na zakończenie rozważmy bardziej złożony przykład.

Dana jest funkcja logiczna:
Y=A+B*C
1.
Narysuj tabele zero-jedynkową dla tej funkcji
2.
Na podstawie narysowanej tabeli zapisać funkcję alternatywną, równoważną
3.
Udowodnić bez tabeli zero-jedynkowej tożsamość tych funkcji

Rozwiązanie:
1.
Kod:

A B C  B*C  Y=A+B*C
1 1 1   1    1
1 1 0   0    1
1 0 1   0    1
1 0 0   0    1
0 1 1   1    1
0 1 0   0    0
0 0 1   0    0
0 0 0   0    0

Twierdzenie:
Równanie algebry Boole’a dla dowolnej tabeli zero-jedynkowej uzyskamy opisując linie z ta samą wartością w wyniku.

Najprostsze równanie algebry Boole’a utworzymy z trzech ostatnich linii bo tu mamy najmniejszą ilość zer w wyniku.

Kolejno dla linii z samymi zerami mamy:
Krok A.
Y=0 <=> A=0 i B=1 i C=0
LUB
Y=0 <=> A=0 i B=0 i C=1
LUB
Y=0 <=> A=0 i B=0 i C=0

Najprościej utworzyć równanie algebry Kubusia w logice dodatniej sprowadzając wszystkie zmienne do jedynek, będziemy mieli wówczas 100% zgodność z naturalną logika człowieka, czyli opisem tabeli w kroku A.
Oczywiście:
Jeśli Y=0 to ~Y=1
Jeśli A=0 to ~A=1
itd.
Ze zmiennymi które maja wartość 1 nic nie robimy, po prostu je przepisujemy.

Stąd układ równań A przyjmie postać:
Krok B.
~Y=1 <=> ~A=1 i B=1 i ~C=1
LUB
~Y=1 <=> ~A=1 i ~B=1 i C=1
LUB
~Y=1 <=> ~A=1 i ~B=1 i ~C=1

Krok C.
Wywalamy jedynki w kosmos i zastępujemy spójniki logiczne symbolami:
+ = „lub”
* = „i”
Stąd mamy:
C.
~Y = ~A*B*~C + ~A*~B*C + ~A*~B*~C
stąd:
Y=~[~A*B*~C + ~A*~B*C + ~A*~B*~C]

Krok C.
Matematyczny dowód iż zachodzi:
Y=A+B*C = ~[~A*B*~C + ~A*~B*C + ~A*~B*~C]
Bez użycia tabel zero-jedynkowych !

Przekształcamy równanie C:
Y= ~[~A*B*~C + ~A*~B*C + ~A*~B*~C]
Negujemy stronami:
~Y = ~A*B*~C + ~A*~B*C + ~A*~B*~C
~Y = ~A(B*~C + ~B*C + ~B*~C)
~Y = ~A[B*~C + ~B(C+~C)]
Prawa algebry Kubusia:
C+~C=1
~B*1=~B
stąd:
~Y = ~A[(B*~C) + ~B]
Przechodzimy do logiki przeciwnej poprzez negacje zmiennych i wymianę spójników na przeciwne
Y = A+[(~B+C)*B]
Y=A+(~B*B + C*B)
Oczywiście prawa algebry Boole’a::
~B*B=0
0+A=A
stąd:
Y=A+B*C
CND

Jak mi ktoś jeszcze powie, iż algebra Kubusia nie jest absolutnie i genialnie prosta to kubeł miodu na jego głowę poleci !


10.0 Aksjomatyczne definicje operatorów logicznych

Podstawowe definicje dwuelementowej algebry Kubusia to po prostu pełna lista operatorów logicznych.

Aksjomatyczne definicje operatorów logicznych w algebrze Boole’a i algebrze Kubusia:
Kod:

p q  OR NOR  AND NAND  <=> XOR  => N(=>) ~> N(~>)  ~~>  N(~~>)  P NP  Q NQ
1 1  1   0    1   0     1   0   1    0   1    0     1    0      1 0   1 0
1 0  1   0    0   1     0   1   0    1   1    0     1    0      1 0   0 1
0 1  1   0    0   1     0   1   1    0   0    1     1    0      0 1   1 0
0 0  0   1    0   1     1   0   1    0   1    0     1    0      0 1   0 1

Kod:

Logika dodatnia    Logika ujemna
OR                 NOR
AND                NAND
<=>                XOR
=>                 N(=>)
~>                 N(~>)
~~>                N(~~>)
P                  NP
Q                  NQ

Wszystkich możliwych operatorów logicznych dwuargumentowych jest 16. Za operatory dodatnie przyjęto te, które człowiek używa w naturalnym języku mówionym.

Operator ujemny to zanegowany operator dodatni, co doskonale widać w powyższej tabeli.
Operator dodatni to zanegowany operator ujemny, co również widać wyżej.
Kod:

Definicje operatorów ujemnych:
pNORq       =     ~(p+q)
pNANDq      =     ~(p*q)
pXORq       =     ~(p<=>q)
pN(=>)q     =     ~(p=>q)
pN(~>)q     =     ~(p~>q)   
p~~>q       =     ~(p~~>q)
pNPq        =     ~(pPq)
pNQq        =     ~(pQq)

W języku mówionym operatory ujemne nie są używane, ponieważ łatwo je zastąpić operatorami dodatnimi plus negacją co widać w powyższej tabeli.

Dowolny operator logiczny jest jednoznacznie zdefiniowany tabelą zero-jedynkową i nie ma tu miejsca na jego niejednoznaczną interpretację. Argumenty w dowolnym operatorze logicznym mogą być albo przemienne (AND, OR, <=>), albo nieprzemienne (implikacja prosta i implikacja odwrotna).

Operatory ~~>, OR, AND, implikacji prostej, implikacji odwrotnej i równoważności zostały omówione wyżej i nie będziemy się nimi zajmować.

W tym rozdziale zajmiemy się operatorami dotychczas nie omówionymi.


10.1 Abstrakcyjny model operatora logicznego

Wyobraźmy sobie czarną skrzynkę z dwoma przełącznikami p i q na których można ustawiać logiczne 0 albo 1. Wyjściem w tej skrzynce jest lampka Y sterowana przez najprawdziwszego krasnoludka imieniem OPERATOR w następujący sposób.
Y=1 – lampka zaświecona
Y=0 – lampka zgaszona
Panel sterowania naszej czarnej skrzynki umożliwia wybór jednego z 16 możliwych operatorów logicznych.
Fizyczna realizacja takiej czarnej skrzynki w technice TTL jest banalna. W laboratorium techniki cyfrowej można sprawdzić doświadczalnie działanie wszystkich 16 operatorów logicznych. Pewne jest że teoria matematyczna musi być w 100% zgodna z rzeczywistością co jest dowodem … że krasnoludki są na świecie.


10.2 Operatory logiczne ~~> i N(~~>)

Definicje ~~> i N(~~>)
Kod:

p q Y=p~~>q Y=~(p~~>q)
1 1  =1       =0
1 0  =1       =0
0 1  =1       =0
0 0  =1       =0

Jak widzimy po wybraniu operatora ~~> krasnoludek OPERATOR zapala lampkę na wyjściu Y=1, siada na stołeczku i odpoczywa kompletnie nie interesując się co też człowiek na wejściach p i q sobie ustawia. Analogicznie jeśli wybierzemy operator N(~~>) to lampka na wyjściu Y będzie cały czas zgaszona (Y=0).


10.3 Operatory transmisji P i Q

Definicje operatorów transmisji P i Q:
Kod:

p q Y=pPq Y=pQq
1 1  =1    =1
1 0  =1    =0
0 1  =0    =1
0 0  =0    =0

Operator P generuje na wyjściu Y sygnał identyczny z tym jaki widnieje po lewej stronie operatora P:
pPq =p
Fizycznie operator pPq to po prostu połączenie kabelkiem wejścia p z wyjściem Y, wejście q jest tu zupełnie nieistotne i można je usunąć.
Z powyższego wynika że operator P można i należy zredukować do sygnału widniejącego po lewej stronie operatora P, czyli całość redukujemy do operatora jednoargumentowego o definicji.

Definicja operatora transmisji:
Kod:

p Y=pP=p
1  =1
0  =0

Analogicznie operator Q można i należy zredukować do sygnału widniejącego z prawej strony operatora Q.
pQq=q

Fizycznie operator pQq to po prostu połączenie kabelkiem wejścia q z wyjściem Y, wejście p jest tu zupełnie nieistotne i można je usunąć, czyli w rzeczywistości mamy do czynienia z operatorem jednoargumentowym o następującej definicji.

Definicja operatora transmisji:
Kod:

q Y=Qq=q
1  =1
0  =0


Operator transmisji w zbiorach:



Y=p

Przykład:
A.
Jutro pójdę do kina
Y=K
Matematycznie oznacza to:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy jutro pójdę do kina (K=1)
Y=K
Y=1 <=> K=1

… a kiedy skłamię ?
Negujemy tożsamość A dwustronnie:
~Y=~K
B.
Skłamię (~Y=1) wtedy i tylko wtedy gdy jutro nie pójdę do kina (~K=1)
~Y=~K
~Y=1 <=> ~K=1


10.4 operatory negacji NP i NQ

Definicje operatorów negacji NP i NQ
Kod:

p q Y=pNPq Y=pNQq
1 1  =0     =0
1 0  =0     =1
0 1  =1     =0
0 0  =1     =1

Doskonale widać, że na wyjściu operatora pNPq mamy:
Y=pNPq = pNP = ~p
Na wyjściu Y mamy zanegowany sygnał z wejścia p, sygnał q jest tu totalnie nieistotny i można go do kosza wyrzucić. Fizycznie ten operator to połączenie wejścia p z wyjściem Y poprzez układ negatora, czyli całość to w rzeczywistości jednoargumentowy układ negatora o definicji jak niżej.

Definicja negatora:
Kod:

p Y=pNP=~p
1  =0
0  =1

Gdzie:
~ - symbol negacji, w mowie potocznej przeczenie NIE

Analogiczną funkcję negatora realizuje operator pNQq:
Y=pNQq = NQq=~q
Tu z kolei istotny jest wyłącznie sygnał po prawej stronie operatora NQq.

Definicja negatora:
Kod:

q Y=NQq=~q
1  =0
0  =1

Gdzie:
~ - symbol negacji, w mowie potocznej przeczenie NIE

Jedno z kluczowych praw algebry Kubusia:
A=~(~A) – prawo podwójnego przeczenia
Przykład:
Jestem uczciwy
U
Zaprzeczenie:
Nie jestem uczciwy
~U
Podwójne zaprzeczenie:
Nieprawdą jest, że jestem nieuczciwy = jestem uczciwy
~(~U) = U

Dowód formalny:
Kod:

~Y=p  Y=~p  ~Y=~(~p)
  1    =0     =1
  0    =1     =0

Tożsamość kolumn pierwszej i ostatniej jest dowodem poprawności prawa podwójnego przeczenia.

Operator negacji w zbiorach:



Y=~p

Przykład:
A.
Jutro nie pójdę do kina
Y=~K
Matematycznie oznacza to:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy jutro nie pójdę do kina (~K=1)
Y=~K
Y=1 <=> ~K=1

… a kiedy skłamię ?
Negujemy tożsamość A dwustronnie:
~Y=K
B.
Skłamię (~Y=1) wtedy i tylko wtedy gdy jutro pójdę do kina (K=1)
~Y=K
~Y=1 <=> K=1


10.5 Operator implikacji prostej zdefiniowany spójnikiem “i”(*)

Definicja zero-jedynkowa operatora implikacji prostej:
Kod:

p q p=>q ~(p=>q)
Warunek wystarczający w logice dodatniej (bo q)
1 1  =1    =0     /p=>q=1
1 0  =0    =1     /p=>~q=0
Warunek wystarczający w logice ujemnej (bo ~q)
0 0  =1    =0     /~p~>~q=1
0 1  =1    =0     /~p~~>q=1

Najprostsza definicję implikacji prostej wyrażoną w spójniku „i”(*) otrzymamy z drugiej linii:
A.
~Y = ~(p=>q) = p*~q
czyli:
Skłamię (~Y=1) wtedy i tylko wtedy gdy zajdzie p i nie zajdzie q

… a kiedy dotrzymam słowa ?
Negujemy równanie a dwustronnie:
B.
Y=p=>q = ~(p*~q)
czyli:
Dotrzymam słowa (Y=1) wtedy i tylko wtedy gdy nie zdarzy się ~(…), że zajdzie p (p=1) i nie zajdzie q (~q=1)

Wyrażenie implikacji prostej w spójniku „i”(*) to największa tragedia matematyczna w historii ludzkości.

Zauważmy, że mamy tu poprawną wiedzę kiedy nie skłamiemy, ale nie mamy informacji o gwarancji matematycznej – istocie definicji implikacji!

Weźmy doskonale znany nam przykład:

Warunek wystarczający => !
A.
Jeśli zwierze jest psem to na pewno => ma cztery łapy
P=>4L=1 bo pies – gwarancja matematyczna, twarda prawda, zachodzi zawsze bez wyjątków
1 1 =1
Bycie psem wystarcza aby mieć cztery łapy
stąd:
B.
Jeśli zwierzę jest psem to na pewno => nie ma czterech łap
P=>~4L=0 – twardy fałsz wynikły tylko i wyłącznie z powyższej twardej prawdy
1 0 =0
… a jeśli zwierze nie jest psem ?
Prawo Kubusia:
P=>4L = ~P~>~4L

Warunek konieczny ~> !
C.
Jeśli zwierzę nie jest psem to może ~> nie mieć czterech łap
~P~>~4L=1 bo kura – miękka prawa, może zajść ale nie musi
0 0 =1
D.
Jeśli zwierze nie jest psem to może ~~> mieć cztery łapy
~P~~>4L=1 bo słoń – miękka prawda, może zajść ale nie musi
0 1 =1
Doskonale widać definicję implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym:
A: P=>4L
P=1, ~P=0
4L=1, ~4L=0

Jak działa implikacja ?
Na początku wszystkie pudełka A,B,C,D maja wartość logiczną 0, czyli fałsz.
Losujemy po kolei wszystkie ziemskie zwierzęta i wkładamy je do odpowiednich pudelek.
Oczywiście po przeiterowaniu po wszystkich zwierzakach wyłącznie pudełko B będzie puste (fałsz=0), pozostałe będą niepuste (prawda=1), stąd taki a nie inny rozkład wynikowych jedynek w definicji implikacji.

Traktowanie operatora implikacji prostej spójnikiem „i”(*) zrównuje matematycznie bezcenną twardą prawdę (zdanie A = 100% pewność) z prawdami miękkimi w zdaniach C i D (rzucanie monetą).

Zdanie A wyrażone przy pomocy spójnika „I”(*) przybierze brzmienie:
p=>q = ~(p*~q)
Nasz przykład:
P=>4L = ~(P*~4L)
czyli:
A1.
Nie może się zdarzyć ~(…), że zwierze jest psem (P=1) i nie ma czterech łap (~4L=1)
~(P*~4L)
Poza tym wszystko może się zdarzyć !

Zauważmy, że nikt normalny mając do wyboru zdania A i równoważne zdanie A1 nie wypowie zdania A1, bo nie będzie z siebie robił idioty.

Zdanie A1 może być użyte w szczególnych okolicznościach np. gdy uczymy 3-latka naturalnego języka mówionego, algebry Kubusia.

Definicja obietnicy:
Jeśli dowolny warunek to nagroda
W=>N – implikacja prosta na mocy definicji

Definicja groźby:
jeśli dowolny warunek to kara
W~>K – implikacja odwrotna na mocy definicji

Tata:
A.
Jeśli będziesz grzeczny dostaniesz czekoladę
G=>C=1
Jaś (lat 3):
… a jeśli nie będę grzeczny ?
W mózgu taty generowane jest prawo Kubusia:
G=>C = ~G~>~C
Tata:
C.
Jeśli nie będziesz grzeczny to nie dostaniesz czekolady
~G~>~C=1
LUB
D.
Jeśli nie będziesz grzeczny to dostaniesz czekoladę
~G~~>C=1 – akt miłości, prawo do wręczenia czekolady mimo nie spełnionego warunku nagrody

Oczywiście tata wypowiada wyłącznie zdanie C, które to zdanie jest ewidentna groźbą z domyślnym na mocy definicji spójnikiem „może” ~>, który nie musi być wypowiedziany.

Jaś:
Tata, a czy może się zdarzyć że będę grzeczny i nie dostane czekolady ?

Tata:
Nie może się zdarzyć ~(…), że będziesz grzeczny (G=1) i nie dostaniesz czekolady (~C=1)
G=>C = ~(G*~C)

Tylko i wyłącznie w takim przypadku sensowne jest wypowiedzenie zdania A1.

Zdanie wytłuszczone wyżej to kluczowy błąd matematyczny, zrównującym prawdy w zdaniach A, C, D !

W tym przypadku mamy fałszywy obraz implikacji prostej, zrównujący 100% pewność (zdanie A) z najzwyklejszym rzucaniem monetą (zdania C i D).

Dokładnie to generuje głupoty w stylu:
„Z fałszu może powstać prawda” itp.

Oczywiście w rzeczywistości nie ma mowy aby z prawdy powstał fałsz, jak również nie ma mowy aby z fałszu powstała prawda.

Taka jest jedyna poprawna matematyka naszego Wszechświata, algebra Kubusia.


Ostatnio zmieniony przez rafal3006 dnia Pią 15:46, 04 Lis 2011, w całości zmieniany 8 razy
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
Rafal3011




Dołączył: 16 Wrz 2011
Posty: 142
Przeczytał: 0 tematów

Skąd: GDAŃSK
Płeć: Mężczyzna

PostWysłany: Pon 0:57, 10 Paź 2011    Temat postu:

Część II
Algebra Kubusia w służbie lingwistyki


11.0 Operatory OR i AND w świecie zdeterminowanym

Definicja determinizmu:
Determinizm to pełna lub częściowa znajomość rozwiązania

Definicja świata niezdeterminowanego:
Świat jest niezdeterminowany, gdy wartości logiczne zdań wchodzących w skład operatora logicznego nie są zdeterminowane ani częściowo, ani całkowicie.

Zacznijmy od błahostki ze świata totalnie zdeterminowanego, gdzie z góry znamy wartości logiczne wszystkich zmiennych.

Przykład 1.
Czy wiesz drogi czytelniku dlaczego Pani Przedszkolanka koryguje trzylatków którzy mówią:
A.
Pies ma cztery łapy lub szczeka
P=>(4L+S)
żądając jedynie słusznej formy:
B.
Pies ma cztery łapy i szczeka
P=>4L*S

Oczywiście nie wynika to z chciejstwa Pani Przedszkolanki, lecz z matematyki ścisłej, algebry Kubusia, pod którą wszyscy podlegamy.

Zdanie A jest matematycznie równoważne zdaniu:
Jeśli zwierzę jest psem to na pewno => ma cztery łapy lub szczeka
P=>(4L+S)

Rozpiszmy następnik zgodnie z definicją szczegółową spójnika ‘lub”:
C.
4L+S = 4L*S=1 + 4L*~S=0 + S*~4L=0

… i wszystko jasne, dwa ostatnie człony są fałszywe, zatem możemy je wywalić w kosmos.

Stąd po minimalizacji funkcji C otrzymujemy zdanie:
B.
Jeśli zwierze jest psem to na pewno => ma cztery łapy i szczeka
P=>4L*S

Zdanie równoważne w języku potocznym:
Pies ma cztery łapy i szczeka
P=>4L*S

Stąd znana każdemu poloniście reguła lingwistyczna:
Jeśli definiujemy cokolwiek to powinniśmy używać spójnika „i”.

Weźmy kolejny przykład.

Przykład 2.
Zdanie wypowiedziane:
Jutro pójdę do kina lub do teatru
Y=K+T
Y=1 <=> K=1 lub T=1

To samo zdanie w rozwinięciu szczegółowym:
Y= K+T = K*T+K*~T+~K*T
Dotrzymam słowa (Y) jeśli:
A.
Jutro pójdę do kina i do teatru
Y=K*T
LUB
B.
Jutro pójdę do kina i nie pójdę do teatru
Y=K*~T
LUB
C.
Jutro nie pójdę do Kina i pójdę do teatru
Y+~K*T
… a kiedy skłamie ?
Przejście ze zdaniem ZW do logiki przeciwnej poprzez negacje zmiennych i wymianę operatorów na przeciwne
~Y=~K*~T
D.
Skłamię (~Y) jeśli jutro nie pójdę do kina (~K) i nie pójdę do teatru (~T)
~Y=~K*~T
~Y=1 <=> ~K=1 i ~T=1

Oczywiście po jutrze wyłącznie jedno zdanie ze zdań A,B,C,D może być prawdziwe, pozostałe będą fałszywe, nie ma innej możliwości matematycznej. Ten świat jest totalnie niezdeterminowany, bowiem jutro dowolne z powyższych zdań może być prawdziwe.

Weźmy teraz nasz przykład w zapisie operatorowym:
Kod:

Definicja spójnik „lub” w logice dodatniej bo Y
Dotrzymam słowa (Y) gdy:
Y=K+T = K*T+K*~T+~K*T
 K  T= Y=K+T – zdanie wypowiedziane
 K* T= Y
 K*~T= Y
~K* T= Y
… a kiedy skłamię ?
Przejście do logiki przeciwnej poprzez
negację zmiennych i wymianę operatorów na przeciwne
w zdaniu wypowiedzianym
~K*~T=~Y

Zauważmy, że tabela operatorowa OR pokazuje wszystkie możliwe przypadki jakie jutro mogą zajść. Najważniejsza informacja to rozstrzygnięcie kiedy jutro dotrzymam słowa (Y), a kiedy skłamię (~Y). Oczywiście jutro może zajść wyłącznie jeden z powyższych przypadków, dzisiaj nie wiemy który, czyli rzeczywistość nie jest zdeterminowana.

Definicja miękkiej i twardej prawdy w logice:
Miękka prawda, może zajść ale nie musi, przykładem jest tu spójnik „lub”.
Twarda prawda, tylko jedno zdanie może być prawdziwe, przykładem jest tu spójnik „i”

Spójnik „lub” w naszym przykładzie to wyłącznie zdania 1-3. Dla konkretnego losowania wyłącznie jedno ze zdań 1-3 może być prawdziwe.

Spójnik „i” w naszym przykładzie to wyłącznie zdanie 4.
Skłamię (~Y=1) wtedy i tylko wtedy gdy jutro nie pójdę do kina (~K=1) i nie pójdę do teatru (~T=1)
~Y=~K*~T
~Y=1 <=> ~K=1 i ~T=1

Definicja:
Determinizm to pełna lub częściowa znajomość rozwiązania

W szczególności:
Przeszłość = 100% determinizm.
Co się stało to się nie odstanie, film pt. „Nasz Wszechświat” został nakręcony i nic w nim nie można zmienić.

Twierdzenie:
We wszystkich operatorach (w tym w OR i AND) znajomość rozwiązania determinuje jedno, jedyne zdanie prawdziwe ze spójnikiem „i”(*), czyli takie zdanie będzie spełniało definicję operatora AND !

Załóżmy, że dla naszego przykładu wyżej zaszło.
A.
Wczoraj nie byliśmy w kinie i byliśmy w teatrze
Y=~K*T
Y=1 <=> ~K=1 i T=1
stąd dla punktu odniesienia ustalonym na zaistniałej rzeczywistości mamy:
~K=1, K=0
T=1, ~T=0

Nasza tabela w kodowaniu zero-jedynkowym:
Kod:

Definicja spójnik „lub” w logice dodatniej bo Y
Dotrzymam słowa (Y) gdy:
Y=K+T = K*T+K*~T+~K*T
 K  T= Y=K+T – zdanie wypowiedziane
 K* T= Y
0 1 =0
 K*~T= Y
0 0 =0
~K* T= Y
1 1 =1
… a kiedy skłamię ?
Przejście do logiki przeciwnej poprzez
negację zmiennych i wymianę operatorów na przeciwne
w zdaniu wypowiedzianym
~K*~T=~Y
0 1 =0

W przypadku determinizmu wynikowe zera i jedynki generowane są na podstawie zaistniałej rzeczywistości zgodnie z definicją spójnika „i”. Jak widzimy w tym przypadku nasza tabela przeszła jednoznacznie w operator AND zgodnie ze zdaniem wypowiedzianym A.

Weźmy inny przykład ze świata totalnie zdeterminowanego.

Przykład 3.
A.
Dowolny kraj leży w Europie, Azji lub Afryce
Y=E+Az+Af
Dla uproszczenia celowo pominięto pozostałe kontynenty

To samo w rozpisce szczegółowiej.
Zdanie A będzie prawdziwe jeśli:
Y = E+Az+Af
czyli:
1: E*Az*Af =Y
lub
2: E*Az*~AF=Y
lub
3: E*~Az*Af=Y
lub
4: E*~Az*~Af=Y
lub
5: ~E*Az*Af=Y
lub
6: ~E*Az*~Af=Y
lub
7. ~E*~Az*Af=Y
… a kiedy zdanie A będzie fałszywe ?
Przechodzimy do logiki ujemnej poprzez negacje zmiennych i wymianę argumentów
8. ~E*~Az*~Af= ~Y

Zauważmy, że dowolny kraj musi gdzieś leżeć, zatem linia 8 będzie zawsze fałszem dla dowolnego, wylosowanego kraju

Losujemy kraj: Polska

Oczywiście w tym przypadku wyłącznie linia 4 będzie prawdziwa:
4.
Polska leży w Europie i nie leży w Azji i nie leży w Afryce
Y = E*~Az*~Af
Y=1 <=> E=1 i ~Az=1 i ~Af=1 = 1*1*1 =1
Ten punkt odniesienia determinuje:
E=1, ~E=0
~Az=1, Az=0
~Af=1, Af=0
Oczywiście wyjście Y nie jest determinowane. Wyjście Y przyjmuje wartość 0 albo 1 w zależności od aktualnej wartości zmiennych na wejściu.

Tabela zero-jedynkowa dla naszego przykładu przybierze więc postać:
Y = E+Az+Af
czyli:
1: E*Az*Af =Y
1 0 0 =0
lub
2: E*Az*~AF=Y
0 0 1=0
lub
3: E*~Az*Af=Y
0 1 0 =0
lub
Jedyne zdanie prawdziwe:
4: E*~Az*~Af=Y
1 1 1 =1
lub
5: ~E*Az*Af=Y
0 0 0 =0
lub
6: ~E*Az*~AF=Y
0 0 1 =0
lub
7. ~E*~Az*Af=Y
0 1 0 =0
… a kiedy zdanie A będzie fałszywe ?
Przechodzimy do logiki ujemnej poprzez negacje zmiennych i wymianę argumentów
8. ~E*~Az*~Af= ~Y
0 1 1 =0

Polska leży wyłącznie na jednym kontynencie, zatem otrzymaliśmy wyżej tabelę zero-jedynkową operatora AND dla zdania wypowiedzianego 4.

Twierdzenie Tygryska:
W świecie zdeterminowanym, gdzie wartości logiczne zmiennych są znane, spójnik logiczny „lub”(+) ulega redukcji do spójnika „i”(*)

Dowód:
W przypadku spójnika „lub”(+) tylko i wyłącznie jedno zdanie może być prawdziwe spośród:
2^n-1
różnych zdań.
gdzie:
2^n – dwa do potęgi n
n – ilość zmiennych
Dla trzech zmiennych mamy:
2^n-1 = 2^3-1 = 8-1 = 7
Co jest zgodne z przykładem wyżej.

Z powyższego wynika, że jedynki w spójniku „lub” (zdania 1-7) wyrażają samą możliwość zajścia, że nie są to prawdy twarde, zachodzące zawsze, bez wyjątków.


Losujemy kraj: Rosja

Oczywiście w tym przypadku będzie prawdziwe wyłącznie zdanie 2.

Rosja leży w Europie i leży w Azji i nie leży w Afryce
Y=E*Az*~Af

Wszystkie pozostałe zdania będą tu fałszywe.

Mózg człowieka genialnie minimalizuje wszelkie funkcje logiczne.

Każde dziecko wypowie zdanie:

Dowolny kraj leży w Europie lub w Azji lub w Afryce
Y=E+Az+Af
(w celu uproszczenia ograniczamy liczbę kontynentów)

… ale już dla konkretnego kraju absolutnie nikt nie powie:
Polska leży w Europie lub w Azji lub w Afryce
P=E+Az+Af
bo doskonale wszyscy wiemy gdzie leży Polska.

W zagadkach takie zdanie jest jak najbardziej sensowne, ale przy znajomości rozwiązania jest bez sensu. Informacja precyzyjna po minimalizacji tej funkcji w sposób wyżej pokazany generuje jedynie słuszne zdanie:

Polska leży w Europie i nie leży w Azji i nie leży w Afryce
P = E*~Az*~Af
P=1 <=> E=1 i ~Az=1 i ~Af=1

Zauważmy, że takiego zdania również nikt nie wypowie z powodu znajomości rozwiązania.
W powyższym równaniu prawdy powstałe z negacji fałszu (~Az=1, ~AF=1) są bezwartościowe i każdy normalny człowiek je zignoruje wypowiadając zdanie precyzyjnie.

Polska leży w Europie
P=E

Zauważmy, że przy znajomości rozwiązania uwzględnianie w równaniu prawd powstałych z negacji fałszu jest bez sensu bo takich prawd jest nieskończenie wiele.

Przykład:
Polska leży w Europie i Polska to nie rzeka i Polska to nie wąsy dziadka ….
P = E * ~R * ~W …
Formalnie to zdanie jest prawdziwe, tyle że sensu w tym nie ma.

Kolejny przykład świata totalnie zdeterminowanego.

W poniższym przykładzie świadomie ograniczamy cechy definiujące psa wyłącznie do dwóch:
Pies ma cztery łapy i szczeka
Oczywiście w ogólnym przypadku takich cech może być „nieskończenie wiele”.

Przykład 4.
Zdanie wypowiedziane
jeśli zwierze jest psem to na pewno => ma cztery łapy lub szczeka
P=>4L+S
To samo zdanie wypowiedziane w formie skróconej, czyli w formie zdania twierdzącego.
A.
Pies ma cztery łapy lub szczeka
P=>4L+S
P=1 => 4L=1 lub S=1
Powyższe zdanie jest błędne matematycznie bowiem losujemy zwierzaka, stwierdzamy że ma cztery łapy i wychodzi nam na mocy definicji sumy logicznej że np. słoń jest psem.

Gdzie tkwi błąd ?

W definicji szczegółowej mamy tu:
P=>4L+S = 4L*S+4L*~S+~4L*S
stad:
Zdanie jest prawdziwe (P=1) gdy powiemy:
A.
Pies ma cztery łapy i szczeka
P=>4L*S =1*1=1
LUB
B.
Pies ma cztery łapy i nie szczeka
P=>4L*~S =1*0=0
LUB
C.
Pies nie ma czterech łap i szczeka
P=>~4L*S =0*1=0

Jak widzimy, wyłącznie zdanie A jest tu prawdziwe, pozostałe są fałszywe.
Stąd jedyne poprawne lingwistycznie i matematycznie zdanie:
A1:
Pies ma cztery łapy i szczeka
P=>4L*S
P=>4L=1 i S=1

Z tego powodu każda nauczycielka w przedszkolu będzie wymagała od dzieci wersji A1.
Tylko w przypadku A1 mamy piękne i precyzyjne przejście do logiki ujemnej.

… a kiedy zwierzę nie jest psem ?
Przejście ze zdaniem A1 do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów na przeciwne
~P~>~4L+~S
Zauważmy, że otrzymaliśmy tu prawo Kubusia metoda na skróty.
Prawo Kubusia dla zdania A1:
P=>4L*S = ~P~>~(4L*S)
Prawo de’Morgana dla prawej strony tożsamości:
~(p*q) = ~p+~q
Stąd nasza końcowa funkcja:
~P~>~4L+~S
CND
Czyli:
Zwierze które nie jest psem (~P=1) może nie mieć czterech łap (~4L=1) lub może nie szczekać (~S=1)
~p~>~4L+~S
Losujemy zwierzaka i stwierdzamy:
Nie ma czterech łap
~4L=1
Wniosek:
To zwierzę na pewno nie jest psem, drugiej cechy „czy szczeka” nie musimy sprawdzać
Losujemy zwierzaka i stwierdzamy:
Nie szczeka
~S=1
Wniosek:
To zwierzę na pewno nie jest psem, drugiej cechy „ma cztery łapy” nie musimy sprawdzać


Przykład świata częściowo zdeterminowanego:

Przykład 5.
A.
Każdy człowiek jest mężczyzną lub kobietą
C=>M+K =1
Matematycznie zdanie to oznacza:
Jeśli ktoś jest człowiekiem to na pewno => jest mężczyzną lub kobietą
C=>K+M
Zauważmy, że zdanie odwrotne też zachodzi:
Jeśli ktoś jest mężczyzną lub kobietą to na pewno jest człowiekiem
K+M =>C
Definicja równoważności:
p<=>q = (p=>q)*(q=>p) = 1*1=1
C<=>M+K
Wniosek:
Zdanie A to równoważność wypowiedziana w formie zdania twierdzącego, czyli zdanie A możemy matematycznie kodować tak:
C=K+M
C=1 <=> K=1 lub M=1

Zdanie A jest prawdziwe (C=1) wtedy i tylko wtedy gdy powiemy:
Każdy człowiek (C=1) jest mężczyzną (M=1) lub kobietą (K=1)
C=1 <=> M=1 lub K=1
Definicja sumy logicznej w rozpisce szczegółowej:
C=M+K = M*K+M*~K+~M*K
co matematycznie oznacza:
C=1 = (M*K=0) + (M*~K=1) +(~M*K=1)
Zdanie:
Człowiek jest mężczyzną i kobietą
C=M*K=0
Jest oczywiście fałszywe, zatem nasz mózg minimalizuje funkcję logiczną do postaci:
C=M*~K+~M*K
Każdy człowiek (C=1) jest mężczyzną i nie jest kobietą (M*~K=1) lub nie jest mężczyzną i jest kobietą (~M*K=1)
… a czy istnieje człowiek który nie jest mężczyzną i nie jest kobietą ?
Przechodzimy ze zdaniem A do logiki ujemnej negując zmienne i wymieniając operatory na przeciwne
~C=~M*~K
Co matematycznie oznacza:
D.
Nie istnieje człowiek (~C=1), który nie jest mężczyzną (~M=1) i nie jest kobietą (~K=1)
~C=~M*~K
~C=1 <=> ~M=1 i ~K=1
Precyzyjny odczyt może być też taki:
D.
Prawdą jest (=1) że nie istnieje człowiek (~C), który nie jest mężczyzną (~M=1) i nie jest kobietą (~K=1)
~C=~M*~K
~C=1 <=> ~M=1 i ~K=1
Zauważmy, że po lewej stronie możemy zapisać:
Jeśli ~C=1 to C=0
czyli zdanie D przybierze postać:
D1.
Fałszem jest (=0) że istnieje człowiek (C), który nie jest mężczyzną (~M=1) i nie jest kobietą (~K=1)
C=0 <=> ~M=1 i ~K=1
Problem w tym, że z takiego zapisu nie da się wyeliminować bezwzględnych zer i jedynek, czyli nie da się zapisać zdania w postaci równania logicznego.
Dlatego taki zapis jest do bani !

Aby wyrugować ze zdania D1 bezwzględne zera i jedynki musimy wszystkie zmienne sprowadzić do tej samej wartości logicznej.

W logice dodatniej (zgodnej z naturalna logiką człowieka) wszystko sprowadzamy do jedynek i korzystamy z definicji spójnika „i”.
Definicja spójnika „i”:
Iloczyn logiczny (spójnik „i”) jest równy 1 wtedy i tylko wtedy gdy wszystkie zmienne są równe 1
Y=p*q
Y=1 <=> p=1 i q=1

Mamy:
D1
C=0 <=> ~M=1 i ~K=1
Jeśli C=0 to ~C=1
stąd:
~C=1 <=> ~M=1 i ~K=1
Dopiero teraz możemy wywalić jedynki i zapisać zdanie w formie równania logicznego:
~C=~M*~K
~C=1 <=> ~M=1 i ~K=1
Czyli w efekcie otrzymaliśmy zdanie D a nie zdanie D1.

Poprawna logika matematyczna to logika symboliczna w równaniach algebry Kubusia izolowana od bezwzględnych zer i jedynek.

Twierdzenie:
Z praw matematycznych możemy korzystać tylko i wyłącznie po wyeliminowaniu bezwzględnych zer i jedynek z dowolnego zapisu logicznego.

Przykłady praw matematycznych:
Prawo de’Morgana:
p+q = ~(~p*~q)
Prawo Kubusia:
p=>q = ~p~>~q

Twierdzenie:
Nie istnieje ani jedno prawo logiczne w którym prawda byłaby pomieszana z fałszem.

Oznacza to zakaz opuszczania bezwzględnych zer i jedynek w przypadku gdy wszystkie zmienne nie są sprowadzone do tej samej wartości logicznej.

Nasz przykład:
D1.
C=0 <=> ~M=1 i ~K=1
Dla powyższego zapisu nie wolno robić takich rzeczy:
C<=>~M*~K
bo to jest błąd czysto matematyczny !

Oczywiście dla dowolnego wylosowanego człowieka będziemy mieli 100% determinizm.

Losujemy: Kobieta
Ten człowiek jest kobietą i nie jest mężczyzną
C=K*~M
Po odrzuceniu prawdy powstałej z negacji fałszu otrzymamy końcową odpowiedź 5-cio latka:
To jest kobieta


11.1 Operatory implikacji w świecie zdeterminowanym

Twierdzenie Tygryska:
W operatorach OR, AND, implikacji i równoważności znajomość rozwiązania determinuje definicję operatora AND.

Operatorami OR i AND zajęliśmy się wyżej.

Twierdzenie Tygryska jest oczywistością, bo jak znamy w 100% rozwiązanie to składniki tego rozwiązania muszą być prawdziwe i połączone spójnikiem „i”

Zdanie:
Jeśli Jan nie był w Warszawie to na pewno nie zabił
~W=>~Z
… a jeśli Jan był w Warszawie ?
Prawo Kubusia:
~W=>~Z = W~>Z
Jeśli Jan był w Warszawie to mógł zamordować
W~>Z

Tego typu zdania są sensowne wyłącznie jeśli nie wiemy czy Jan jest mordercą.
Wtedy implikacjami w stylu jak wyżej dochodzimy prawdy.

Jeśli jednak wiemy że Jan na pewno nie zamordował, to powyższe implikacje są bez sensu.

Poprawne lingwistycznie zdanie jest wówczas takie:
Jan nie był w Warszawie i nie zamordował
Y=~W*~Z

Oczywiście sednem jest tu morderstwo, zatem zdanie 5-cio latka po końcowym uproszczeniu:
Jan nie jest mordercą
Y=~M

Kolejny przykład.
Zaistniały fakt:
Dziecko wybiegło na jezdnię i zabił je samochód
Y=W*ZS

Po fakcie nie ma sensu zdanie:
Jeśli wybiegniesz na jezdnię to może cię zabić samochód
W~>ZS

Załóżmy że jesteśmy światkami takiego wypadku.
Przyjeżdża policjant i pyta co się stało.

Oczywiście jedyne sensowne zdanie jest tu takie:
Dziecko nagle wybiegło na ulicę i potrącił je samochód.
albo
Samochód wpadł w poślizg i potrącił prawidłowo idące dziecko

Jakiekolwiek implikacje nie mają tu sensu, bo mamy tu do czynienia z determinizmem, doskonale wiemy co się stało.

Rozważmy wzorcowa implikację prostą.

Warunek wystarczający =>:
A.
Jeśli jutro będzie padało to na pewno => będzie pochmurno
P=>CH=1 – twarda prawda, zachodzi zawsze bez wyjątków, gwarancja mateczna
To samo w zbiorach:
P*CH=1 – zbiór P zawiera się w całości w zbiorze CH
stąd.
B.
jeśli jutro będzie padało to na pewno => nie będzie pochmurno
P=>~CH=0 – twardy fałsz wynikły tylko i wyłącznie z powyższego
To samo w zbiorach:
P*~CH=0
Zbiory „pada” i „nie chmury” są rozłączne, stąd zero w wyniku
… a jeśli jutro nie będzie padało ?
Prawo Kubusia:
P=>CH = ~P~>~CH

Warunek konieczny ~>:
C.
jeśli jutro nie będzie padało to może ~> nie być pochmurno
~P~>~CH=1 – miękka prawda, może zajść ale nie musi
To samo w zbiorach:
~P*~CH=1
Możliwy jest przypadek, „nie pada” i „nie ma chmur”, stąd jedynka w wyniku
LUB
D.
Jeśli jutro nie będzie padało to może być pochmurno
~P~~>CH=1 – miękka prawda, może zajść ale nie musi
To samo w zbiorach:
~P*CH=1
Możliwy jest przypadek „nie pada” i są „chmury”, stad jedynka w wyniku

Tabela symboliczna dla powyższej analizy zapisana w zbiorach jest następująca:
Kod:

Tabela symboliczna
 P* CH =1
 P*~CH =0
~P*~CH =1
~P* CH =1

Rozważmy przypadek:
Wczoraj padało i było pochmurno.
P*CH=1
Determinizm wymuszający wartości logiczne zmiennych:
P=1, ~P=0
CH=1, ~CH=0
Dla tego przypadku tabela symboliczna przybierze postać:
Kod:

Tabela symboliczna dla P=1 i CH=1
 P* CH =1*1=1
 P*~CH =0
~P*~CH =0*0=0
~P* CH =0*1=0

Doskonale widać, że w świecie zdeterminowanym mam do czynienia operatorem AND a nie z implikacją prostą.

Rozważmy kolejny przypadek.
Wczoraj nie padało i było pochmurno
~P*CH=1
Determinizm wymuszający wartości logiczne zmiennych:
~P=1, P=0
CH=1, ~CH=0
Tabela symboliczna dla tego przypadku przybierze postać:
Kod:

Tabela symboliczna dla ~P=1 i CH=1
 P* CH =0*1=0
 P*~CH =0
~P*~CH =1*0=0
~P* CH =1*1=1

Tu również widzimy, iż w świecie zdeterminowanym mamy operator AND a nie implikację.

Praca domowa.
Wypełnić tabelę symboliczną dla przypadku:
Wczoraj nie padało i nie było pochmurno
~P*~CH=1


12.0 Podstawowe analizy implikacji prostej i odwrotnej

Implikacja prosta

Przykład:
Jeśli zwierze jest psem to na pewno ma cztery łapy
P=>4L
Analiza takich implikacji gdzie w poprzedniku i następniku mamy tylko jeden parametr bez operatorów AND i OR jest banalna.

Analiza:
A.
Jeśli zwierze jest psem to na pewno ma cztery łapy
P=>4L=1 bo pies – gwarancja matematyczna
1 1 =1
stąd:
B.
Jeśli zwietrzę jest psem to na pewno nie ma czterech łap
P=>~4L=0 – bo wszystkie psy mają cztery łapy
1 0 =0
… a jeśli zwierze nie jest psem ?
Prawo Kubusia:
P=>4L=~P~>~4L
C.
Jeśli zwierze nie jest psem to może nie mieć czterech łap
~P~>~4L=1 bo mrówka
0 0 =1
LUB
D.
Jeśli zwierze nie jest psem to może mieć cztery łapy
~P~~>4L=1 bo słoń
0 1 =1
Doskonale widać tabele zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
P=1, ~P=0
4L=1, ~4L=0

Zdanie D nie może być implikacją odwrotną.
Dowód nie wprost.
Załóżmy, że zdanie D jest implikacja odwrotną i zastosujmy wyrocznie implikacji, prawo Kubusia:
D: ~P~>4L = B: P=>~4L=0
Prawa strona tożsamości jest twardym fałszem, zatem lewa nie może być implikacja odwrotną prawdziwą, warunek konieczny tu nie zachodzi.

Zdanie D jest prawdziwe na mocy naturalnego spójnika „może”~~>, wystarczy jedna prawda, warunek konieczny tu nie zachodzi

Implikacja odwrotna

Przykład:
Jeśli zwierze ma cztery łapy to może być psem
4L~>P

Analiza matematyczna:
A.
Jeśli zwierze ma cztery łapy to może być psem
4L~>P=1 bo pies
1 1 =1
LUB
B.
Jeśli zwierze ma cztery łapy to może nie być psem
4L~~>~P=1 bo słoń
1 0 =1
… a jeśli zwierzę nie ma czterech łap ?
Prawo Kubusia:
4L~>P = ~4L=>~P
czyli:
C.
Jeśli zwierze nie ma czterech łap to na pewno => nie jest psem
~4L=>~P=1 bo mrówka
0 0 =1
stąd:
B.
Jeśli zwierzę nie ma czterech łap to na pewno => jest psem
~4L=>P=0
0 1 =0
Doskonale widać tabelę zero-jedynkową implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
4L=1, ~4L=0
P=1, ~P=0


12.1 Złożona implikacja prosta w świecie zdeterminowanym

Drodzy czytelnicy, czy zastanawialiście się kiedyś dlaczego w świecie zdeterminowanym wszyscy ludzie na ziemi używają jedynie słusznej formy np.

A.
Jeśli zwierze jest psem lub koniem to na pewno ma cztery łapy i nie ćwierka
P+K=>4L*~C

Przecież to zdanie możemy wyrazić aż w 64 różnych formach uwzględniając spójniki „i” oraz „lub” po każdej stronie znaku => !

Przykład formy wybranej losowo:
B.
Jeśli zwierzę jest psem lub nie jest koniem to na pewno ma cztery łapy lub ćwierka
P+~K=>4L+C

Dlaczego nawet dziecko 5-cio letnie nigdy nie wymówi B (lub podobnych) a zawsze wypowie to zdanie w jedynie słusznej formie A !

Matematyczną odpowiedź na to banalne pytanie daje algebra Kubusia.

Rozważmy to jedynie słuszne zdanie:
A.
Jeśli zwierze jest psem lub koniem to na pewno ma cztery łapy i nie ćwierka
P+K=>4L*~C

Definicja sumy logicznej:
p+q=p*q+p*~q+~p*q

Na mocy tej definicji rozpisujemy poprzednik:
Y=P+K = P*K+P*~K+~P*K

Oczywiście mamy tu człony:
A.
Zwierze jest psem i koniem = fałsz
P*K=0
B.
Zwierze jest psem i nie koniem
P*~K=P
Część wspólna zbiorów P i ~K w dziedzinie wszystkich zwierząt
C.
Zwierze nie jest psem i jest koniem
~P*K=K
Część wspólna zbiorów ~P i K w dziedzinie wszystkich zwierząt

Czyli mamy:
Y= P*K=0 +P*~K=P + ~P*K=K = P+K
Stąd jedynie słuszna wersja poprzednika (funkcja minimalna):
Jeśli zwierzę jest psem lub koniem to ….
Y=P+K
CND

Z następnikiem nie mamy tu żadnych problemów bo spójnik „i” jest jednoznacznie określony jedną linią tabeli zero-jedynkowej.

Definicja iloczynu logicznego:
Iloczyn logiczny (spójnik „i”) n-zmiennych binarnych jest równy 1 wtedy i tylko wtedy gdy wszystkie zmienne są równe 1.
Y=p*q
Y=1 <=> p=1 i q=1

Następnik w naszym jedynie słusznym zdaniu jest taki:
Zwierze ma cztery łapy i nie ćwierka
Y=4L*~C = 1*1=1
Oczywiście tu dowolne inne przeczenia będą fałszem:
4L*~C=1
4L*C=0
~4L*~C=0
~4L*C=0
Członów fałszywych dziecko 5-cio letnie nie wypowiada stąd jedynie słuszna forma następnika.

Rozważmy dwa przykładowe zdania z rozstrzygnięciem „dlaczego nikt tak nie mówi”.

1.
Jeśli zwierzę jest psem lub nie jest koniem to na pewno ma cztery łapy lub ćwierka
P+~K=>4L+C
Poprzednik:
P+~K = ~K – suma logiczna zbiorów P lub ~K w dziedzinie zwierząt
zatem równoważny i prawdziwy poprzednik brzmi:
Jeśli zwierzę jest nie jest koniem …
~K
Dokładnie to samo otrzymamy z równoważnej definicji sumy logicznej:
Y=p+q = p*q+p*~q+~p*q
Y=P+~K
Mamy:
P+~K:
P*~K=P – część wspólna zbiorów P i ~K to zbiór P
P*K=0 – zbiory rozłączne
~P*~K – iloczyn logiczny zbiorów
Czyli po minimalizacji mamy:
Y=P+~K = P+~P*~K = ~K
Dlaczego ?

[link widoczny dla zalogowanych]

W dziedzinie wszystkich zwierząt zbiór ~P i ~K to wszystkie zwierzęta z białymi wysepkami P i K.
Wysepka P znika nam na mocy sumy logicznej – zostaje wypełniona przez zbiór P:
P+~P*~K
Stąd zostaje nam zbiór końcowy ~K
CND

Następnik:
4L+C = 4L*C=0 lub 4L*~C=1 lub ~4L*C=0 = 4L*~C
Jak widzimy jedyny prawdziwy następnik w tym przypadku brzmi jak w zdaniu wzorcowym !

2A.
Jeśli zwierzę jest psem i nie jest koniem to ma cztery łapy i nie ćwierka
P*~K=>4L*~C
Poprzednik:
P*~K = P – wspólna cześć zbiorów P i ~K w dziedzinie zwierząt
Zatem zdanie równoważne:
2B.
Jeśli zwierzę jest psem to ma cztery łapy i nie ćwierka
P=>4L*~C
Oczywiście wszyscy normalni mając do wyboru 2A albo 2B wybiorą 2B. Zdanie 2A to zapewne nawet 5-cio latkowi do głowy nie przyjdzie.

Jak widzimy, zdefiniowaliśmy zdanie „jedynie słuszne” w obszarze lingwistyki.

Czas teraz na jego analizę zero-jedynkową, czyli rozpatrzenie wszystkich możliwych przeczeń po stronie poprzednika i następnika.

Zdanie do analizy zero-jedynkowej:
A.
Jeśli zwierze jest psem lub koniem to na pewno ma cztery łapy i nie ćwierka
p=>q
P+K=>4L*~C =1 bo pies lub koń – gwarancja matematyczna, istota implikacji !
1 1 =1
Przekształcenie pomocnicze ~q dla p=>~q:
q=4L*~C
Negujemy zmienne i wymieniamy operatory:
~q=~4L+C
B.
Jeśli zwierze jest psem lub koniem to na pewno nie ma czterech łap lub ćwierka
p=>~q
P+K = ~4L+C=0 – oczywisty fałsz !
1 0 =0
Dla ułatwienia tego typu implikacje możemy rozbić na dwie:
P=>~4L+C=0
LUB
K=>~4L+C=0
stąd wynik końcowy: 0

Jaś (lat 5):
… a jeśli zwierze nie jest psem i nie jest koniem ?
Przekształcenie pomocnicze ~p dla ~p~>~q:
p = P+K
Negujemy zmienne i wymieniamy operatory:
~p = ~P*~K
… no i skąd ten Jaś (lat 5) wiedział jak poprawnie przejść z poprzednikiem do logiki ujemnej !
Prawo Kubusia:
p=>q = ~p~>~q
~p i ~q mamy wyżej policzone zatem:
P+K=>4L*~C = ~P*~K~>~4L+C
Zauważmy, że prawa stronę powyższej tożsamości możemy uzyskać metodą na skróty bezpośrednio ze zdania A !

Mamy :
A.
P+K=>4L*~C
Przejście do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów na przeciwne czyli:
OR(+) na AND(*)
AND(*) na OR(+)
=> na ~>
stąd:
C.
~P*~K ~> ~4L+C
czyli:
C.
Jeśli zwierze nie jest psem i nie jest koniem to może nie mieć czterech łap lub ćwierkać
~p~>~q
~P*~K ~>~4L+C =1 bo kura, wąż, wróbelek
0 0 =1
p+q=p*q+p*~q+~p*q – definicja
p+q=~4L+C
p*q=~4L*C=wróbelek
p*~q=~4L*~C=kura, waz …
~p*q=4L*C=0
LUB
D.
Jeśli zwierze nie jest psem i nie jest koniem to może mieć cztery łapy i nie ćwierkać
~p~~>q
~P*~K~~>4L*~C =1 bo słoń, hipopotam …
0 1 =1

Doskonale widać tabele zero-jedynkowa implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
P+K =1, ~(P+K)=0
4L*~C =1, ~(4L*~C)=0

Jak widzimy analiza zero-jedynkowa tej implikacji złożonej jest w 100% zgodna z naturalną logiką człowieka !


12.2 Złożona implikacja odwrotna w świecie zdeterminowanym

Uwaga:
Dla ułatwienia analizy wszędzie korzystamy z poniższej definicji sumy logicznej:
p+q = p*q+p*~q+~p*q

Odwróćmy zdanie z poprzedniego przykładu zmieniając parametr nie ćwierka (nie wróbelek) na nie miauczy (nie kot).
A.
Jeśli zwierze ma cztery łapy i nie miauczy to może być psem lub koniem
p~>q
4L*~M~>P+K =1 bo pies, koń (kot wykluczony !)
1 1 =1
p+q=p*q+p*~q+~p*q - definicja
p+q=P+K
p*q=P*K=0
p*~q=P*~K=P – Pies =wspólna cześć zbiorów
~p*q=~P*K=K – Koń=wspólna cześć zbiorów

Przekształcenie pomocnicze ~q dla p~~>~q:
q=P+K
Przechodzimy do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów:
~q=~P*~K
czyli:
B.
Jeśli zwierzę ma cztery łapy i nie miauczy to może nie być psem i nie być koniem
p~~>~q
4L*~M~~>~P*~K =1 bo słoń, hipopotam… (kot wykluczony !)
1 0 =1
Jaś (lat 5):
… a jeśli zwierze nie ma czterech łap lub miauczy ?
Przechodzimy z równaniem A do logiki ujemnej uzyskując prawo Kubusia metodą na skróty:
A.
4L*~M~>P+K
C.
~4L+M => ~P*~K
czyli:
C.
Jeśli zwierze nie ma czterech łap lub miauczy to na pewno => nie jest psem i nie jest koniem
~p=>~q
~4L+M=>~P*~K =1 bo kura, mrówka, kot (tu jest kot !) – gwarancja matematyczna
0 0 =1
p+q=p*q+p*~q+~p*q - definicja
p+q=~4L+M
p*q=~4L*M=0
p*~q=~4L*~M=kura,mrowka …
~p*q=4L*M=kot
D.
Jeśli zwierze nie ma czterech łap lub miauczy to na pewno jest psem lub koniem
~p=>q
~4L+M=>P+K =0 bo pies lub koń wykluczony
0 1 =0
Doskonale widać tabele zero-jedynkowa implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
(4L*~M)=1, ~(4L*~M)=0
(P+K)=1, ~(P+K)=0


13.0 Obietnice i groźby

Żaden matematyk nie zakwestionuje poniższej definicji obietnicy:
Obietnica = implikacja prosta => - to jest w każdym podręczniku matematyki do I klasy LO

To wystarczy, dalej w banalny sposób można udowodnić że:
Groźba = implikacji odwrotna ~>

Dowód na przykładzie …


13.1 Obietnica

Typowa obietnica:
A.
Jeśli będziesz grzeczny dostaniesz czekoladę
G=>C =1
1 1 =1 - zdanie wypowiedziane
Obietnica, zatem implikacja prosta, tu wszyscy się zgadzamy.
Skoro to implikacja prosta to:
B.
Jeśli będziesz grzeczny to na pewno => nie dostaniesz czekolady
G=>~C =0
1 0 =0
… a jak będę niegrzeczny ?
Prawo Kubusia:
G=>C = ~G~>~C
Mama:
C.
Jeśli będziesz niegrzeczny to nie dostaniesz czekolady
~G~>~C
W groźbach (zdanie C) spójnik „może” ~> jest z reguły pomijany. Nie ma to znaczenia gdyż spójnik ten jest gwarantowany przez absolutna świętość algebry Boole’a, prawo Kubusia.

Z prawa Kubusia wynika tu coś fundamentalnego:
Wszelkie groźby (zdanie C) musimy kodować operatorem implikacji odwrotnej, inaczej algebra Boole’a leży w gruzach.

Matematyczne znaczenie zdania C jest oczywiście takie:
C.
Jeśli będziesz niegrzeczny to możesz ~> nie dostać czekolady
~G~>~C =1
0 0 =1
LUB
D.
Jeśli będziesz niegrzeczny to możesz ~~> dostać czekoladę
~G~~>C =1
0 1 =1 - akt miłości
gdzie:
~~> - naturalne "może", wystarczy jedna prawda, nie jest to operator implikacji odwrotnej ~>, zatem warunek konieczny tu nie zachodzi.

Doskonale tu widać tabelę zero-jedynkową implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
G=1, ~G=0
C=1, ~C=0

Oczywiście z powyższej analizy matematycznej wynika, że wszelkie groźby muszą być kodowane implikacją odwrotną:
Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L - implikacja odwrotna bo groźba

Z powyższego mamy definicję obietnicy i groźby …

Definicja obietnicy:
Jeśli dowolny warunek to nagroda
W=>N =1 - twarda prawda
Implikacja prosta bo dobrowolnych obietnic musimy dotrzymywać
Spełnienie warunku nagrody jest warunkiem wystarczającym dla otrzymania nagrody
Prawo Kubusia:
W=>N = ~W~>~N
Gwarancja w implikacji jest zawsze operator implikacji prostej:
W=>N
Jeśli spełnię warunek nagrody to na pewno => dostanę nagrodę z powodu że spełniłem warunek nagrody … poza tym wszystko może się zdarzyć.

W obietnicy nadawca ma nadzieję (marzenie), że odbiorca spełni warunek nagrody i będzie mógł wręczyć nagrodę. Jeśli odbiorca nie spełni warunku nagrody to nadawca może dać nagrodę lub nie zgodnie ze swoim „widzi mi się”, czyli wolną wolą.
Po stronie odbiorcy występuje nadzieja (marzenie), że nawet jeśli nie spełni warunku nagrody to może otrzymać nagrodę (akt miłości). Odbiorca może zwolnić nadawcę z obietnicy np. w przypadkach losowych.


13.2 Groźba

Definicja groźby:
Jeśli dowolny warunek to kara
W~>K =1
Implikacja odwrotna bo nadawca może ukarać, ale nie musi.
Spełnienie warunku kary jest warunkiem koniecznym ukarania z powodu spełnienia warunku kary. O tym czy będzie to warunek konieczny i wystarczający decyduje nadawca.

Gwarancja w groźbie wynika z prawa Kubusia:
W~>K = ~W => ~K
Stąd gwarancja:
~W => ~K
Jeśli nie spełnię warunku kary to na pewno => nie zostanę ukarany z powodu nie spełnienia warunku kary. Poza tym wszystko może sie zdarzyć.

W groźbie nadawca ma nadzieję (marzenie), że odbiorca nie spełni warunku kary i nie będzie musiał karać. Jeśli odbiorca spełni warunek kary to nadawca może wykonać karę lub ją darować zgodnie ze swoim „widzi mi się”, czyli wolną wolą.
Po stronie odbiorcy również występuje nadzieja (marzenie), że nawet jeśli spełni warunek kary to nadawca nie wykona kary (akt łaski). W groźbie decyzję o darowaniu kary podejmuje wyłącznie nadawca, odbiorca nie ma tu nic do powiedzenia.

Przykład:
Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L - implikacja odwrotna bo groźba
Brudne spodnie są warunkiem koniecznym lania z powodu brudnych spodni, zatem implikacja odwrotna prawdziwa. O tym czy będzie to warunek konieczny i wystarczający decyduje nadawca.

W groźbach naturalny spójnik implikacji odwrotnej „może” ~> jest z reguły pomijany bo osłabiałby groźbę. Nie prowadzi to do niejednoznaczności, gdyż definicje groźby i obietnicy są bardzo proste i precyzyjne.

Analiza:
A:
Jeśli ubrudzisz spodnie to możesz ~> dostać lanie
B~>L =1
1 1 =1
LUB
B:
Jeśli ubrudzisz spodnie to możesz nie dostać lania
B ~~> ~L =1 - prawo do darowania kary (akt łaski)
1 0 =1
Zdanie prawdziwe na mocy naturalnego spójnika „może” ~~>, nie jest to implikacja odwrotna.
Nadawca ma prawo do darowania dowolnej kary (akt łaski)

… a jeśli nie ubrudzę spodni ?
B~>L = ~B => ~L - prawo Kubusia
czyli:
C:
Jeśli nie ubrudzisz spodni to na pewno => nie dostaniesz lania
~B => ~L =1 - twarda prawda (gwarancja)
0 0 =1
Na mocy definicji operatora implikacji prostej => mamy:
Jeśli nie ubrudzisz spodni to na pewno => nie dostaniesz lania z powodu czystych spodni. Poza tym wszystko może się zdarzyć. Tylko tyle i aż tyle gwarantuje operator implikacji prostej =>.
stąd:
D:
Jeśli nie ubrudzisz spodni to na pewno => dostaniesz lanie
~B => L =0 - twardy fałsz, zakaz karania niewinnego z powodu czystych spodni
0 1 =1
Doskonale widać tabelę zero-jedynkową implikacji odwrotnej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
B=1, ~B=0
L=1, ~L=0

Dlaczego zdanie B nie może być implikacja odwrotną ?
Dowód nie wprost:
Załóżmy że zdanie B: B~>~L jest implikacja odwrotną.
Obowiązuje wówczas prawo Kubusia:
B: B~>~L = D: ~B=>L
Zdanie D: jest oczywistym fałszem, zatem zdanie B nie może być implikacją odwrotną prawdziwą.
Prawdziwość zdania B: określa wzór:
(B~~>~L)+(B~>~L) = 1+0 =1
gdzie:
~~> - naturalny spójnik może, wystarczy jedna prawda, nie jest to operator implikacji odwrotnej zatem warunek koniczny tu nie zachodzi.

Jedyne sensowne przejście z operatora implikacji odwrotnej do implikacyjnych AND(*) i OR(+) to odpowiedź na pytanie dziecka „kiedy wystąpi kłamstwo”:

Jeśli ubrudzisz spodnie dostaniesz lanie
Y=B~>L
Jaś:
… tata, a kiedy skłamiesz ?

Y=B~>L = B+~L = ~(~B*L) - dotrzymam słowa
Negujemy dwustronnie:
~Y=~(B~>L) = ~B*L - skłamię

Skłamię (~Y=1), jeśli przyjdziesz w czystych spodniach (~B) i dostaniesz lanie (z powodu czystych spodni !)
~Y=~B*L
Jaś:
… a czy może się zdarzyć że przyjdę w czystych spodniach i dostanę lanie ?
Y=~(~Y) - prawo podwójnego przeczenia, stąd:
Y=~(~B*L)
Nie może się zdarzyć że przyjdziesz w czystych spodniach (~B) i dostaniesz lanie (z powodu czystych spodni)
Y=~(~B*L)
Zauważmy, że ostatnie pytanie Jasia jest mało prawdopodobne bo odpowiedź dostał wcześniej.

W obietnicach i groźbach bardzo dobrze widać sens logiki dodatniej i ujemnej w operatorach implikacji prostej => i odwrotnej ~>.

Definicja logiki dodatniej i ujemnej w operatorach => i ~>:
Implikacja wypowiedziana jest w logice dodatniej jeśli po stronie q nie występuje negacja, inaczej mamy do czynienia z logiką ujemną.

Obietnica:
W=>N = ~W~>~N - prawo zamiany obietnicy => na równoważną groźbę ~>
Obietnica => w logice dodatniej (N) jest równoważna groźbie ~> w logice ujemnej (~N)

Groźba:
W~>K = ~W=>~K - prawo zamiany groźby ~> na równoważną obietnicę =>
Groźba ~> w logice dodatniej (K) jest równoważna obietnicy => w logice ujemnej (~K)

Piękna jest też następująca interpretacja obietnicy i groźby.
Kod:

p q p~>q p<=q
1 1  =1   =1
1 0  =1   =1
0 0  =1   =1
0 1  =0   =0

gdzie:
~> - operator implikacji odwrotnej, spójnik „może” ze spełnionym warunkiem koniecznym
Z tabeli widzimy że:
~> = <= - pod warunkiem że symbol <= będziemy czytać przeciwnie do strzałki jako spójnik „może” z warunkiem koniecznym (operator implikacji odwrotnej)

Obietnica:
W=>N - ja tego chcę, biegnę do nagrody
=> czytane zgodnie ze strzałką jako spójnik „musi” z warunkiem wystarczającym
Groźba:
W~>K = W<=K - ja tego nie chcę, uciekam od kary
gdzie:
<= - czytane przeciwnie do strzałki jako spójnik „może” z warunkiem koniecznym

Odróżnianie nagrody od kary to fundament wszelkiego życia. Zwierzątka które tego nie odróżniają, czyli wszystko co się rusza traktują jako nagrodę (ja tego chcę) skazane są na zagładę.

W Australii żyje sobie żółw błotny który na języku ma wyrostek imitujący żywego robaka, ryba która nabierze się na ten podstęp musi zginąć.


13.3 Analiza złożonej obietnicy

Definicja obietnicy:
Jeśli dowolny warunek to nagroda
W=>N

Definicja groźby:
Jeśli dowolny warunek to kara
W~>K

A.
Jeśli posprzątasz pokój i nie będziesz bił siostry to dostaniesz czekoladę i obejrzysz bajkę
p=>q
P*~B=>C*B=1
1 1 =1
B.
p=>~q
~q=~(C*B)=~C+~B
Jeśli posprzątasz pokój i nie będziesz bił siostry to nie dostaniesz czekolady lub nie obejrzysz bajki
P*~B=>~C+~B =0
1 0 =0
Rozpisujemy następnik przez definicje spójnika „lub”:
p+q = p*q+p*~q+~p*q
~C+~B
Możliwe kary
A: ~C*~B=0 – to jest 100% kary
B: ~C*B =0 – tu tez jest element kary
C: C*~B=0 – tu również jest kara
Zatem suma logiczna:
A+B+C = 0+0+0=0 – zakaz wykonywania jakiejkolwiek kary w przypadku spełnienia warunku nagrody
… a jeśli nie spełnię warunku nagrody ?
Prawo Kubusia:
p=>q = ~p~>~q
Czyli negujemy zmienne w równaniu A i odwracamy operatory – prawo Kubusia na skróty.
~P+B~>~C+~B
Oczywiście w tym przypadku mamy do czynienia z groźbą i definicją groźby.
czyli:
C.
Jeśli nie posprzątasz pokoju lub będziesz bił siostrę to możesz nie dostać czekolady lub nie obejrzeć bajki
~p~>~q
~P+B~>~C+~B=1
0 0 =1
Warunki ukarania:
D: ~P*B=1 – warunek kary spełniony
E: ~P*~B=1 – warunek ukarania spełniony
F: P*B=1 – warunek ukarania spełniony
Równanie kary:
D+E+F = x+x+x=x
Jeśli dowolny warunek spełniony to mama ma 100% wolnej woli.
Zdanie C pozwala na częściowe darowanie kary, natomiast zdanie D pozwala nawet na 100% darowanie kary !
LUB
D.
Jeśli nie posprzątasz pokoju lub będziesz bił siostrę to dostaniesz czekoladę i obejrzysz bajkę
~p~~>q=1
~P+B~~>C*B=1
0 1 =1
W tej linii jest prawo do darowania kary w 100%


13.4 Analiza złożonej groźby

Definicja groźby:
Jeśli dowolny warunek to kara
W~>K

Definicja obietnicy:
Jeśli dowolny warunek to nagroda
W=>N

A.
Jeśli nie posprzątasz pokoju lub będziesz bił siostrę to nie dostaniesz czekolady i nie obejrzysz bajki
p~>q
~P+B~>~C*~B
Przekształcenie pomocnicze w celu uzyskania ~q dla:
p~~>~q
~q:
~(~C*~B)= C+B
stąd:
B.
Jeśli nie posprzątasz pokoju lub będziesz bił siostrę to dostaniesz czekoladę lub obejrzysz bajkę
p~~>~q
~P+B~~>C+B
Rozwijamy następnik na mocy definicji spójnika „lub”
p+q = p*q+~p*q+p*~q
C+B:
C*B=1 – dostaniesz czekoladę i obejrzysz bajkę, 100% darowanie kary
~C*B=1 – nie dostaniesz czekolady i obejrzysz bajkę, częściowe darowanie kary
C*~B=1 = dostaniesz czekoladę i nie obejrzysz bajki, częściowe darowanie kary
Mamy tu akt łaski, mama może darować karę całkowicie lub częściowo, cokolwiek nie zrobi to nie ma szans na zostanie kłamcą, czyli ma 100% wolnej woli.

… a jeśli posprzątam pokój i nie będę bił siostry ?
Mamy równanie A:
p~>q
~P+B~>~C*~B
Przechodzimy do logiki ujemnej poprzez negacje zmiennych i wymianę operatorów, czyli prawo Kubusia uzyskane metoda na skróty:
~p=>~q
P*~B=>C+B
stąd:
C.
Jeśli posprzątasz pokój i nie będziesz bił siostry to na pewno => dostaniesz czekoladę lub obejrzysz bajkę
~P=>~q
P*~B=>C+B
Rozwinięcie sumy logicznej C+B mamy wyżej.
Oczywiście tu nie może być mowy o najmniejszej nawet karze bowiem warunek groźby nie został spełniony.
Mamy zatem:
C*B=1 – dostaniesz czekoladę i obejrzysz bajkę, 100% darowanie kary
~C*B=0 – nie dostaniesz czekolady i obejrzysz bajkę, bo zakaz karania
C*~B=0 = dostaniesz czekoladę i nie obejrzysz bajki, bo zakaz karania
W tym przypadku mama nie ma prawa na wykonanie choćby najmniejszej kary, zatem musi dać czekoladę i pozwolić na obejrzenie bajki.
stąd:
D.
Jeśli posprzątasz pokój i nie będziesz bił siostry to na pewno => nie dostaniesz czekolady i nie obejrzysz bajki
~p=>q=0
P*~B=>~C*~B=0
Całkowity zakaz karania, bowiem warunek kary nie został spełniony


13.5 Obietnice i groźby w ujęciu filozoficznym

Zdanie wypowiedziane:
Jeśli zdasz egzamin dostaniesz komputer
E=>K
Implikacja prosta bo dobrowolnych obietnic musimy dotrzymywać
Gwarancja w implikacji prostej:
E=>K
Jeśli zdasz egzamin to na pewno => dostaniesz komputer z powodu że zdałeś egzamin, poza tym wszystko może się zdarzyć - tylko tyle i aż tyle gwarantuje operator implikacji prostej => w obietnicy.

Analiza matematyczna:
A.
Jeśli zdasz egzamin to na pewno => dostaniesz komputer
E=>K =1
1 1 =1
stąd:
B.
Jeśli zdasz egzamin to na pewno => nie dostaniesz komputera
E=>~K =0 - dobrowolnych obietnic musimy dotrzymywać
1 0 =0
… a jeśli nie zdam egzaminu ?
Prawo Kubusia:
E=>K = ~E~>~K
czyli:
C.
Jeśli nie zdasz egzaminu to możesz ~> nie dostać komputera
~E~>~K =1
0 0 =1
LUB
D.
Jeśli nie zdasz egzaminu to możesz ~~> dostać komputer
~E~~>K =1 - akt miłości
0 1 =1
Doskonale widać definicje implikacji prostej dla kodowania zgodnego ze zdaniem wypowiedzianym 1 1 =1 czyli:
E=1, ~E=0
K=1 , ~K=0

Zdanie C to ewidentna groźba. Intencją wypowiadającego jest, aby groźba była groźbą, dlatego praktycznie zawsze pomijany jest spójnik „może”.

Zdanie C przybierze postać.
C.
Jeśli nie zdasz egzaminu to nie dostaniesz komputera
~E~>~K =1
Nie zdanie egzaminu jest warunkiem koniecznym nie dostania komputera, zatem implikacja odwrotna. O tym czy będzie to warunek konieczny i wystarczający decyduje nadawca.

Oczywiście na mocy definicji groźby:
Jeśli dowolny warunek to kara
W~>K
zatem powyższą groźbę musimy kodować operatorem implikacji odwrotnej ~>:
~E~>~K

Matematyczna wolna wola
Matematyczna wolna wola to operator implikacji odwrotnej ~>

W przypadku nie zdania egzaminu, nadawca może nie dać komputera (C) lub dać komputer (D) co zależy tylko i wyłącznie od jego „widzi mi się” czyli wolnej woli.
W skrajnym przypadku może wyjąć monetę i rzucać:
orzełek - dam komputer
reszka - nie dam komputera
… i nie ma szans na zostanie kłamcą.
„Rzucanie monetą” jest matematyczną wolną wolą, ale nie jest wolną wolą człowieka !
Człowiek rzucający monetą staje się maszyną, wobec której nie można mówić o „wolnej woli”.

Wolna wola człowieka:
Wolna wola człowieka to świadoma decyzja negatywna lub pozytywna, nadawca powinien umieć uzasadnić decyzję.

Decyzja negatywna:
Nie zdałeś egzaminu, nie dostaniesz komputera
oczywiście domyślne jest tu „z powodu że nie zdałeś egzaminu”, nadawca może to rozwinąć np. bo kompletnie się nie uczyłeś itp.

Decyzja pozytywna:
Nie zdałeś egzaminu, dostajesz komputer, bo cie kocham, bo widziałem że się uczyłeś ale miałeś pecha itp.

Oczywiście matematycznie zabronione jest tu uzasadnienie zależne, identyczne jak warunek czyli:
Nie zdałeś egzaminu, dostajesz komputer bo nie zdałeś egzaminu
Matematyczny dowód pkt. 13.1.

Prawdopodobieństwo zajścia „aktu miłości” w obietnicy:
1.
Zauważmy, że nadawca dobrowolnie obiecuje nagrodę, czyli chce tą nagrodę dać. Jeśli zobaczy że odbiorca starał się ale mu nie wyszło to z reguły i tak wręczy nagrodę (akt miłości).
2.
Obietnice „szyte są na miarę” odbiorcy, czyli nadawca nie daje obietnic gdzie spełnienie warunku nagrody jest niemożliwe lub bardzo mało prawdopodobne. Stąd najczęściej odbiorca spełnia warunek nagrody, nadawca wręcza nagrodę … i wszyscy są szczęśliwi.

Oczywiście obietnice to przyszłość której nie znamy, jednak jeśli obietnica wypowiedziana jest między przyjaciółmi, znajomymi czy nawet miedzy osobami obcymi to z reguły jest dotrzymywana. Czyli prawdopodobieństwo iż nagroda znajdzie się u nadawcy jest tu bardzo wysokie, myślę że na poziomie 90% lub wyższym.

Odrębnym zagadnieniem jest składanie fałszywych obietnic wobec wrogów których chcemy zniszczyć, tu podstęp i fałsz jest na porządku dziennym w myśl zasady, wszystkie chwyty dozwolone byleby zniszczyć wroga. Zauważmy jednak, że nasz wróg dał się złapać w pułapkę dzięki temu że spodziewa się nagrody, czyli również doskonale zna symboliczna algebrę Boole’a (algebrę Kubusia)

Każde żywe stworzenie, chce mieć jak najmniej wrogów i jak najwięcej przyjaciół, zatem w powodzi wypowiedzianych obietnic te fałszywe stanowią margines. Zauważmy, że stworzenia żywe żyją w grupach w ramach swojego gatunku. Tu również działa algebra Kubusia, człowiek nie jest tu żadnym wyjątkiem.

Zauważmy, że jeśli przyjmiemy „akt miłości” i „akt łaski” za dobro i wykluczymy linie fałszywe w groźbach i obietnicach to otrzymamy taki wynik:
Dobro-Zło = 4:2
Zatem matematycznie nasz Wszechświat ustawiony jest na dobro.

Weźmy na koniec typowa groźbę.

Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L
Gwarancja w implikacji odwrotnej wynika z prawa Kubusia:
B~>L = ~B=>~L
czyli:
Jeśli przyjdziesz w czystych spodniach to na pewno => nie dostaniesz lania
~B=>~L
... z powodu czystych spodni - tylko tyle i aż tyle gwarantuje operator implikacji odwrotnej ~>.

Równanie jest absolutnie genialne:
B~>L = ~B=>~L
Po prawej stronie mamy 100% determinizm, dlatego to jest matematyka ścisła.

Po lewej stronie mamy matematyczna wolną wolę człowieka, czyli jeśli syn przyjdzie w brudnych spodniach to nadawca może go zabić albo darować lanie (gwarancja wolnej woli) ... i nie ma szans na zostanie kłamcą. Tożsamość to tożsamość, z matematyką się nie dyskutuje.

Determinizm filozoficzny i fizyczny

Determinizm w ujęciu filozoficznym i można sprowadzić do jednego zdania:
Jeśli ktokolwiek zna moje myśli z wyprzedzeniem to moja wolna wola leży w gruzach, mój Wszechświat jest zdeterminowany.

Determinizm w ujęciu fizycznym opisuje genialna implikacja. W jednej połówce implikacji zarówno prostej => jak i odwrotnej ~> mamy 100% determinizm (=>), zaś w drugiej "rzucania monetą” ( ~>)

Oczywiście determinizm fizyczny to również równoważność p<=>q, ale ta występuje głównie w matematyce, w świecie rzeczywistym króluje implikacja.


13.6 Rodzaje obietnic

1.
Obietnica z natychmiastową wykonalnością:
Jeśli zdasz egzamin dostaniesz komputer
E=>K
… a jak nie zdam egzaminu.
Prawo Kubusia:
E=>K = ~E~>~K
czyli jeśli syn nie zda egzaminu to mogę mu tego komputera nie kupić lub kupić i nie mam szans na zostanie kłamcą.
Po egzaminie następuje rozstrzygnięcie

2.
Obietnica z odroczoną wykonalnością:
Kto przyjdzie jutro dostanie gotowca
J=>G
… a jak przyjdę pojutrze ?
J=>G = ~J~>~G
Oczywiście jak ktoś przyjdzie później, byle przed egzaminem to też może dostać gotowca ale nie musi. Po egzaminie ta obietnica traci sens.

3.
Obietnica w której spełnienie warunku obietnicy jest bardzo mało prawdopodobne:
Jeśli wygram milion w TOTKA to kupię ci samochód
W=>S
… a jak nie wygram w TOTKA ?
Prawo Kubusia:
W=>S = ~W~>~S
Jeśli nie wygram w TOTKA to mogę ci nie kupić samochodu lub kupić i nie mam szans na zostanie kłamcą.


14.0 Obietnice i groźby w równaniach matematycznych

Równoważną do analizy zero-jedynkowej gróźb i obietnic jak wyżej, jest ich analiza przy pomocy równań matematycznych.


14.1 Obietnica w równaniach matematycznych

Zastosujmy świętą zasadę algebry Boole’a „Jak się mówi tak się pisze” doskonale znaną wszystkim dobrym logikom praktykom, ci od cyfrowych układów logicznych..

Definicja obietnicy:
Jeśli dowolny warunek to nagroda

Zasada „Jak się mówi tak się pisze”:
Dostanę nagrodę (N) gdy spełnię warunek nagrody (W) lub gdy nadawca zdecyduje o daniu nagrody.

Wprowadźmy zmienną uznaniową nadawcy:
U=1 – dam nagrodę
U=0 – nie dam nagrody

Równanie obietnicy:
N=W+U

Gdzie:
N=1 – mam nagrodę
N=0 – nie mam nagrody
W=1 – warunek nagrody spełniony
W=0 – warunek nagrody nie spełniony

Zmienna uznaniowa nadawcy:
U=1 – dam nagrodę
U=0 – nie dam nagrody

Analiza równania obietnicy.

A.
W=1 - odbiorca spełnił warunek nagrody.

Równanie obietnicy przybierze wówczas postać:
N = 1+U = 1 – muszę dostać nagrodę.
W przypadku gdy odbiorca spełni warunek nagrody nadawca nie ma wyjścia i musi dać nagrodę, inaczej jest kłamcą. Zauważmy, że nikt nie zmuszał nadawcy do obiecania czegokolwiek, że nadawca obiecał nagrodę z własnej woli, że chce dać nagrodę. Nie ma tu zatem mowy o jakimkolwiek ograniczeniu wolnej woli nadawcy.

B.
W=0 – warunek nagrody nie spełniony

Równanie obietnicy przybiera postać:
N=W+U=0+U=U
Wszystko w rękach nadawcy który podejmuje decyzję o daniu nagrody zgodnie ze swoją wolną wolą, niczym nie ograniczoną.
U=1 – dam nagrodę
U=0 – nie dam nagrody

Przy niespełnionym warunku nagrody (W=0) nadawca może zrobić co mu się podoba i nie zostaje kłamcą. Większość nadawców tak czy siak da nagrodę pod byle pretekstem niezależnym (U=1 - akt miłości), ale nie musi tego robić !

W tym przypadku nadawca może wszystko z maleńkim wyjątkiem:
Nie spełniłeś warunku nagrody (W=0) dostajesz nagrodę, bo nie spełniłeś warunku nagrody (U=W=0)

Równanie obietnicy przybierze tu postać:
N = W+U = 0+0 =0
Zakaz wręczenia nagrody z uzasadnieniem zależnym, czyli z powodu nie spełnienia warunku nagrody (W=0).

Nikt nie może robić z człowieka idioty, przede wszystkim matematyka.

Przykład:
Jeśli zdasz egzamin dostaniesz komputer
E=>K

Równanie obietnicy:
K = W+U

Jeśli egzamin zdany (W=1) to:
K=1+U =1 - gwarancja otrzymania komputera.
Zmienna uznaniowa nadawcy jest tu bez znaczenia.

Jeśli egzamin nie zdany (W=0) to:
K=W+U = 0+U =U
Wszystko w rękach nadawcy:
U=1 - dam komputer
U=0 - nie dam komputera

Akt miłości nie zaszedł:
U=0
Nie zdałeś egzaminu (W=0), nie dostajesz komputera ... bo kompletnie się nie uczyłeś (U=0)
Równanie obietnicy:
K=W+U = 0+0 =0 - nie mam komputera

Akt miłości zaszedł:
U=1
Nie zdałeś egzaminu (W=0), dostajesz komputer ... bo widziałem że się starałeś ale miałeś pecha, bo cię kocham, bo tak czy siak zamierzałem kupić ci komputer itp. (U=1 dowolne uzasadnienie niezależne)
Równanie obietnicy:
N=W+U=0+1=1 – mam komputer dzięki dobremu sercu nadawcy (akt miłości)

Nadawca może wręczyć nagrodę pod byle pretekstem, ale nie może wręczyć nagrody z uzasadnieniem zależnym identycznym jak warunek nagrody.

Nie zdałeś egzaminu (W=0), dostajesz komputer ... bo nie zdałeś egzaminu (U=W=0).

Równanie obietnicy:
N=W+U=0+0=0 – zakaz wręczania nagrody z uzasadnieniem zależnym, czyli z powodu „nie zdania egzaminu” (W=U=0)

Nikt nie może robić z człowieka idioty, przede wszystkim matematyka.


14.2 Groźba w równaniach matematycznych

Definicja groźby:
Jeśli dowolny warunek to kara

Zasada „Jak się mówi tak się pisze”:
Zostanę ukarany (K) gdy spełnię warunek kary (W) i nadawca zdecyduje o ukaraniu (U).

W groźbie nadawca może skorzystać z aktu łaski ale nie musi tego robić. Przyjmijmy zmienna uznaniową U, którą nadawca może ustawić na dowolną wartość.

Matematyczne równanie groźby:
K=W*U

Gdzie:
K=1 – zostanę ukarany
K=0 – nie zostanę ukarany
W=1 – warunek kary spełniony
W=0 – warunek kary nie spełniony

Nadawca może ustawić zmienną uznaniową na dowolną wartość:
U=1 – ukarać
U=0 – nie karać (akt łaski)

Akt łaski w groźbie zajdzie wtedy, gdy odbiorca spełni warunek kary zaś nadawca odstąpi od wykonania kary (U=0 - akt łaski).

Analiza równania groźby.
K=W*U

A.
W=0 – warunek kary nie spełniony

Równanie groźby przybierze wówczas postać:
K=W*U=0*U=0 – zakaz karanie jeśli warunek kary nie zostanie spełniony.

Zauważmy, że nadawca nie ma tu nic do gadania. Może sobie ustawiać swoją zmienną długo i namiętnie na U=1 (karać) ... a i tak ma zakaz karania z powodu nie spełnienia warunku kary.

B.
W=1 – warunek kary spełniony

Równanie groźby przybiera postać:
K=W*U=1*U=U

Wszystko w rękach nadawcy który może zrobić co mu się podoba wedle wolnej woli:
U=1 – karać
U=0 – nie karać

Przykład:
Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L

Ubrudziłeś spodnie (W=1), nie dostaniesz lania ... bo samochód cię ochlapał, bo dziś mam dobry humor, bo cię kocham itp. (U=0 - dowolne uzasadnienie niezależne)

K=W*U=1*0=0 - nie zostałem ukarany, bo nadawca zastosował akt łaski

Zauważmy, że nadawca może robić co mu się podoba z małym wyjątkiem, nie może darować kary z uzasadnieniem zależnym identycznym jak warunek kary.

Jeśli ubrudzisz spodnie dostaniesz lanie
B~>L
Ubrudziłeś spodnie (W=1), nie dostajesz lania, bo ubrudziłeś spodnie (U=W=1).

Równanie groźby:
K=W*U=1*1=1 – kara musi być wykonana, zakaz darowania kary z uzasadnieniem zależnym

Nikt nie może robić z człowieka idioty, przede wszystkim matematyka.

Koniec 2011-11-01


Ostatnio zmieniony przez Rafal3011 dnia Śro 15:33, 02 Lis 2011, w całości zmieniany 3 razy
Powrót do góry
Zobacz profil autora
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
rafal3006
Opiekun Forum Kubusia



Dołączył: 30 Kwi 2006
Posty: 32672
Przeczytał: 43 tematy

Skąd: z innego Wszechświata
Płeć: Mężczyzna

PostWysłany: Śro 15:00, 02 Lis 2011    Temat postu:

Rezerwa

Ostatnio zmieniony przez rafal3006 dnia Śro 15:01, 02 Lis 2011, w całości zmieniany 1 raz
Powrót do góry
Zobacz profil autora
Wyświetl posty z ostatnich:   
Napisz nowy temat   Odpowiedz do tematu    Forum ŚFiNiA Strona Główna -> Metodologia / Forum Kubusia Wszystkie czasy w strefie CET (Europa)
Strona 1 z 1

 
Skocz do:  
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach

fora.pl - załóż własne forum dyskusyjne za darmo
Powered by phpBB © 2001, 2005 phpBB Group
Regulamin