Łukasz Łazarz DRAFT “Cognitve Theory of Norms. Normative schemas”

DRAFT. Cognitive Theory o f Norms. Normative schemas.W załączeniu tekst. Niestety dopiero wczoraj przyjechalem z “wakacji” i tekst jest under contruction. Dlatego prosze o wyrozumialosc za bledy. Abstrahujac od nich, a takze braku rysunkow, tekst w czesci kognitywistycznej jest w zasadzie gotowy. Niekompletne jest zakonczenie, przenoszace pojecia kognitywistyczne na “siatke pojeciowa” filozofii prawa. Poniewaz dyskurs pierwszej czesci najprawdopodobniej sprowadzi sie do takiej samej dyskusji jak przy poprzednich moich tekstach (mozliwosci aplikacji roszcacych sobie prawa do “obliczalnosci” teorii kognitywistycznych do caloscwioej wizji czlowieka, w szczegolnosci problemow na gruncie normatywnym), szczegolnie wdzieczny bede za uwagi i sugestie dotyczace drugiej czesci tektu, na razie otwartej.

Pozdrawiam,
ŁŁ.

Tags:

3 Comments to “Łukasz Łazarz DRAFT “Cognitve Theory of Norms. Normative schemas””

  1. Tekst rozpoczyna się krótkim wprowadzeniem w zagadnienie nauk kognitywnych, a dokładnie tej gałęzi kognitywistyki, u podstaw której legło silne założenie o możliwości traktowania umysłu ludzkiego jako jednostki przetwarzającej dane i tym samym modelować go tak jak komputer. Początki tego podejścia to artykuł Shannon’a z r. 1937 (dość stary). Potem kolejne nazwiska Neumann, Wiener, Chomsky, Miller. Według Łukasza to podejście zrewolucjonizowało nasze rozumienie umysłu i doprowadziło w efekcie do rozwoju nauk zajmujących się sztuczną inteligencją. Badania dot. sztucznej inteligencji wpłynęły także na szereg innych dziedzin nauki. Ostatnim bastionem, odpornym na to rewolucyjne podejście są nauki normatywne, głównie z powodu barier psychologicznych.
    W dalszej części tekstu autor podejmuje próbę przybliżenia osiągnięć tak rozumianej kognitywistyki. Dowiadujemy się m.in. że w ludzkiej architekturze poznawczej wyróżniamy dwa odrębne wymiary: deklaratywny i proceduralny. Oba dotyczą wiedzy gromadzonej w „umysle”. Ten pierwszy rodzaj wiedzy to wiedza o czymś „knowledge that”. Ten drugi to wiedza proceduralna „knowlegde how”. Podział ten jest kluczowy dla całego tekstu, zwłaszcza w kontekście jego konkluzji końcowej. Pojawiają się tu różne terminy i przenośnie mające na celu jego przybliżenie. Uczciwie jednak przyznam, że nie potrafię go do końca zrozumieć i chyba będzie to wymagało jakiejś dyskusji.
    Kolejne istotne pojęcie które Łukasz chce nam przybliżyć, to pojęcie „plasterka” (chunk). Z tektu możemy wyczytać, że „chunk” jest jakąś jednostką informacji. Z pierwszej definicji jawi się jako jednostka pojedyncza i niepodzielna, przetwarzana przez aparat poznawczy i będąca podstawą jakichkolwiek jego (tego aparatu – cognitive processor) wyborów i działań w wymiarze proceduralnym. Ta niezbyt jasna ale uchwytna intuicyjnie definicja rozmywa się w dalszych dywagacjach. Chunk może być złożony. Można dokonać jego rozkładu w drodze „plasterkowania” (chunking). Chunking to proces uzyskiwania informacji poprzez źródła aparatu poznawczego: zmysły pamięć, emocje, i informacje o naszych własnych działaniach. Nie jest to zbyt jasne i wymaga autorskiej wykładni.
    W tym miejscu w tekście pojawia się bardzo silne założenie, które dotyczy stosowania w procedurze podejmowania decyzji racjonalnej użyteczności tzn. kalkulowania maksymalnej użyteczności jako podstawy do podejmowania decyzji. (Utility Rational Procedural Assumption URPA).
    W dalszej części tektu „chunki” omawiane są jako struktury schematyczne. Przykładem takowej (jak sądzę) jest obserwacja Kowalskiego jedzącego ciastko. Taki obserwowany obiekt jest plasterkowany na szereg różnych „chunków”. Dalszych wywodów w tej części nie zrozumiałem. Nie rozumiem też pojawiającego się tam rozróżnienia charakteryzującego zbiór „chunków” pod kątem jego horyzontalnego i wertykalnego wymiaru.
    W kolejnym fragmencie tekstu chunki pojawiają się jako relacje (tak wynika z tytułu). W pierwszym zdaniu jednak dowiadujemy się jednak że są one nodami w sieci semantycznej. Na przykładzie Kowalskiego jedzącego ciastko, Łukasz wyjaśnia, że „Kowalski” jest nodem, podczas gdy „jedzenie” jest relacją. Wydaje się, że chodzi tu raczej o relacje między samymi chunkami i ich wzajemne powiązania. To z kolei nawiązuje do próby rozróżnienia pomiędzy rozumowaniem syntetycznymi analitycznym.
    Następnie Łukasz przechodzi do omawiania „Declarative procedural knowlegde”. W ramach tego rozdziału wyróżnia te chunki które reprezentują informację nt. własnych działań i emocji. Nazywa je schematami normatywnymi (?). Następnie przechodzi do omawiania chunków emocjonalnych. Tu następuje jakieś niezrozumiałe dla mnie zrównanie emocji z użytecznościami (lub też celami do osiągnięcia, wartościami?). Rzecz do omówienia. W ostatnim podrozdziale tej części znajdujemy wyjaśnienie na czym polega różnica pomiędzy schematami normatywnymi a wiedzą proceduralną. W zasadzie wydaje się, że jest to rozwinięcie wcześniejszej dystynkcji pomiędzy pamięcią (wiedzą) deklaratywną (wiedza po faktach), a pamięcią (wiedzą) proceduralną (wiedzą o sposobie postępowania).
    Rozdział piątym, jak z tytułu można wnioskować dotyczy wymiaru proceduralnego. Jego istotną częścią jest omówienie URPA. Czytamy w nim, że kalkulacja użyteczności w róznych modelach (?) w tym w ACT-R opiera się na dość prostej funkcji która oczekiwaną użyteczność wiąże z użytecznością, kosztami jej osiągnięcia i prawdopodobieństwem. W ACT-R pojawiają się ponadto dodatkowe zmienne i wartości ograniczające. Istota jednak nie ulega zmianie więc nie podjąłem się rozszyfrowywania równań. Rozdział kończy konkluzja, której waga skłania mnie do jej zacytowania: „nie ma żadnych kognitywnych dowodów, że istnieją jakiekolwiek inne czynniki konieczne do stymulowania działania aparatu poznawczego włączając w to zachowania ludzkie, niż kalkulacja użyteczności i pewna przypadkowość.”
    Ostatni (szósty) rozdział jest niedokończony. Zawiera w zasadzie dwa elementy: Próbę definicji normy – dość oryginalną. Dobra teoria norm powinna skutecznie charakteryzować wszytkie możliwe aspekty normy, kładąc odpowiedni nacisk na odpowiednie aspekty wyróżniające normę i powinna używać minimum pojęć do opisu zjawiska normy możliwie szeroko. Drugie element to podsumowanie owej teorii: Normy to wiedza deklaratywnie proceduralna (wiedz normatywna) z odniesieniem do wcześniejszego opisu.
    Uwagi:
    Uff. Strasznie się namęczyłem nad tym tekstem i prośba do autora aby na zaś pisał po polsku. Nie potrafię do końca rozstrzygnąć czy jest to wynikiem mojej niedoskonałej znajomości angielskiego czy też specyficznego stylu czy też błędów językowych które gdzie niegdzie wyłapałem, ale tekst jest bardzo nieczytelny. Wyraz temu dałem w komentarzach powyżej, zaznaczając fragmenty których nie rozumiem.
    Dużym problem jest uchwytny chaos pojęciowy. Łukasz posługuje całym szeregiem terminów zaczerpniętych jak sądzę z psychologii czy kognitywistyki, którym nadane są specyficzne znaczenia. Trzeba się tych znaczeń trzymać konsekwentnie. Ten chaos bardzo utrudnia lekturę, a widoczny jest m.in. w tym, że wiele pojęć występuje w zestawieniach (ukośnik lub nawias). Przy próbie definiowania występują klasyczne błędy idem per idem, ignotum per ignotum.
    Odnoszenie się do głównej tezy (rozdział 6) chyba nie ma sensu dopóki nie zostanie rozwinięta – choć poddaje to pod dyskusję. To co ewentualnie można omówić to szczególe rozumienie dobrej teorii norm. Tutaj chyba argumenty Bartka trafiły w próżnie i spodziewam się powtórki dyskusji.
    Część, nazwijmy ją opisowa, która wyjaśnia podstawy AIG czy też raczej architektury ACT-R jest mocno dyskusyjna. Kilka uwag do rozwinięcia na seminarium:
    1. W kilku miejscach Łukasz podkreśla jej silne umocowanie w wynikach badań biologicznych. Nie znalazłem jednak żadnych odniesień do tych badań. Przeciwnie natomiast, wydaje mi się, że można wskazać kilka które: mogą podważać podział pamięci na deklaratywną i proceduralną (Łukasz cytuje Nęckę i z cytatu już wynika, że ten podział jest wątpliwy) lub podważają model oparty na kalkulacji użyteczności (cały szereg badań w obszarze behawioralnym).
    2. Pojęcie chunku jawi mi się jako całkowicie niespójne. Rozumiem, że w trakcie dyskusji spróbujemy coś z niego wyciągnąć. Czy są jakieś stwierdzone biologiczne korelaty tego fenomenu, czy też to tylko koncepcja teoretyczna.
    3. Traktowanie umysłu jako jednostki przetwarzającej dane nie jest odkrywcze. Ale budowanie silnej analogii do komputera w architekturze von Neumanna jest już nadużyciem. Taki komputer jest jednostką statyczną. Ma określoną pamięć, w niej zakodowane dane i instrukcje. Nie ma tu miejsca na coś co w badaniach nad złożonością biologiczną określa się mianem „algorytmu ewolucyjnego”.

    MG

  2. Dziekuje Marcinie za lekture; wiem, ze tekst nie nalezy do najlzejszych i przede wszystkim zapewne mnostwo w nim bledow jezykowych utrudniajacych prace -nie mialem czasu zrobic nawet tzw drugie czytania.
    Jedna tylko uwaga, czy bardziej wytlumaczenie. Jak pisalem to mialem obawy, ze zbyt duza latwoscia “wymianiam” pojecia (czasem stosuje nawiasy) co moze tworzyc poczucie chaosu pojeciowego. Przyznam jednak, ze robilem to swiadomie chcac wykazac, ze czesto w literaturze mowi sie o tym samym, inaczej tylko akcentujac funkcje tych samych desygnatow poprzez uzywanie innych pojec. Czasem sam staralem sie wprowadzic pojecie, ktore po prostu mi sie podoba (vide cognitive processor wystepujace wymiennie z cognitice architecture, a czasami wymienie z subject a nawet human being – akcentujac, ze istnienie pewnego wspolnego mechanizmu poznawczego). Jak widze moje obawy okazaly sie uzasadnione dlatego wezme to pod uwage pracujac nad tekstem.

    ŁŁ

  3. A w sumie… gwoli scislosci – dwie rozbudowane uwagi natury ogolnej:
    1. nie tylko w mojej opinii paradygmat kognitywistyczny stanowi rewolucje i jest jednym z silniej rozwijanych kierunkow (w Polsce z opznieniem 30 letnim? Od kilku lat wydzial Cognitive Science jest w Toruniu, mocny osrodek psychologii kognitywnej istnieje od niedawna w Poznaniu, od tego roku (?) jest taki kierunkek na wydziale filozofii na UJ, w przyszylym roku ma byc osobny kierunek na AGH). Nawet jesli z takim opoznieniem- to widac niewatpliwa popularnosc tego paradygmatu.
    2. W sumie nie pisze nigdzie Marcinie wprost, ze czlowiek jest komputerem i mozna go “deterministycznie” symulowac (niech bedzie okreslenie deterministycznie symulowac, chodzi budzi one moje opory). Ale twierdze niewatpliwie, ze w pewnym zakresie bezprzecznie tak jest – mozna stwierdzic (to dowodzi wiele empirycznych badan), ze pewne mechanizmy dzialaja mniej wiecej tak jak staralem sie to pokazac w artykule (w sposob tak scisly, ze mozna te procesy algorytmizowac). W PEWNYM ZAKRESIE . Ale poza tym zakresem nie mamy zadnych rozsadnych wizji (teorii) czlowieka (istoty inteligentnej), oprocz beletrystyki, z ktorej niewiele wynika. Co wiecej te mechanizmy, ktore bezsprzecznie sa algorytmizowalne w tym okreslonym falsyfikowalnym zakresie, intuicjnie dla wielu kognitywistow (w tym takze dla mnie) tez dzialaja w skali makro, a jedynie trudnosci techniczne nie pozwalaja tego empirycznie falsyfikowac na tym poziomie. I przy okazji udowodnic ze tak jest, wszystkim, ktorzy maja co do tego watpliwosci.
    Jednak co chce zaznaczyc, staram sie nie przekraczac lini “dla watpiacych” i staram sie bazowac tylko na najnowszych osiagnieciach psychologii (kognitywnej) – jak by nie bylo nauki majacej ex definitione za zadanie zajmowac sie ludzkim umyslem, a wiedza ta jest dla mnie punktem wyjscia do jakiekolwiek filozoficznej dyskusji. Przyznam, ze to wogole moja slabosc, bez uzgodnionych zalozen dotyczacych funkcjonowania umyslu ciezko prowadzi mi sie z kimkolwiek jakikolwiek ogolny, filoficzny dyskurs.
    Ł.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

%d bloggers like this: