Dénes Tamás matematikus-kriptográfus
e-mail: titoktan@freemail.hu
A Turing-teszt az e-társadalom napi gyakorlata
Virtuális agárverseny effektus:
Érjük utol a nem létező nyulat egy virtuális
agárversenyen!
1. Gondolatok
a Turing-teszt előtt
Most nem engedjük elkalandozni
gondolatainkat több ezer éves távlatokba, a "már az ókori görögök is ismerték"
szokásos fordulatot használva, mégis lenyűgöző az a gondolkodásfejlődési ív, amely
elvezetett a mechanikus számoló-gépektől a mai infokommunikációs rendszerek technikai
alapját képező digitális gépekig. Talán nem tanulság nélküli ez a történeti kitérő
Neumann János születésének centenáriumi évében, amelyből kiderül, hogy milyen
óriások vállán állt, amikor a XX.század második felének és a jelen fejlett társadalmainak
gyökeresen új irányt szabott, a számítástechnika megalapozásával.
Bár valóban az emberiség
a kezdetektől alkalmazott a számolás megkönnyítésére különböző eszközöket (ilyenek
voltak a legrégebbi ismert eszközök, a rováspálcák, majd az abakusz), jelen témánk szempontjából azonban
csupán vázlatosan teszünk említést azokról az eszközökről, amelyek már a mai értelemben
is számoló-gépeknek nevezhetők. Ehhez elegendő a XVII. századig visszapergetni
a naptárt, amikor 1642-ben Blaise Pascal
(1623-1662) megszerkesztette fogaskerekes összeadógépét, az arithmométert.
Ennek tökéletesített formája volt 1671-1673-ban
Gottfried Wilhelm Leibniz (1646-1716) összeadó és szorzógépe, amellyel mind a
négy alapműveletet el lehetett végezni, sőt Leibniz már ekkor javasolta a számológépeknél
a 2-es számrendszer használatát[1]!.
Ezekkel a fogaskerekes eszközökkel
egyre több és egyre nagyobb számokon végzett műveleteket lehetett a fejben, vagy
papíron történő számoláshoz képest igen gyorsan elvégezni, ezért a XVIII. században,
főleg Franciaországban már sorozatban gyártottak ilyen készülékeket.
Igen nagy előrelépést jelentett
a változtatható fogazású, majd a lyukkártyás vezérlésű gépek bevezetése. Az első
ilyen gépek Joseph Marie Jacquard (1752-1834)
nevéhez fűződnek, aki 1810-ben elkészítette
első lyukkártya vezérlésű szövőgépét,
amely már lehetővé tette a selyemszövetek különböző mintázatokkal történő automatikus
gyártását.
Jacquard halálakor több tízezer
ilyen szövőgép üzemelt. A lyukkártyás vezérlés ötlete és technikája a szórakoztató
iparban is megjelent például a XVIII.-XIX. századi zenegépekben. Száz évvel később,
az 1960-as, 1970-es évek számítógépeinek kulcsjelentőségű perifériája lett a lyukkártya
olvasó, amely már az adatokon túl a programok beolvasására is szolgált!
A számítástechnika és így
a "gondolkodó gépek" felé vezető út szempontjából igazi áttörést Charles Babbage (1792-1871) angol matematikus
tevékenysége jelentett, akinek először jutott eszébe, hogy a lyukkártya alkalmas
lehet az elemeire bontott számítási eljárások gépbe táplálására is. A mintegy
tíz évi munkával készített első gépe, a Difference Engine[2]
képes volt nagy számtáblázatok automatikus elkészítésére, ami méltán váltotta
ki a korabeli csillagászok elismerését, melynek kifejezésére a csillagászok egyesülete
aranyéremmel tüntette ki. Babbage azonban gépét továbbfejlesztette és grandiózus
tervekkel foglalkozott, melynek eredménye, új számítógépe, az Analytical Engine sohasem készült el, mivel
az 1000 tengely és az 50 helyiértékes számokhoz
tartozó fogaskerékrendszer technikai kivitelezése olyan technikai precizitást
igényelt, amelyre az akkori ipar képtelen volt.[3]
Babbage gépe méltánytalanul feledésbe
merült, pedig az az automatizált számítógépek
ősének tekithető. Babbage ugyanis felismerte
azt, hogy szükséges a számítási folyamat közben keletkező részeredmények tárolása
is. Ugyanakkor az Analytical Engine valósította volna meg először azt az elvet,
hogy a gép előre meghatározott (és lyukkártyák segítségével változtatható!) algoritmus
szerint végezze a számításokat, vagyis mai fogalmaink szerint, ez lett volna
az első programozható "számítógép". Babbage gépe tehát szerkezeti
elemeit (architektúráját) tekintve (aritmetikai egység, operatív tár, vezérlő
egység), pontosan megfelelt a napjainkban is használt, úgynevezett Neumann elvű
számítógépeknek. Mindez szinte pontosan 100 évvel Neumann János előtt!
A Babbage-nél még mechanikus elemekből felépülő
lyukkártyás rendszert csupán az elektronika felhasználásával modernizálta a XIX.
század végén, az Amerikai Statisztikai Hivatal igazgatója
Herman Hollerith (1860-1929), aki 1889-ben
a népszámlálás adatainak feldolgozására egy rendezőgépet dolgozott ki. Minden
állampolgárhoz egy adatsort (számsort) rendelt, amely számokat egy 80 oszlopból és 10 sorból álló kártyán lyukasztással rögzítettek. A rendezőgép olyan
elektromágneses szerkezet volt, amely a kártyák oszlopainak megfelelő távolságokban
pontosan 80 letapogató fémtűvel rendelkezett,
így amikor a görgősoron egy kártya a tűk alá került, akkor azok a tűk, amelyek
a kártyán lyukat "találtak", zárták az elektromágnes áramkörét, amely
azon a padon, amelyen a kártya elhaladt, kinyitotta a lyukasztásnak megfelelő
ajtót, amelyen át a kártya a neki megfelelő dobozba esett[4].
Az elektromosság alkalmazása
felgyorsította a számológépek fejlődését és a XX. század elején mind tökéletesebb
elektromechanikus gépeket készítettek. Az Amerikai Egyesült Államokban Howard Hathavay Aiken elkészítette a MARK-I és MARK-II elektromechanikus
analitikus számítógépeket, amelyekben egy összeadáshoz 0,3-0,5 sec, egy szorzáshoz 5-6 sec, míg egy osztáshoz 15 secundum kellett. Mindehhez (mint az a 6.
képen látható) egy hatalmas teremre volt szükség.
Norbert Wiener (1894-1964)
1940-ben megfogalmazta a korszerű számítógépek
"5-parancsolatát":
1.
A
számítógép aritmetikai egysége numerikus legyen.
2.
A
mechanikus és elektromos kapcsolókat fel kell váltani elektroncsövekkel.
3.
Az
aritmetikai műveletek elvégzésére a 2-es számrendszert kell alkalmazni.
4.
A
műveletsort a gép emberi beavatkozás nélkül, automatikusan végezze úgy, hogy a
közbenső logikai döntéseket is be kell táplálni. (Mai
szóhasználattal, ez a program.)
5.
Legyen
lehetőség az adatok tárolására, könnyű előhívására és törlésére.
A II. világháború alatt rohamosan fejlődő hadiipar
sorra vetette fel a rengeteg számolást igénylő feladatokat (például a nagy hatótávolságú
lövedékek lőelemtáblázatai, lövedékek gyors röppályaszámítása, az atombomba kísérletek
számításairól nem is beszélve), amelyek sürgették a "számítógépek 5-parancsolatának"
gyakorlati megvalósítását.
Így készült el Neumann János és Herman H.Goldstine tervei alapján
1943-1946 között az első elektronikus számítógép, az ENIAC
(Electronic Numerical Integrator And Calculator), a philadelphiai Pennsylvania Egyetemen. Az ENIAC egy
elektronikus kolosszus volt, amely 30 tonnát nyomott, egy több mint 30 méter hosszú
terem kellett az elhelyezéséhez és a 18000 elektroncső 100-150 kWó energiát fogyasztott
(ezért a hűtése igen nagy problémát jelentett).
Az ENIAC még nem felelt meg
egészen a "számítógépek 5-parancsolatának", hiszen aritmetikája
10-es számrendszerben működött. Számítási teljesítménye azonban a MARK-I
és MARK-II gépekéhez viszonyítva lenyűgöző volt, az összeadást és kivonást 10 tizedes pontossággal 0.0002,
a szorzást 0.0023 secundum alatt végezte
el. Memóriájában mindössze húsz darab tízjegyű számot lehetett tárolni, így program
tárolására nem volt alkalmas, a programozását egy huzalos dugaszolótábla tette
lehetővé.
Ezen adatok ismeretében még
nagyobb tisztelettel kell adóznunk C. Babbage száz évvel korábbi teljesítménye
előtt és egyáltalán nem csodálkozhatunk azon, hogy annak megvalósítása akkoriban
kudarcba fulladt.
Neumann János és H.H.Goldstine
az 1940-es évek elejétől foglalkoztak a számítógépek elméleti és gyakorlati problémáival.
Kutatásaik eredményét egy bizalmas jelentésben foglalták össze 1948-ban, amely
először tartalmazta az univerzális, belső programvezérlésű, elektronikus, digitális
számítógép tervét. Ebben egyértelmű érvekkel alátámasztva állást foglaltak a már
Leibniz által ajánlott bináris számrendszer mellett, valamint megoldották a programtárolás
módját is. Így lehetővé vált az adatok és részeredmények tárolásán kívül, a végrehajtandó
utasítások tárolása is a számítógép memóriájának egy erre fenntartott részében.
Az ENIAC tapasztalatait felhasználva,
már ezen elveket valósította meg, az 1948-1949-re elkészült EDVAC (Electronic Variable Automatic Computer),
amelyet tervezője Neumann János tiszteletére "Johnnyac"-nak is hívtak[5].
Érdemes felfigyelni ez utóbbi
elnevezések közötti (látszólag jelentéktelen) eltérésre, amely már tükrözi azt
a jelentős különbséget, amely a mind nagyobb teljesítményű, a szó szoros értelmében
vett számoló gépek (minél nagyobb számokkal,
minél gyorsabban végzett műveletek) és a változtatható és tárolt programokkal
programozható számítógépek között van.
Ez az a pont, ahol kezd versenytárssá
válni a gép és az ember, ahol már a nagy mennyiségi teljesítményekre képes automatikusan működő,
de alapjában véve egyszerű gépek helyére lépnek a programvezérelt automaták. Az
automaták már az 1800-as években Kempelen Farkas zseniálisan szélhámos "sakkozó
automatája"[6]
idején is nagy csodálattal töltötték el az embereket.
Később a logikai gépek, majd
az emberi funkciókat modellező automaták, már elkerülhetetlenné tették a programnak,
mint matematikai fogalomnak a definiálását.
Éppen Alan Mathison Turing[7] (1912-1954)
volt az, aki az 1930-as években
elsőként adta meg a program és a programozható számítógép matematikai modelljét,
a róla elnevezett Turing-gép definícióját. Ez a gép tulajdonképpen
egy absztrakt automata, amelyre teljesül az a meghökkentő tétel, melyet Alonzo
Church amerikai matematikus 1936-ban állított fel és amely szerint minden programhoz
található egy azzal ekvivalens Turing-gép és fordítva, minden Turing-gép egy programot
(algoritmust) valósít meg, azaz a Turing-gép tökéletes modellje a program fogalomnak. A Turing-gép, mint minden
igazán zseniális elképzelés, könnyen leírható:
Képzeljünk el egy olyan automatát, amely véges sok szimbólumot (jelet) képes
feldolgozni úgy, hogy egy adott időpillanatban egyetlen szimbólumot képes leolvasni,
vagy felírni egy elvileg végtelen szalagra. A feldolgozást egy speciális jel,
a STOP jel feldolgozásakor fejezi be.
Ebben az absztrakt definícióban
valóban benne van a jelek hosszabb jelsorozatokká való összeláncolásának és így
tetszőleges bonyolultságú utasítások létrehozásának és tárolásának, a végrehajtás
közben keletkezett jelek (adatok) tárolásának lehetősége, vagyis mindazon funkciók
elméleti lehetősége, amelyeket egy évtizeddel később, Norbert Wiener
a korszerű számítógépek "5-parancsolata"-ban foglalt össze.
A programok, az automaták,
a számítógépek számtalan elméleti kérdést vetettek fel, amelyek megválaszolására
részben a matematikai logika, az absztrakt algebra és más matematikai területek
segítségével kerestek válaszokat, részben egészen új tudományterületek születtek,
mint például az automata elmélet, a kibernetika, a számítógép tudomány, vagy az
információ elmélet.
2. A Turing-teszt
A programozható gépekkel
kapcsolatban, szintén a XX. század 30-as
éveiben vetődött fel a kérdés, hogy létezik-e (létezhet-e) olyan programozási
feladat, amely nem oldható meg? Azaz a Church-tézis szerint, létezik-e olyan programozási feladat, amelyhez
nem található Turing-gép ?
Nos, 1937-ben A.M. Turing
bebizonyította, hogy a válasz "igen", mivel azok és csak azok az algoritmusok
programozhatók, melyekhez úgynevezett rekurzív függvények tartoznak.
A matematikának azt a területét, amely eme kérdések egzakt tárgyalását
tűzte ki céljául, kiszámíthatóság elméletnek, algoritmus elméletnek, illetve Turing
előbbi tétele szerint a rekurzív függvények elméletének nevezzük. Ezek az elméleti
területek leegyszerüsítve a következő kérdéssel foglalkoznak:
Melyek azok a számítások, amiket a számítógép el tud végezni, ha minden
gyakorlati jellegű korláttól eltekintünk (mint például a rendelkezésre álló idő
és tárkapacitás) ?
A.M. Turing tehát kereste saját konstrukciójának a korlátait
és egyben a mesterséges intelligencia kutatások előfutárának is tekinthető, mivel
Ő vetette fel elsőként azt a kérdést, hogy mit is jelent a "gépi intelligencia"
?
Az első megválaszolásra váró
kérdés persze az, hogy létezik-e ilyen, hiszen a máig létező többségi felfogás
szerint intelligenciával csupán az ember rendelkezik, ezért a "gépi intelligencia"
szóösszetétel értelmetlen. Turing azt is jól látta, hogy az intelligencia és gondolkodás
fogalmak egymástól elválaszthatatlanok, ezért fogalmazta meg
1950-ben megjelent, klasszikussá vált cikkében, a dolgozatom elején idézett,
egyetlen mondatba sűrített kérdését: "…
tudnak-e a gépek gondolkodni ?"
Ezzel a kérdéssel és az ezt
követő gondolataival indította útjára, a napjainkban egyre aktuálisabb mesterséges
intelligencia kutatást. Turing szerint a "gondolkodni" szó inkább érzelmi
kérdéssé teszi ezt az egész kérdéskört, ezért el is vetette, mint túlságosan bizonytalan
(szubjektív) fogalmat. Ugyanakkor az 1950-es években sokan úgy gondolták, hogy
Kurt Gödel (1906-1978) nemteljességi tétele a mesterséges intelligencia
lehetetlenségét is bizonyítja:
A mesterséges intelligencia mindig "egy program", azaz egy Turing-gép
(Church-tézis). Az ebben a gépben tárolt axiómarendszer meghatároz egy "nyelvet",
amely nyelven megfogalmazható olyan kérdés, amelyre ebben az axiómarendszerben
nem vezethető le igen-nem jellegű válasz (Gödel-tétel). Tehát e mesterséges intelligencia
számára érthető nyelven, megfogalmazható olyan kérdés, amelyre nem tud sem igennel,
sem nemmel válaszolni !
Bár ez az érvelés több sebből
vérzik, témánk szempontjából csupán egyet emelek ki ezek közül: Ha a mesterséges
intelligenciát, mint az emberi intelligenciát utánzó konstrukciót fogjuk fel,
akkor ennek megvalósíthatatlanságát nem bizonyítja az az érv, hogy bizonyos kérdésekre
nem tud felelni, hiszen ez az emberi gondolkodásnak is jellemzője.
A rekurzív függvények elméletének,
a matematikai nyelvészetnek jelentős alakja, a magyarországi kibernetikai iskola
megalapítója, Kalmár László (1905 – 1976) az 1948-as amszterdami Filozófiai kongresszuson
tartott előadásában bebizonyította, hogy a Church-tétel a Gödel-tételből levezethető,
így Church tétele nem bizonyíthatja abszolút eldönthetetlen probléma létezését.
Kalmár László hangsúlyozta,
hogy ezeket a tételeket (Gödel, Church) szabatosan úgy kellene megfogalmazni,
hogy a kérdéses problémasereg általános rekurzív eljárással nem oldható meg, nem
pedig abszolút megoldhatatlanságról beszélni (lásd [KALM 86]).
Turingot az ellenvetések
és főleg a "gépi intelligencia" fogalmának bizonytalansága csak inspirálta
egy új megközelítés felvetésére. Ennek lényege, hogy e szubjektív és ezáltal tudományosan
megfoghatatlan fogalmak helyett, egy olyan módszert kell konstruálni, amelyet
jól definiált technikai fogalmakkal lehet leírni. Javaslata szerint ez az általa
"utánzási játéknak" nevezett módszer, melyet manapság Turing-teszt,
vagy Turing-próba néven ismerünk. A Turing-teszt lényege (lásd 1.ábra):
Képzeljük el, hogy egy C számítógép és egy E ember két külön helyiségben
van elkülönítve és mindketten elektronikus kapcsolatban vannak egy harmadik
helyiségben levő K személlyel, aki elektronikus
úton kérdéseket tehet fel mindkettejüknek. K-nak az a célja, hogy a kérdéseire
érkező válaszokból meg tudja különböztetni, hogy mely válasz származik C-től és melyik E-től.
A teszt egyik óriási előnye,
hogy az intelligenciáról, gondolkodásról való elmeélesítő gondolatkísérletek síkjáról,
gyakorlatban kivitelezhető és a probléma lényegét megragadó eszközt kaptunk a
kezünkbe. Hiszen most már az eredeti kérdés
helyett azzal a jól kezelhető kérdéssel állunk szemben, hogy "van-e
olyan gép, amely ezt a játékot jól tudja játszani?"
Az eredeti Turing probléma
valóban a gépi és emberi intelligencia megkülönböztetése volt. A mesterséges intelligencia
kutatások célkitűzése tehát, a gépek alkalmassá tétele arra, hogy az embert minél
pontosabban tudják utánozni.
Turing eme korszakos cikkében kifejezte meggyőződését,
hogy a XX. század végére a gépek már elég jól fogják játszani ezt a játékot ahhoz,
hogy egy átlagos kérdezőnek nem lesz 70%-nál több esélye az azonosításra 5 percnyi kérdezés után.
3. A Turing-teszt és az e-kommunikáció
Vajon ha A.M.Turing megérte
volna éppen 2002-ben esedékes
90. életévét, hogyan értékelné saját ötven évvel ezelőtti elképzeléseit
?
Valószínűleg elismerné, hogy
fantáziája nem volt elegendő ahhoz, hogy előre lássa azt a technikai robbanást,
amely a számítástechnikában, elektronikában, kommunikáció-technológiában bekövetkezett,
s amelynek eredményeként a jelenünk, mindennapjaink részévé, napi gyakorlattá
vált a Turing-teszt.
A mai információsnak
nevezett, információ alapú, vagy inkább e-kommunikációs társadalom ugyanis egy
"FEKETE DOBOZ" modellt valósít meg. Ebben a modellben (lásd 2.ábra)
egy óriási információ tárolóval (ez a "fekete doboz") kommunikál minden
felhasználó úgy, hogy a felhasználók EGYMÁS SZÁMÁRA valójában ISMERETLENEK és
csak a "fekete doboz"-hoz való csatlakozás követel meg egyszerűbb, vagy
szigorúbb azonosítást ("bemutatkozást"), fordítva ez ellenőrizhetetlen.
Ma az internet egyik fő vonzereje a "globális névtelenség", ami egyúttal
számos visszaélés és bűncselekmény forrása is.
A modell tehát úgy működik,
hogy mindenki egy közös dobozba ("fekete doboz") helyezi be az információit
(lehet az személy, cég, intézmény, stb.)[8]
és ebből mindenki annyit vehet ki, amennyire a „fekete doboz” engedélyt ad.
A 2.ábra globális kommunikációs modellje, melyet
e folyóiratban már más kontextusban is ismertettem (lásd [DÉNT 02/3]) tulajdonképpen
egy megsokszorozott Turing-modell, ahol mindenki a géppel kommunikál elektronikusan,
így mindenki lehet kérdező (K) és kérdezett (E), a gép pedig összegyűjti és tárolja
a információt. A globális
modell tehát tömören leírható Arkagyij Rajkin szavaival:
"Én vagyok itt (K). De ki van odaát ?!"
A válasz, mint látni fogjuk
az információs társadalom kulcskérdéséhez vezet. A.M.Turing idézett 1950-es cikkében tesztjét így fogalmazta meg:
"Azt állíthatjuk, hogy egy gép gondolkodik, ha kérdéseket tehetünk
fel neki, éspedig tetszőleges kérdéseket
és az úgy válaszol, hogy ha nem 'nézünk oda', nem tudjuk, hogy a felelet géptől, vagy embertől
származik-e."
Turing gondolatmenete látnoki
volt, ugyanis tökéletesen illeszkedik a jelen e-társadalmának 2.ábrán felvázolt globális kommunikációs hálózataira.
A kommunikációs hálózat minden felhasználója (E1,E2,…,K)
valóban egy monitor előtt ül és kérdéseket tesz fel. A monitoron megjelenő válaszok
tartalmából azonban, ha odanézünk sem dönthető el biztosan a válaszoló „személye”,
így annak valódi, vagy virtuális volta sem! (Természetesen itt a „személy” jelölhet csoportot,
céget, szervezetet, stb.) A válaszoló személyének
bizonytalansága tehát felveti az ÁLTALA KÉPVISELT INFORMÁCIÓK VALÓDISÁGÁNAK, A
VIRTUÁLIS INFORMÁCIÓKNAK a problematikáját. Így válik ez az elektronikus kommunikációs
rendszerek és ezáltal az információ alapú társadalom kulcskérdésévé.
Azt már Turing is látta, sőt elméletileg bizonyította,
hogy ha egy gép tökéletesen játsza az "utánzási játékot", akkor a
Turing-teszt kérdésfeltevése ("Mesterséges
vagy természetes intelligenciával állunk szemben?") eldönthetetlen. A
globális kommunikációs modellben ugyanakkor a
C gép igazából nem a saját,
hanem a sok-sok E1 ,E2
,E3 ,… felhasználó intelligenciájával "játszik", így
K-val szemben emberi intelligenciák sokasága áll. E modell kísértetiesen
hasonlít Kempelen báró 200 évvel ezelőtti
"sakkozó automatájához", amelynek saját korában csodájára jártak, az
utókor pedig egy szélhámos szemfényvesztéseként tartja számon. Pedig Kempelen
"automatájában" csupán egyetlen pici, ámde zseniális emberke kuporgott
!
A globális e-kommunikációs
rendszerekben elhelyezett gépek, mint információgyűjtő fekete dobozok, túl jól
játszák az "utánzó játékot", így sajnos a mesterséges és természetes
intelligencia megkülönböztetésének problematikája hosszú időre a titkos kutatólaboratóriumokba
szorult, míg eme e-kommunikációs rendszerekben a "Valódi vagy virtuális információ?"
alapkérdés váltja fel. Ez egy egészen új kihívás.
Míg Turing elképzelése szerint a K kérdezőhöz
a két féltől jövő válaszok (E,C) összehasonlítása fogódzót adhat a "gép
vagy ember?" kérdés eldöntésére, addig az e-kommunikációban ilyen fogódzó
nincs, hiszen minden válaszoló, gép által leképezett ember. Az e-modellben
tehát (Kempelen sakk-automatájával ellentétben) világos, hogy az "automatában
ember ül", de a kilétét és állításainak valódiságát éppen a "tökéletes
utánzás" fedi el.
Egy olyan társadalomban,
amely az információk szabadon áramló, tömeges áradatára épül (információ alapú
társadalom), reménytelen vállalkozás minden információ valódiságát egzakt módon
ellenőrizni, így egyre nagyobb jelentőséggel
bír az információforrások "beolvadása" a "fekete dobozba",
amellyel az információ így szinte teljesen személytelenné válik.
A K
kérdező számára tehát már nem az a kérdés, hogy emberi, vagy gépi intelligenciával
áll szemben, hanem azt kell eldöntenie, hogy a kérdéseire érkező válaszok valódi,
vagy virtuális "személytől" származnak, azaz döntéseket építhet-e rájuk,
vagy sem. A K
kérdező így teljesen kiszolgáltatott helyzetbe került, ami döntései szempontjából
is jelentős bizonytalanságot jelent.
Az információ mennyiségének,
bizonytalanságának mérésére vezetett be Claude Shannon (1916-2001) matematikai
egzaktsággal kezelhető fogalmat, az információ entrópiát [SHANN 48]. Ennek felhasználásával
mutatta be a jelen cikk írója [DÉNT 01/1]-ban, hogy a globális hálózatok (ilyen
az információ alapú társadalom is!) biztonsága jóval kisebb, mint a "rendezettebb
struktúrájú", azaz hierarchikusabb struktúrájú hálózatoké.
Az információs társadalom
kulcsfogalma tehát az információ biztonság, azaz a titkos[9]
és nyilvános információk jó elkülönítése, tárolása, továbbítása, hiszen az e-kommunikáció
dominanciája egyre jobban kizárja a hagyományos értelemben vett személyes azonosítást,
a tapasztalatokon nyugvó ellenőrzést, így a legkülönbözőbb mesterséges azonosító
eszközöket kell alkalmaznunk. A mesterséges azonosításhoz egyre több titkos kód,
jelszó, kulcs megőrzésére, tárolására kényszerülünk, hiszen ezek mindegyike számunkra,
vagy más közös érdekeltségű csoportok számára, értékes információkat takar (hitel
kártyák, telefon kártyák, igazolvány kártyák, PIN kódok és jelszavas azonosítók,
stb.), akárcsak a fekete doboz "labirintusának titkos ajtója". A titkolódzás az e-kommunikációban általánossá
válik, kilép a titkosszolgálatok szűk világából és mindennapjaink része lesz.
Egyre nyilvánvalóbb a "nyíltan titkolódzás" szükségessége, amely "paradox
játék" nagyon hasonlít a Turing-tesztre, sőt mára önálló területté vált
a kriptográfiában (rejtjelzéstanban), ez a "zero-knowledge proof",
azaz az "előismeretek nélküli bizonyítás".
4. A "zero-knowledge
proof"
A probléma megfogalmazása
igen egyszerű, ha észrevesszük, hogy a globális
kommunikáció 2.ábra szerinti modelljében a szerepek felcserélhetők, azaz mindenki
lehet kérdező és kérdezett, valamint fenti gondolatmenetünk szerint a gép és a
számtalan felhasználó sem különböztethető meg információelméleti alapon.
Tételezzük fel, hogy a "fekete dobozban" egy labirintus van, mely
egy titkos ajtót rejt, amelyen mindenképpen át kell jutni ahhoz, hogy a labirintus
egyik feléből a másikba jussunk (lásd 3.ábra). A B játékos ismeri az ajtó titkát (ki tudja nyitni azt!), de úgy kell ezt
bebizonyítania az A játékosnak,
hogy közben magát a titkot ne árulja el. Ezt nevezi a nemzetközi szakirodalom
"zero-knowledge proof"-nak, azokat az eljárásokat, amelyek alkalmasak
az ilyenfajta bizonyításra, "zero-knowledge protocol"-nak (lásd [PETSO 88],[STEW 96],[WAYN 87]).
Íme egy általános eljárás
(protocol) az előismeret nélküli bizonyításra:
1.
Az A játékos
a labirintus bejáratánál áll, míg a B játékos eltűnik a labirintusban.
2.
Az A játékos
két dolgot kérhet B-től:
-
Gyere
ki a jobboldali folyosón!
-
Gyere
ki a baloldali folyosón !
3.
Mivel
a B játékos a titkos ajtó egyik oldalán
állhat csak (C vagy D), így ahhoz, hogy
a kérést mindenképpen teljesítse, feltétlenül ki kell tudnia nyitni a titkos ajtót.
4.
Az A játékos
n-szer ismételheti meg a kérést és a B játékos mind az n-szer teljesíti.
Így a B játékos bebizonyítja, hogy ismeri a titkot,
de A-nak
mégsem kell elárulnia azt. Ha csak egyszer játszák el a 2.-3.lépéseket (n=1), akkor az A játékos bizalmatlanul mondhatná, hogy 1/2 valószínűséggel,
véletlenül is átjuthatott a titkos ajtón a B játékos. Ha azonban 10-szer, vagy akár 20-szor
ismétlik meg a 2.-3.lépéseket, akkor már
mindössze a tévedés valószínűsége.
A zero-knowledge protocolok
jelentősége egyre nyilvánvalóbb, így a szakirodalomban és a gyakorlati információ
védelemben is egyre nagyobb szerepet töltenek be. A modell analógia alapján könnyen belátható,
hogy ilyen „labirintus” szituációban vagyunk minden bankautomatánál, kártyával
történő fizetésnél, vagy akár telefonálásnál, vagy például az email boxunkba való
belépésnél.
Jelen cikk célja a figyelem
ráirányítása arra az alapvető paradigma váltásra, amely a globális e-kommunikációval
a gép-ember, a mesterséges és természetes intelligencia viszonylatában bekövetkezett
és amely az információ tartalmáról, annak virtuális, vagy valóságos voltára, így
az információ-biztonságra tereli a figyelmet.
Szellemi relaxációként bemutatok
néhány érdekes példát a zero-knowledge proof alkalmazására.
A sakk nagymester
probléma
Hogyan képes Valaki,
aki éppen csak a sakkjáték szabályait ismeri, méltó ellenfélként játszani, vagy
akár legyőzni egy sakk nagymestert ?
Valaki kihívja egyszerre Gary Kasparovot
és Anatolij Karpovot egy játszmára, ugyanabban az időpontban és ugyanazon helyen,
de két külön helyiségben (figyelemre méltó,
hogy a kísérleti elrendezés mennyire hasonlít a Turing-teszthez).
Valaki világossal
játszik Kasparov és sötéttel Karpov ellen.
1. Karpov,
mint a világos figurákkal játszó játékos megteszi a kezdőlépést. Valaki
megjegyzi a lépést és átmegy Kasparov helyiségébe, ahol Ő vezeti a világos figurákat,
így megteszi ugyanazt a lépést, amit Karpov tett.
2. Ekkor
megvárja Kasparov válaszlépését, amelyet szintén megjegyez és átmegy Karpov helyiségébe,
ahol Ő játszik a sötét figurákkal, így meglépi ugyanazt a lépést, amit Kasparov
lépett.
3. Ezt
az eljárást folytatja mindaddig, míg megnyeri valamelyik játszmát, vagy döntetlent
játszik mindkettővel.
Így Valaki
valóban szinte nulla ismerettel bizonyítja be a gyanútlan résztvevőknek (és nézőknek!),
hogy nagymesteri szinten tud sakkozni.
Az átlagéletkor
probléma
Hogyan lehet egy csoport tagjainak átlagéletkorát kiszámítani úgy, hogy
senkinek az életkora ne derüljön ki ?
Bár e kérdés felvetése úgy
tűnik főleg női társaságban aktuális, mégis a módszert számos igen komoly területen
is alkalmazhatjuk, ha például az életkor helyett jövedelem, vagyon, vagy akár szavazatok, vagy más titkos
adatok szerepelnek. Íme a problémához rendelhető zero-knowledge protocol:
1. Legyen
az A csoport tag adata a, a B csoport tagé b, a C csoport tagé c.
2. A választ egy tetszőleges (általában véletlen) számot, legyen ez
v és képezi az a'=a+v számot, amit egy borítékban átad B-nek.
3. B a borítékban kapott számhoz hozzáadja a saját adatát, azaz képezi
az b'=a'+b számot, amit egy borítékban átad C-nek.
4. C a borítékban kapott számhoz hozzáadja a saját adatát, azaz képezi
az c'=b'+c számot, amit egy borítékban továbbad.
5. Az
utolsó csoport tag a saját borítékját átadja A-nak,
aki a borítékban kapott számból kivonja a csak általa ismert
v értéket,
majd elosztja a csoport létszámával, így megkapják a csoport átlagértékét (pl.
átlagéletkor), anélkül, hogy bárkinek az adata mások számára kiderült volna.
Bírálható ez a protocol azzal,
hogy túl nehézkes az a megoldás, hogy minden csoport tag csak egymás után adhatja
le adatát, azaz az eljárás szekvenciális. Az eljárás könnyen "párhuzamosítható":
1. Legyen
az A csoport tag adata a, a B csoport tagé b, a C csoport tagé c.
2. A választ egy tetszőleges véletlen számot, legyen ez x és képezi az a+x számot.
a+x-et
az U urnába, míg x-et
a V urnába
dobja be.
3. B választ egy tetszőleges véletlen számot, legyen ez y és képezi az b+y számot.
b+y-t az U urnába, míg y-t a V
urnába dobja be.
4. C választ egy tetszőleges véletlen számot, legyen ez z és képezi a
c+z számot.
c+z-t
az U urnába, míg z-t
a V urnába
dobja be.
5. A
kiértékelés egyszerű, hiszen csak az U
urnában levő számok összegéből
(a+x+b+y+c+z) levonjuk a V
urnában levő számok összegét (x+y+z), ekkor pontosan a csoport
tagok adatainak összegét kapjuk (a+b+c), amelyet elosztunk a csoport létszámmal, így pontosan az adatok
átlagához jutunk. Világos, hogy mivel az U és V urnába
dobott számok utólag már nem összepárosíthatók, a számítások közben az egyedi adatok nem azonosíthatók, azaz
úgy számítottuk ki a csoport átlag adatát, hogy közben senkinek az egyéni adatára
nem derült fény.
Vegyük észre, hogy ez a protocol
is könnyen megfeleltethető a 2.ábra
modelljének, hiszen az E1=A
, E2=B , E3=C
, U+V=”fekete doboz”, K=kiértékelő megfeleltetéssel éppen a 4.ábra modelljét kapjuk.
Érdekes annak a modell analógiának
végiggondolása, hogy ez a problémahelyzet nagyon hasonló bármely szavazáséhoz,
így például az országgyűlési választásokéhoz is. A jövő e-társadalmának egyik
perspektívája lehet az e-szavazás (elektronikus szavazás) lehetősége, amelynél
a zero knowledge protocol igen fontos szerephez jut. Ugyanakkor vegyük észre,
hogy mindhárom bemutatott példában a valódi üzenet elrejtése játszott alapvető
szerepet. Ha például a „sakk nagymester problémánál” nem biztosítjuk a két megfelelően
elkülönített helyiséget, akkor máris „meztelen a király”, vagyis meghiúsul az
utánzó játék lehetősége.
A globális e-kommunikációs
rendszerek azonban kitűnő lehetőséget biztosítanak a „virtuális szeparálódásra”
a minden információt „bekebelező fekete dobozban”. Ez a csapda helyzet már csak
látszólag hasonlít Turing modelljéhez, hiszen itt már nem a természetes és mesterséges
intelligencia szétválasztása az igazi probléma, itt már egészen új, talán minden
eddiginél nehezebben megválaszolható kérdés merül fel.
5. Az új kérdés:
Valós vagy virtuális információ ?
Szeretném, ha Ön is elgondolkodna azon, vajon eldönthető-e, hogy valós vagy
virtuális információ van a globális kommunikációs rendszer (2.ábra) fekete dobozában
?
Ez a kérdés nem azonos a
"természetes vagy mesterséges?"-sel, nem azonos az "igaz vagy hamis?"-sal,
ez a kérdés nem csupán a kommunikálókra és nem csupán a kommunikáció tartalmára,
hanem magára a kommunikációra vonatkozik.
Az emberi kommunikációnak
csak a verbális elemeit veszi át az e-kommunikáció, a fekete dobozba csupán a
"tartalom", vagy inkább annak is csak a "jel" része kerül.
Az emberi kommunikáció legalább 50%-át
alkotó metakommunikáció elvész. Pedig ez az, amitől az információ teljes, ez az
a redundancia, az a tartalék, ami a kommunikációs "hibák" felismerését,
esetleges javítását lehetővé teszi. Ez az 50% az, amely azt a vonatkoztatási alapot képezi,
amelytől a puszta "jel" valódi "jelentéssé" válik. Ez az a
csoda, amelyre Gábor Dénes (1900-1979) gyermeki naivitással rácsodálkozott, mikor
a holográfiát, a teljes kép rekonstruálhatóságát felfedezte. 1971. december 11-én
a Nobel-díj átvételekor tartott előadásán ezt így adta elő (lásd [GÁBOR 76] 15.old.):
"A közönséges fényképen azonban a fázisok teljesen elvesznek, a fénykép
csupán az intenzitásokat örökíti meg. Nem csoda, hogy elveszítjük a fázist, ha
nincs mivel összehasonlítani!"
Jelen szerző [DÉNT 78]-ban
általános rendszerekre is kiterjesztette az elméletet és bevezette az egységes
vonatkoztatási rendszer kategóriáját, mint olyan strukturális fogalmat, amely
alkalmas általános (így társadalmi), vagy éppen kommunikációs rendszerek modellezésére
és igen pontos leírására.
Megállapítható tehát, hogy
míg az közvetett (elektronikus) kommunikációnál minimális redundanciára törekszünk
(különböző gazdasági, racionális technikai megfontolások miatt), addig a közvetlen
emberi kommunikáció, a természetes rendszerek evolúciós törvényeinek megfelelően
"felfelé optimalizálja" a redundanciát, azaz az entrópiát maximalizálja.
Ez ad magyarázatot arra,
hogy az ember által racionális meggondolások szerint alkotott kódrendszereknél,
titkosításoknál is igyekszik ezt az elvet érvényesíteni, azaz a rejtjelzés
minimális redundanciával törekszik a maximális entrópiára. Lényegét tekintve
ebben az esetben a titkosítás ténye nyilvánvaló, bár a megfejtés lehet nagyon
nehéz (lásd [DÉNT 00/1]). A rejtjelzés csupán
a bemeneti információkhoz kötődő, statikus eljárás, így "érzéketlen"
a környezeti változásokra. Ez tehát a TALÁLD KI titkosítási filozófia.
Talán nem véletlen, hogy
a természet a titkosításra inkább a rejtést használja (pl. mimikri), amely éppen
a jelentős redundanciára épít. A rejtés optimumát ekkor nem a rejtőzködő, hanem
a környezete határozza meg! Ha megváltozik a környezet, akkor ezzel együtt kell
változni a rejtőzködőnek is (lásd [DÉNT 01/3]). Ez tehát a TALÁLD MEG titkosítási
filozófia (lásd például az előzőkben bemutatott „zero knowledge protocol”-t).
Turing tesztje és így a „természetes
vagy mesterséges intelligencia?” kérdésfelvetése a fentiek alapján a globális
e-rendszerekben már-már naivnak tűnő TALÁLD KI titkosítási filozófia feltételezésére
épült. A teszt ugyanis magában hordozza azt a rejtett feltételezést, hogy az emberi
nyelv tisztán információelméleti, illetve formális logikai megfontolások alapján
képes a „teljes információ” közvetítésére. Azonnal hiányérzetünk támad azonban,
ha az információ fogalma helyett az ismeret fogalmát használjuk
a közölt üzenettel kapcsolatban. Ekkor ugyanis az üzenet jelsorozat tulajdonságához,
annak jelentés tartalmát is hozzárendeljük, amely csupán valamely vonatkoztatási
rendszer (értelmező, vagy fogalom-rendszer) birtokában értelmezhető. (Emlékezzünk
Gábor Dénes holográfia elvére, amely a teljes kép, azaz a teljes információ rögzítésére
szolgál.)
Az információ mennyiségi
leírása statikus, melynek következtében a redundancia „felesleg”, így a mesterséges
rendszereknél a „racionális szervezés” igyekszik azt minimalizálni. Ugyanakkor
a természetes kommunikációnak a redundancia elengedhetetlen része (pl. metakommunikáció!),
hiszen éppen ez biztosítja azt a vonatkoztatási rendszert, amely az üzenetet jelentéssel
tölti meg.
Kalmár László több területen
korát jóval megelőzte (matematikai nyelvészet, algoritmus elmélet, kibernetikai
kutatások[10]),
így már az 1960-as években a kvalitatív
információelmélet problémájával foglalkozott. Igyekezett felhívni a figyelmet
az információelmélet továbbfejlesztésének szükségességére, s rámutatott, hogy
a jelek, jelsorozatok alakjában továbbított információ (üzenet) mennyiségi vizsgálatán
túllépve, az információ tartalmi-minőségi vonatkozásaival is törődni kell. Sajnos,
amint erre már az előzőkben utaltunk, a kor nem kedvezett eme gondolatok széleskörű
elterjedésének, de a XXI. századi információ alapú társadalom újra kikényszeríti
e problémakör megoldását.
Ennek jegyében tesszük fel
a következő kérdést: Lehet, hogy éppen a redundancia rejti a természetes és
mesterséges intelligencia között megbújó titok kulcsát ? Eme kérdésre adott
pozitív válaszunkkal mutatunk rá arra, hogy a titok kulcsa csupán egy olyan ajtót
nyit ki, amely mögött újabb titok lappang. Az újabb titok a „valós vagy virtuális
információ?” titka, amelynek megfejtéséhez már ez a kulcs kevés !
Az információelmélet igyekszik minden információval
kapcsolatos fogalmat (jelenséget) számszerűsíteni, hogy azután a matematika eszközeivel
egzakt tételeket, összefüggéseket fogalmazhasson meg. Így egy üzenet információmennyiségét
(nem ismeret mennyiségét!), az üzenet váratlanságával jellemzi, amely tulajdonképpen
egy valószínűségi típusú érték. Jellemzésére a kinetikus gázelmélet modell-analógiából
származó „entrópia” fogalmat vezette be C.Shannon
(1916-2001), melynek lényege a következő[11]:
Adva van egy hírforrás, melyről
a szimbólumok (más szóval: egy ABC betűi)
előfordulási gyakoriságán kívül (ez végtelen hosszú, vagy végtelen sok üzenet
esetén megfelel a szimbólumok valószínűségének) nem tudunk semmit. Ha minden szimbólumot
két jelből álló jelsorozattal (0-1 bináris sorozat) akarunk leírni, akkor egy-egy
szimbólum leírásához átlagosan milyen hosszú bináris sorozatra van szükségünk?
Shannon erre az alábbi, általa
entrópiának nevezett (jelölése: H) matematikai összefüggést vezette
le (ahol pi az i-ik szimbólum előfordulási valószínűségét
jelöli):
H=- bit/szimbólum
(mivel mindig negatív érték,
így az összegzés pozitív H értéket ad)
Az entrópia modell-analógia
fontos tulajdonsága, hogy amint a fizikában zárt rendszerekre alkalmazzák az entrópia
tételt, úgy az információelméletben úgynevezett teljes eseményrendszerekre érvényes,
amelyekben teljesül, hogy =1
Az entrópia és redundancia
könnyebb értelmezhetősége érdekében tekintsük a „fej vagy írás” játékot. Első
megközelítésben legyen teljesen szabályos a pénzérme, amellyel játszunk, így az
F fej és I írás dobásának valószínűsége egyforma, azaz
½. Ekkor a Hszab entrópia így alakul:
Hszab=
Azaz 1 bittel leírható (0-1, igen-nem,
fej-írás, stb.) minden dobásnál a keletkező esemény (üzenet) és mivel az események
egyenlő valószínűségűek, így az információk váratlansága (bizonytalansága) a dobások
során nem változik. Tehát erre az 1 bitnyi információra feltétlenül szükség
is van, ha a dobás eredményét közölni akarjuk.
Most
vizsgáljuk a „cinkelt” pénzérme esetét, ahol például az F fej
dobásának valószínűsége ¾ , így az I írás valószínűsége
¼ . Ekkor a Hcink entrópia így alakul: Hcink==0.689
Azaz alig több, mint kétharmad
bit elegendő lenne az így cinkelt pénzérmével való dobások eredményének közlésére,
hiszen az események váratlansága (bizonytalansága) ebben az esetben nem olyan
„meglepő” (a dobások többségénél ugyanis várható, hogy az F
fej lesz az eredmény).
Általában az információelméleti
entrópia akkor maximális, ha az alap ABC minden betűjének pi
előfordulási valószínűsége egyenlő (ez a valószinűség
n betűs ABC esetén, éppen ), ekkor vagyunk ugyanis a legbizonytalanabbak abban, hogy milyen
információ fog az üzenetben érkezni, míg ha az entrópia csökken, akkor bizonyos
információkat nagyobb valószínűséggel várhatunk, mint másokat. Az entrópia csak
akkor nulla, ha egy kivételével minden pi nulla, ami azt jelenti, hogy az üzeneteknek nincs „hír értéke”, hiszen
mindig ugyabból a szimbólumból (betűből) álló jelsorozat (üzenet) érkezik, amelynek
a valószínűsége így pontosan 1, azaz minden üzenet előre tudható, biztos
esemény.
Az információelméleti redundancia
(jele: R) definíciója: R=
azaz a relatív entrópiát 1-ből
levonjuk, ami megadja, hogy az üzenetben szereplő jelsorozat hányadrésze hagyható
el anélkül, hogy az az „érthetőséget” csökkentené.
Fel
kell hívni a figyelmet arra, hogy ebben az értelmezésben az „érthetőség”-et
információelméleti megközelítésben úgy kell érteni, hogy „az üzenetet képező
jelsorozat annak tartalmától függetlenül, szintaktikusan, azaz a nyelv formai
szabályainak megfelelően beazonosítható”.
Az
így értelmezett redundancia szerint (hosszú szövegeken végzett számítások alapján)
az emberi nyelvek redundanciája átlagosan 50%, ami azt jelenti, hogy ha valamely üzenet betűinek körülbelül
a felét elhagyjuk (természetesen véletlenszerűen kiválasztva a betűket), akkor
a fenti értelemben, érthetetlenné válik a szöveg. Az előzőkben bemutatott pénzérmés
példáinknál például a következő eredményre jutunk a redundancia kiszámításával.
A szabályos pénzérménél:
A
cinkelt pénzérménél:
Tehát
míg a szabályos érmével történő dobások esetén 0 redundancia mellett, minden
információra szükségünk van, hogy az üzenetet „megértsük”, azaz egyértelműen tudjuk
azonosítani (az üzenet itt a dobás eredménye), addig a cinkelt érme esetén, több
mint 30% redundancia mellett, a bejövő
információk majdnem egyharmada elhagyható.
Jó
példa a tudatos információ sürítésre a gyorsírás, ahol éppen a nyelvi redundancia
minimálisra csökkentése a technika lényege. Ugyanakkor lényeges momentuma ennek
az eljárásnak, hogy a gyorsírással rögzített szöveget, mihamarabb „gépbe írják”,
mivel egy idő után az egyedi jelölések asszociációs tartalma már nem rekonstruálható.
Példaként
álljon itt egy olyan mondat, amelyből először a betűk 21%-át, majd 39%-át hagytuk
el, mégis mindkét esetben a szöveget több-kevesebb gondolkodás után el tudjuk
olvasni: É-dekes -i-met -uta-tak
be az e-mu-t
-ap-kb-n. (21%-os tömörítés)
É-dek-s -i-m-t
-út—t-k be -z
e-mu-t -ap-kb-n. (39%-os
tömörítés)
Mindennapjaink
részévé váltak a képi információ sürítés szimbólumai, a piktogrammok, valamint
játékos formában a szöveg és képsürítés keverékei a képrejtvények.
A
redundancia csökkentésével tehát rövidíthetjük az üzenetek átlagos hosszát, de
kérdés, hogy mit tudunk kezdeni az így „optimalizált” üzenettel ? A válasz meglepő!
A
mesterséges kommunikációs rendszerek szempontjából valódi előny, hogy a rövidebb
üzenet gyorsabban átvihető és kisebb helyen tárolható. A kommunikáló felek szempontjából
azonban éppen fordított a helyzet, mivel így üzeneteink teljesen védtelenné válnak
mindenféle véletlen, illetve szándékos hibával, torzítással szemben.
Nulla
redundanciára érzékletes példa a LOTTÓ húzás, ahol nem lehet közelítőleg eltalálni
a főnyereményt, ellenben a beszédnyelvben megadhatunk egy szót közelítőleg, azaz
hibásan, akkor is felismerjük (pl.: ha „borotva”, helyett a „barotva” jelsorozat
érkezik). Fel kell hívni a figyelmet a beszédnyelv kihangsúlyozására, mivel ugyanez
például a számítástechnikában alkalmazott programozási nyelvekre nem igaz. Ott
az utasítások, formulák úgynevezett szintaxisát pontosan be kell tartani ahhoz,
hogy a gép „megértse”.
Fontos, hogy az előzőkben
vázolt információátviteli tulajdonságok, csupán a kommunikációnak a hírközlő csatornán
(ez lehet írott, hang, kép átvitelére alkalmas technikai eszköz) átvitt, üzenet
részére vonatkoznak.
Amint láttuk, az információelméleti
redundancia csökkentése lerövidíti az üzenetet, de véletlen, vagy éppen szándékos
hibák esetén megnehezíti, esetleg lehetetlenné teszi az üzenet megértését (azonosítását).
Ennek kiküszöbölésére a arány megnövelésével
(kódhosszúság megnövelésével), úgynevezett hibajelző (error detecting), illetve
hibajavító (error correcting) kódok képezhetők.
Neumann János már az 1950-es
években felvetette az önjavító, önreprodukáló gépek kérdését (lásd [NEUM 72]),
amelyre elméleti úton pozitív választ adott. Az információelméletnek ma már külön
ága a hibajelző és hibajavító kódok elmélete, amely matematikai leírást ad olyan
kódok létezésére és készítésére, amelyek megfelelő redundancia mellett, az üzenetben
keletkező, meghatározott mennyiségű hibás jel kiszűrésére, illetve kijavítására
alkalmasak. Enélkül a mai e-kommunikációs eszközök és hálózatok folyamatos, zavartalan
működése elképzelhetetlen lenne.
Anélkül, hogy részletesen
kifejtenénk az elméleti hátteret, szemléltetésként bemutatunk egy példát, 1 hibát jelző kódra:
Legyen egy egyszerű ABC,
amely mindössze négy betűből áll (B,T,I,O) és legyenek e betűk bináris kódjai
a következők:
B
= 100
T
= 010
I
= 001
O
= 111
5.
ábra
Ha üzenetünk például a BIT
szó, akkor az átviteli csatornán az 100001010
bináris jelsorozatot küldjük el. Azonban, ha az átvitel során véletlen, vagy szándékos
hiba keletkezik és a fogadó oldalon például a 000001010 jelsorozat érkezik meg, akkor a dekódolt
üzenet a következő lesz: 000 I T, amelyből rögtön kiderül, hogy az első karakter
hibás. Ugyanis az összes lehetséges három bitből álló kódok (számuk: 23=8)
a következők:
100 011
010 101
001 110
6.
ábra
így e táblázatból világos,
hogy az első oszlopban levő bármelyik kód egy bitjének megváltoztatásával, rögtön
átkerül a második oszlopba, azaz a két oszlopban leírt kódok éppen kiegészítik
egymást (komplementer viszonyban vannak!). Azonban két bit eltérést (pl.: 100
helyett 010) nem képes ez a kód jelezni,
hiszen ekkor csupán egy értelmes betű (B) helyett egy másik értelmes betűt (T)
kapunk (azaz az azonos oszlopba tartozó kódok kicserélődése történik).
Pontosan ezt a tulajdonságot
használják ki a rejtjelzésben alkalmazott „helyettesítéses” eljárások, melyeknek
az a lényege, hogy az úgynevezett „nyílt üzenet” alap ABC-jének betűihez egyértelműen
hozzárendelik az alap ABC, vagy egy másik ABC betűit. Az így keletkező üzenet
természetesen az illetéktelen olvasó számára értelmetlen jelsorozat (szöveg),
azaz titok (lásd [DÉNT 02/1]).
Ez a titok azonban ránézésre,
alig-alig különbözik a véletlen hibák által létrehozott „zaj”-tól, amely az információs
csatornák, mondhatni természetes velejárója. Az általunk TALÁLD KI rejtési filozófiának,
azaz a rejtjelzésnek pontosan az a célja, hogy a rejtjelzett üzenet minél inkább
hasonlítson egy nagy entrópiájú, azaz véletlen jelsorozathoz.
Ennél jóval bonyolultabb a helyzet, ha a betű eltérés, egy értelmes szó
helyett, egy ugyanolyan hosszúságú másik értelmes szót eredményez (pl.: BIT helyett
BOT), azaz amikor a TALÁLD MEG titkosítási
filozófiát követjük.
Témánk szempontjából igen
lényeges eme két probléma-típus felismerése, melynek lényege, hogy információelméleti
eszközökkel az „értelmes”, „érthető” fogalmak csak formálisan értelmezhetők, így
a mesterséges kommunikációs rendszerről fel kell tételeznünk, hogy bizonyos mennyiségű
„formális értelmetlenséget” produkál, ezáltal megkülönböztethető a természetes
intelligenciával rendelkező, „értelmes” rendszerektől. Pontosan erre épül a Turing-teszt, amely szerint a nagyon jól utánzó
gép, megkülönböztethetetlen a természetestől.
A Turing-teszt K kérdezője tehát azt
lesi, hogy mikor vesz észre „gépszerű” hibát („értelmetlenséget”) valamelyik válaszban.
A hiba fogalma azonban, mint az a fenti információelméleti gondolatmenetből kiderült,
legalább olyan nehéz fogalom, mint a természetes vagy mesterséges intelligencia
megkülönböztetése. Akkor vagy az eddigi eszközeink nem alkalmasak eme jelenségek
megkülönböztetésére, vagy maga a kommunikációs rendszer bonyolultabb, mint eddig
feltételeztük ?
"Amióta információelmélettel foglalkozom, sokszor eltűnődtem azon,
hogy fér el néhány verssorban összehasonlíthatatlanul
több információ, mint egy ugyanolyan hosszúságú, maximális tömörségű táviratban."
(Rényi Alfréd: Ars matematica)
Az információelmélet korlátai,
azaz, hogy a kommunikáció nem csupán az üzenet, mint információ átvitelét szolgálja,
hanem az üzenet által asszociált ismeret (jelentéstartalom) eljuttatását a fogadóhoz,
mint az a fenti idézetből kiderül, Kalmár László után a magyar matematika másik
jelentős gondolkodóját, Rényi Alfrédot is foglalkoztatta.
A XX.század középső évtizedeiben alkalmazott információátviteli
technikák mellett azonban eme gondolatokat háttérbe szorították, az akkor éppen
csecsemő korban levő információelmélet meghökkentő lehetőségei, amelyek a híradás
és számítástechnikában nyertek alkalmazást. Az információelmélet, majd a kódoláselmélet
eredményei adtak alapot az információ tárolás és átvitel egy egészen új korszakának,
a digitális technikának, amely lehetővé tette az „információs bumm” (információ
robbanás) kialakulását. A XX.század utolsó harmada az információ tömegtermelésének
kora, amely mint minden tömegjelenség, kezdte a „méregfogait” is kimutatni.
Az eltárolt temérdek információ
dzsungelében egyre nehezebb lett az eligazodás, így szükségessé vált az optimalizálás,
amely a kor szellemének és az elméleti, valamint technikai háttérnek megfelelően,
a mennyiségi paraméterekre vonatkozott. Hogy lehet az információt minél kisebb
helyre tömöríteni, ezáltal minél gyorsabban átjuttatni az információs csatornán
és végül minél kisebb helyen tárolni ?
A hardver eszközök térfogategységre
jutó kapacitása exponenciálisan nőtt, azaz egyre nagyobb mennyiségű információt
képesek tárolni, egyre kisebb helyen (lásd a ma már közforgalomban kapható laptop
(táska), palmtop (marok) számítógépeket), míg ugyanez a növekedés a „gépek” architektúrájában
és a felhasználó szempontjából létfontosságú gép és ember közötti kommunikációt
szolgáló szoftverben egyáltalán nem jött létre. A napjainkban tömegesen alkalmazott
asztali, laptop, palmtop számítógépek alapvető hardver architektúrája még mindig
megegyezik a Neumann János által leírtakkal, sőt amint az a jelen dolgozat történeti
bevezetőjéből kiderül, tulajdonképpen C.Babbage XIX. századi elképzeléseivel. Így a jelen globális kommunikációs
rendszereiben, a felhasználó ember teljesen magára maradt, szuper teljesítményű,
de „intelligenciáját” tekintve XIX. századi
digitális eszközeivel.
Az előzőkben bemutatott „fekete
doboz modell” tehát, Sándor György humoralista szavaival élve „egy szép,
nagy …, buta gyerek”, amelyre az jellemző, hogy mérhetetlen mennyiségű információt
képes tárolni és kritikátlanul visszaadni, de ismeretté formálni képtelen !
Napjainkra előállt tehát
az a paradox helyzet, hogy a redundancia egyszerre vált „ellenséggé” és mint a
fentiekben rávilágítottunk, az információ-biztonságot támogató eszközzé. A racionális
törekvések, a gazdasági, üzleti szempontok diktálta fogyasztói társadalomban mégis
az előbbi irányba húztak, sőt a digitális technika térhódításával egyre erőteljesebb
a redundancia „ellenség-képe”.
A digitális technikával,
ami napjaink és várhatóan a közeljövő uralkodó technikája, óriási számhalmazokká
képezzük le egész környezetünket, az e-kommunikációban még gondolatainkat is.
Így valójában egy digitális világot építünk fel, amely bizonyos értelemben újraéleszti
az ókori számmisztikát.
Püthagorasz és követői a
püthagoreusok (i.e. VI-V. század) alapvető világszemlélete volt, hogy „A dolgok
természete, lényege: a szám.”, de még a XIX. század végén Leopold
Kronecker (1823-1891) is így vélekedett:
„Az egész számokat az Isten alkotta, minden más az embertől származik.”
A
számmisztika legérdekesebb és talán legemberibb megnyilvánulása volt, mikor nem
a számokat személyesítették meg, hanem a személyes (emberi) tulajdonságokat „számosították
meg”, mint például a barátságos, vagy a tökéletes számok esetében, melyeknek titka
a mai napig rejtve maradt, még a legnagyobb matematikusok előtt is (lásd [DÉNT
02/1]). A számmisztika tehát a számok titokzatos, rejtett tulajdonságait tárta
fel, ílymódon igazolva azt a szemléletét, hogy az emberi változatosság a számok
tulajdonságaiban tetten érhető.
A digitális világ, azaz napjaink
számmisztikája ettől lényegesen különbözik, mivel a digitalizált információ
számdömpingjében éppen a számok „számtulajdonságait” hántjuk le és egyszerű „számkódok”-ként
használjuk fel őket. A digitális számhalmazok így tulajdonképpen jelhalmazokká,
kódhalmazokká válnak, amelyek semmiben sem különböznek a nem numerikus jelkészletektől
(szimbólumoktól, ABC-ktől).
Illusztrációként figyeljük
meg a „123 darab könyv” nyelvi üzenet esetét, amelynek ebben a formában
majdnem egyértelmű jelentést tulajdonítanak a magyar nyelven értők. Az emberi
intelligencia persze a nyelvi szokásjog alapján egyértelműnek tekinti azt is,
hogy a 123 szám tízes számrendszerben
értendő, így valóban „százhuszonhárom” darabnyi mennyiséget értünk az üzenetből.
A „123 db könyv” sűrített üzenet a magyar nyelv rövidítéseiben járatos
emberek számára még mindig egyértelmű (az előző kiegészítésekkel!). Mennyiségi
leírásnak tekintve ugyanez mondható el a „123 db” üzenetről is. A „123”
numerikus üzenet azonban már nem csupán nem hordozza önmagában e szám(ok) mennyiséget
leíró tartalmát, hanem numerikus volta is kétséges! Hiszen még ha mennyiségi tartalmat
feltételezünk, akkor is lehet bármely hármasnál
nagyobb alapú számrendszerben felírt szám, amelyek mind-mind lényegesen eltérő
mennyiségeket képviselnek. Például négyes számrendszerben a
„123”=”huszonhét valami”, ötös számrendszerben a „123”=”harmincnyolc valami”, tízes számrendszerben
a „123”=”százhuszonhárom valami”,
míg százas számrendszerben a „123”=”tízezerkétszázhárom
valami”. A „123” üzenet bizonytalansága
azonban ennél jóval nagyobb, mivel az 1, 2, 3 jelek tetszőleges
ABC betűit helyettesíthetik, azaz a „123” akár tekinthető ugyanolyan kódnak, mint az 5.ábra kódjai, csupán annyi bizonyos, hogy nem
bináris kód.
A globális e-kommunikáció
„fekete dobozában” tehát egyre nagyobb mennyiségű, mesterségesen elhelyezett,
„természetes értelmetlenség” található! A globális kommunikáció „fekete
doboza” pillanatnyilag úgy tekinthető, mint a digitális világ Bábel tornya,
amelyben az emberi nyelvek különböző számkódokká keveredtek össze, melyeknek megértéséhez,
azaz ahhoz, hogy az információk jel alakját ismeretté konvertáljuk, már egyáltalán
nem elegendő csupán a nyelv ismerete.
„A
beszéd a gondolatok eltitkolására való.” Talleyrand Périgord (1754 – 1838) herceg, francia diplomata
„A
nyelv nemcsak a közlés, hanem az eltitkolás eszközéül is szolgálhat.” Hermann Imre (1889 – 1984) Freud egyik legjelesebb követője
Ebben a „természetes rendetlenségben”
kell rendet teremtenünk, ha azt akarjuk, hogy „fekete dobozunk” hasonlítson a
természetes intelligenciához. Ennek módja azonban csak a TALÁLD MEG filozófián
át vezet. Azaz éppen a racionális, gazdasági, üzleti megfontolásokból feleslegesnek
tartott redundancia segítségével kell jelentést találni az információ (jel) tömegnek,
majd (ha még mindig nem értelmes számunkra az üzenet), a TALÁLD KI filozófia alkalmazásával
jutunk a számunkra is értelmezhető, azaz a természetes intelligencia számára befogadható
ismerethez.
Az ismeretet itt általános
fogalomként kezeljük, amely jelenti mindazt az asszociációt, amit az adott információ
az üzenet fogadójából kivált. Így világossá válik,
hogy míg az információ statikus, addig az ismeretre alapuló (jelentés tartalommal
bíró) kommunikáció dinamikus jelenség !
Kérdés tehát, hogy a TALÁLD
MEG filozófia kivitelezésére alkalmas-e az emberi (vagy egyéb) nyelv?
Ez a sarkalatos kérdés a „valódi vagy virtuális információ?” megválaszolásával
ekvivalens !
Világos ugyanakkor, hogy
ez nem azonos Turing kérdésével („természetes vagy mesterséges intelligencia?”),
így a Turing-teszt sem lehet alkalmas e kérdés megválaszolására.
Sőt az e-rendszerekben magának
a Turing-tesztnek az alkalmazhatóságát is bizonytalanná teszi!
Turing idézett, úttörő jelentőségű
cikkében [TURING 50], demonstrációként bemutat egy elképzelt párbeszédet a
K kérdező és a V válaszadó között:
K: Kérem, írjon egy szonettet
a Forth-i Híd témájára (ez
egy híd a Firth of Forth folyón Skóciában)
V: Ne számítson rám, sohasem tudtam verseket írni.
K: Adja össze a 34957-et és a 70764-et.
V: 105621 (kb. 30 másodperc várakozás után jön a válasz)
K: Tud sakkozni?
V: Igen.
K: A királyom e1-en
áll és nincs más bábom. Az Ön királya e3-on áll, a bástyája az a8-on.
Ön következik. Mit lép?
V: Bástya a1
matt. (15 másodperc múlva jön a
válasz)
E párbeszéd jól mutatja,
hogy a K kérdező erőteljes törekvése ellenére, amely
az emberi intelligencia legjellemzőbb „műfajait” (művészi hajlam, rutin műveletek,
logikai képesség) igyekszik tesztelni,
a válaszokból nem könnyen vonhatunk le a „természetes vagy mesterséges?”
kérdés megválaszolásához messzemenő következtetéseket. Az azonban meghökkentő,
hogy az utánzási stratégia legtöbb problémája éppen a legegyszerűbb rutin kérdéssel,
az összeadással kapcsolatban vethető fel.
Azonnal feltűnik a hosszú
válaszolási idő (30 másodperc), ami gépi válasz esetén teljesen elfogadhatatlan,
emberi válasz esetén közepesnek tekinthető.
Azt azonban kevesen veszik észre, hogy a V válaszoló
által megadott eredmény helytelen (a pontos eredmény: 105721) és a tévedés is
„inkább emberi” tulajdonság. Hiba lenne ugyanakkor elhamarkodottan a
V válaszolót egyértelműen embernek minősíteni,
hiszen számtalan érv szólhat a „gépi tévedés” mellett is. Példaként néhány ilyen
hiba lehetőség:
-
véletlen hardver hiba
-
programozási hiba
-
rendszer hiba
El kell ismernünk, hogy ha
a V válaszoló meg akarja téveszteni a K kérdezőt (ha a
Turing-tesztet játéknak tekintjük, éppen ez a cél), akkor legalább olyan
nehéz feladata van, mint a K kérdezőnek,
akinek e válaszok alapján döntenie kell arról, hogy V gép,
vagy ember. A fenti rövid párbeszéd elemzéséből (amelyet idézett cikkében Turing
igen részletesen megtesz) kiderül, hogy Turing tesztje valóban „utánzó játék”,
azaz V számára kétféle stratégia követhető:
-
az ember utánozza a gépet
-
a gép utánozza az embert
Turing cikkében így foglalja
össze módszerének előnyeit:
„Az új problémafelvetés előnye
az, hogy elég éles határvonalat húz az ember fizikai és értelmi képességei között
…. Nem akarjuk ugyanis büntetni a gépet azért, mert nem képes szépségversenyen
tündökölni, de az embert sem, mert veszít egy repülőgép elleni versenyben.”
Márpedig az információs társadalomban
a Turing-teszt napi gyakorlattá válik és a globális kommunikációs rendszerek fekete
dobozában (mint arra az előző részben rávilágítottunk), a két stratégia bábeli
keveréke áll elő. Felmerül tehát ílymódon az információk azonosíthatóságának,
valódiságának, azaz az információ-biztonság garantálhatóságának problémája, vagyis
a „valós vagy virtuális információ?” alapvető jelentőségű kérdése, amelyre
mindenképpen egy információ-alapú társadalomnak válaszolnia kell !
A
mesterséges intelligencia éppen az emberi racionalitás miatt, csak a jó, pozitív,
„hasznos” emberi, illetve élő tulajdonságokat igyekszik modellezni (lemásolni).
Hiszen az emberiségnek eme tulajdonságokkal lehet általában a teljesítményét maximalizálni.
Attól jó egy gép, ha „fáradhatatlan”, kiszámíthatóan, biztonságosan működik. Például
az emberi fáradást, betegségeket, vagy más tökéletlenséget senkinek nem áll érdekében
lemásolni, modellezni, gépi formában reprodukálni. Éppen ezért a mesterséges (gépi)
rendszerek tesztelésére olyan pozitív tulajdonságok, paraméterek meglétét tételezzük
fel, amelyekkel általában az ember (vagy az élő organizmus) rendelkezik. Ilyen
tulajdonságok például az organizmusban keletkező hibák kijavítása, az organizmus
reprodukáló, vagy alkalmazkodó képessége, stb.
A.Turing is arról beszél,
hogy az ezredfordulón, amit éppen jelenként élünk meg, „a gépek elég jól fogják
játszani az utánzó játékot” és ezalatt azt érti, hogy „elég intelligensen
lehet egy géppel kommunikálni”. Így tehát, ha Kempelen Farkas módjára egy gépben
elég ügyesen emberi intelligenciát helyezünk el (éppen ez történik az e-kommunikációs
rendszerek fekete dobozában!), azaz „virtuális gép-embert” készítünk, akkor a
saját teljesítményközpontúságunk akadályoz meg abban, hogy az utánzó játékkal,
mint tesztelési lehetőséggel célhoz érjünk, ha a gépet és az embert akarjuk megkülönböztetni
egymástól.
Turing fent idézett példája
tükrözi azt a humánus személyiséget, aki nem tud a valódi, a szó szoros értelmében
vett gép – ember viszonyon túllépni, akinek látnoki képzelőereje
sem volt képes a tiszta játékszabályokon túlra látni. Ezért csupa tényszerű, vagy
konkrét emberi cselekvésre irányuló kérdés (kérés) képezi a képzeletbeli párbeszédeit.
Kritikája, probléma listája is mélyen emberi! A valóságos jelenségvilágból nem
tud (valószínűleg nem is akar!) kiszakadni[12].
Ezért talán joggal hitte azt, hogy a tesztje valóban el tudja dönteni a „tudnak-e
a gépek gondolkodni?”, avagy a „természetes vagy mesterséges intelligencia?” kérdését.
Turing gondolatkísérlete,
mára a globális e-kommunikációs rendszerek mindennapi gyakorlata, amely az alábbihoz
hasonló párbeszédek millióit hozza létre a nap 24 órájában (az alábbi párbeszéd-töredék
csak modellezi a valódi gyakorlatot). A jelölések az 1.ábra Turing modelljének felelnek meg.
V: 8-kor a CSA-ban mindenki
ott lesz. Gyere Te is!
K: Mi a téma?
V: QKAC, IDTLEN és még sok más téma, ami mindenkit érdekel.
K: Szó lesz a PARA-MÉTER-ről?
V: Biztos, mert sok mindenről
szó lesz.
K: ….
Mint azt példánk is szemlélteti,
az általános alany stílusában (megszólítás, személyes azonosítás és azonosíthatóság
nélkül) megfogalmazott célirányos, „hatékonyságra” törekvő kommunikációnál, amely
az e-kommunikációban tulajdonképpen információtovábbítássá zsugorodik és szinte
„felesleggé válik” a metakommunikáció. Azaz a fentiek alapján éppen az üzenet
„jelentéstartalmának vonatkoztatási rendszere” válik az „idő pénz” szemlélet martalékává.
Igen szemléletesen mutatják ezt a tömörítési törekvést, az e-kommunikációban gyakorta
használt (csupán szűk kommunikációs csoportok számára érthető) rövidítések, vagy
például a tájékoztatásban, „reklám-kommunikációban” használt piktogramok, stb.
Az üzenetek jelentése, a tulajdonképpeni ismeret, az e-kommunikációban olyan titokká
válik, melynek „nyílt elrejtésére” a zero-knowledge protocolok bemutatásával mutattunk
példát.
A jelen információs társadalmában
az egyedek „észrevétlenül”, mint digitálisan tárolt adatsorok képződnek le a „fekete
doboz(ok)ba”, a „digitális Bábel tornyokba”. Ezek az adatsorok egyre több
és részletesebb adatot tartalmaznak, a tárolók részéről azzal a racionális igyekezettel,
hogy minimális legyen a tárolt információk redundanciája. Ugyanakkor alapvető
kérdés, hogy „ki a tároló (tárolt információk) tulajdonosa[13]
?”, aki(k)nek módjában lehet a „fekete dobozba” rejtett temérdek titok (információ)
ismeretté konvertálása, majd jó vagy rossz célokra való felhasználása. Ezt a problémát
már nyolcvan évvel ezelőtt, az információs társadalmat, a globális e-kommunikációs
rendszereket messze megelőzve (vagy talán látnoki módon megsejtve!), 1921-ben
felvetette Kosztolányi Dezső:
„Beírtak
engem mindenféle Könyvbe
és
minden módon számon tartanak.
Porzó-szagú,
sötét hivatalokban
énrólam
is szól egy agg-szürke lap.
Ó,
fogcsikorgatás. Ó, megalázás,
hogy
rab vagyok és nem vagyok szabad.
Nem
az enyém már a kezem, a lábam
és
a fejem, az is csak egy adat.
Jobb
volna élni messze sivatagban,
vagy
lenn rohadni, zsíros föld alatt,
mivel
beírtak mindenféle Könyvbe
és
minden módon számon tartanak.”
(Kosztolányi Dezső: A bús férfi panaszai-ból)
A Turing-teszt formális utánzó játékát tehát valóban
egyre „tökéletesebben” játszák és fogják játszani a gépek, azonban teljesen megváltozik
a viszonyítási alap (a „mihez képest?”), hiszen a K kérdezőt
és az E1 , E2 ,…
egyéneket egyaránt a C fekete doboz „kebelezi be” (lásd a 2.ábrát). Azaz mint a kifordított kesztyű, kerül
a külvilág (a valóság) a fekete dobozba, amelyen belül már valóban megkülönböztethetetlen
a kint és bent, a K
és E, így a C, K és E is!
Vagyis mindenki kérdező és válaszoló, mindenki természetes és mesterséges
intelligencia, mert nincs fogódzónk a valós és virtuális információ megkülönböztetéséhez.
A racionalitás, azaz az általános
redundancia-minimalizálásra törekvés során megszületik az e-társadalom, amelyben
e-rétegződés, e-mobilitás, e-kultúra és így egyáltalán e-gyetlen rendező elv szerepel:
ez az „e-gy értékű társadalom”.
Lehet, hogy a globális információs rendszerekkel, az e-gy
társadalom alapkövét helyezzük el?
Lehet, hogy a XXI. század információs
társadalmának „csodafegyvere” a valós és virtuális világot megkülönböztethetetlenné
tevő információs fegyver lesz ?
Lehet,
hogy ez a fegyver az abszolút gazdasági racionalitás doktrínáját megvalósítandó,
már semmiféle látványos pusztítást nem végez, csupán a valódi emberek tömeges,
virtuális manipulációját valósítja meg, a globális és helyi hatalom kénye-kedve
szerint ?!
Lehet,
hogy ezekre és még sok hasonló kérdésre kellene egy valódi EMBER központú, valóban
TUDÁSALAPÚ társadalomnak igazi válaszokat keresni, mielőtt felállítja az „információs
társadalom = e-társadalom” egyenletet ?
A lehetőség ma még, az utolsó
pillanatban adott. Ehhez azonban fel kell ismernünk a már létező és a globális
e-gy társadalmakban rohamosan terjedő „virtuális agárverseny effektus”-t,
amely így fogalmazható meg röviden: „Érjük utol a nemlétező nyulat egy virtuális
agárversenyen !”
Az 1999-es év egyik szenzációja volt, hogy a digitálisan
létrehozott „filmszínésznő”, Lara Croft világsikere után, egy kaliforniai filmcég
(Virtual Celebrity) bejelentette az első digitális klón megszületését. Ez a digitális
klónozás Marlene Dietrich arcát keltette életre és így a már régen elhunyt sztár,
egy újonnan készült 30 másodperces filmben szerepelhetett a maga „virtuális
valóságában”!
Digitálisan létrehozott „virtuális
barátaink” napról napra gyarapodnak, ezek sorából különös jelentőségénél fogva
ki kell emelni AnaNovát, az első virtuális televíziós bemondónőt, „aki” majdnem
tökéletes angol kiejtéssel, búgó hangján szól a képernyőkön keresztül rátapadó
(főleg férfi) nézőkhöz.
E „valós vagy virtuális információ?”
problematikáját elemző cikk végére, mint felkiáltó mondat végére, tette ki az
élő felkiáltójelet maga az élet:
„Az USA Legfelsőbb Bírósága engedélyezte a gyermek pornó filmeket, amennyiben nem élő, hanem csak virtuális szereplők szerepelnek benne.”
(MTI, 2002. április)
Irodalomjegyzék
[DÉNT 78] T.
Dénes: Graph theoretical approach to structural
representation of systems
Proceedings of the Fourth International
Conf. for Pattern
Recognition, Kyoto, Japan 1978.
[DÉNT 00/1] Dénes
Tamás: REJTJELFEJTÉS
Trükkök, módszerek, megoldások
Magyar Távközlés, XI.évf. 4.szám, 2000. április
[DÉNT 00/2] Dénes
Tamás: DIGITÁLIS UJJLENYOMAT
A dokumentumvédelem új korszaka
Magyar Távközlés, XI.évf. 5.szám, 2000. május
[DÉNT 01/1] Dénest
Tamás: Biztonságos Információ (s) Társadalom
INFO TÁRSADALOMTUDOMÁNY,
2001/53.
[DÉNT 01/2] Dénes
Tamás: ECHELON az e-társadalom információpajzsa ?
Híradástechnika, 2001/6
[DÉNT 01/3] Dénes
Tamás: SZTEGONOGRÁFIA
Rejtett információk rejtjelzés nélkül
Híradástechnika, 2001/8.
[DÉNT 02/1] Dénes
Tamás: TitokTan Trilógia 1.rész:
Kódtörő ABC
Kriptográfia Mindenkinek
Bagolyvár Kiadó, Budapest, 2002.
[DÉNT 02/2] Dénes
Tamás: INFOSANCE, a jövő
INFOrmációs renaisSANCE
társadalmának esélye
eVilág, I.évf. 4.szám, 2002.július
[DÉNT 02/3] Dénes
Tamás: A globális e-társadalom „kódolt”
kockázata
Társadalomkutatás, 2002. 20/3-4. 247-265
[FEFISH 87] U.Feige,A.Fiat,A.Shamir:
Zero-knowledge proofs of identity
in: Proceedings of the 19th ACM Symposium
on the Theory of Computing, New York,
ACM Press,1987.
[FUTÓ 99] Futó Iván (ed.):
Mesterséges intelligencia
Aula Kiadó, Budapest, 1999.
[GÁBOR 76] Gábor Dénes: Válogatott tanulmányok
Gondolat, Budapest, 1976.
[HODG 83] A. Hodges: Alan Turing: The Enigma.
Burner Books Ltd., London,
1983.
[KALM 86] Kalmár László: Integrállevél
Gondolat, Budapest, 1986.
[NEMES 62] Nemes
Tihamér: Kibernetikai gépek
Akadémiai Kiadó, Budapest, 1962.
[NEME 91] Nemetz Tibor, Vajda István: Bevezetés az algoritmikus
adatvédelembe.
Akadémiai Kiadó 1991.
[NEUM 72] Neumann János: A számológép és az agy
Gondolat Könyvkiadó, Budapest, 1972.
[NEWT 97] David E.Newton:
Encyclopedia of cryptology
ABC-CLIO, Santa Barbara, California, Denver,
Colorado,
Oxford, England 1997.
[PETSO 88] Ivars Peterson: Computing a Bit of Security: Zero-knowledge proofs in
Data Encryption
Science News, 16 January 1988.
[SHANN 48] C.E.Shannon:
The Mathematical Theory of Communication
Bell System Technical Journal, 1948. July and
October
[SHANN 49] C.E.Shannon: Communication Theory of Secrecy
Systems.
Bell System Technical Journal 28 (1949) 656-715.
[SHANN 51] C.E.Shannon:
Prediction and entropy of printed English
Bell System Technical Journal, 1951. January
[SHANN 62] Claude E.Shannon and Warren Weaver: The Mathematical
Theory of
Communication
Urban: University of Illionis Press, 1962.
[SINGH 00] Simon
Singh: The science of secrecy
(The secret history of codes and codebreaking)
London, 2000.
[STEW
96] Ian Stewart: Proof of Purchase on the Internet: Zero-knowledge
Protocols
Scientific American, February 1996., 124-125
[TARJ 58] Tarján Rezső: Gondolkodó gépek
Bibliotheca Kiadó, Budapest, 1958
[TURING 50] A.M. Turing: Computing Machinery
and Intelligence
Mind, 9(1950), 433-460
[WAYN 87]
Peter Wayner: Zero-knowledge proofs: Data Encryption
Byte, October 1987, 149-152
[1] Pascal és Leibniz számológépeiről és ezek belső felépítéséről kiváló minőségű fotók és működési leírások találhatók [TARJ 58]-ban. Az elmúlt évszázadokból felidézett gépek képei nem csupán a XX.század centrikus gondolkodásból zökkenthet ki egy pillanatra, hanem egyúttal olyan esztétikai élményt is nyújt, amely ma már az ipari termékekkel kapcsolatban nem igen tapasztalható.
[2] [TARJ 58]-ban fotóval illusztrált, részletes leírását találjuk Babbage gépének.
[3] Babbage születésének 200. évfordulójára 1991-ben az angliai Science Museum (Kensington) elkészítette a Difference Engine egy komplett példányát, Babbage hátrahagyott rajzai alapján. A 3. képen ez látható. A szerkezet méretarányait is jelzi a Science Museum egyik kurátora, aki a készülék mellett áll.
[4] [TARJ 58]-ban képi illusztrációval megtalálható a gép részletes leírása.
[5] Az ENIAC és EDVAC számítógépek fotói és részletes ismertetése is megtalálható [TARJ 58]-ban.
[6] 1769-ben a pozsonyi születésű Kempelen Farkas, olyan „sakkozó automatát” szerkesztett, amely tökéletes játszmákat játszott végig. Egykorú leírások szerint az „automata” egy törökülésben ülő embert ábrázolt, amely előtt sakktábla volt. A feltételezett szerkezet a „török” belsejében volt elhelyezve. Azt tartja a legenda, hogy az „automata” Napoleont is legyőzte, sőt az irodalomba is bevonult (többek között E.A.Poe amerikai író is írt róla). Egy Maelzel nevű bécsi vállalkozó világkörüli útra vitte az „automatát”, mígnem a sikeres szereplésnek és üzleti vállalkozásnak egy tűzvész vetett véget. Így örök titok marad az „automata” belső szerkezete. A 8.képen látható korabeli illusztrációt azonban –mint látni fogjuk- nyugodtan tekinthetjük a XXI.század globális e-kommunikációs rendzserének vázlataként!
[7] Angol matematikus és kriptográfus. Londonban született 1912-ben. A Cambridge-i King's College-ban tanult, majd 1938-ban az USA Princeton Egyetemén doktorált matematikából. A II. világháború ideje alatt az angol rejtjelfejtő szolgálatánál dolgozott, a ma már múzeumként működő Bletchley Park-beli bázison. E létesítményhez fűződik a II. világháború leghíresebb rejtjelfejtő sikere, az ENIGMA német rejtjelzőgép megfejtése, melynek szellemi vezetője Turing volt (lásd [HODG 83]).
[8] Emlékezzünk vissza Kempelen Farkas sakkozó „automatájára”, amelynek fekete dobozában is egy természetes intelligencia lapult, ám a külső szemlélő számára úgy tűnt, mintha mesterséges intelligenciával (automatával) állna szemben!
[9] Szeretném felhívni a figyelmet a „titok” relativitására. Azaz hagyományosan a „titkos” alatt valamiféle állam, vagy katonai titkot szokás érteni. Az információ alapú társadalomban a titkok hierarchiája sokkal árnyaltabb, mivel a személyes, illetve kisebb-nagyobb csoportok (cégek, intézmények), azaz a magán szféra adatai is hasonló módon tárolódnak, mint a legtitkosabb hagyományos titkok.
[10] Kalmár László hozta létre az 1960-as években a szegedi Kibernetikai Laboratóriumot, valamint Ő indította el az egyetemi programozó matematikus képzést.
[11] C.Shannon a [SHANN 48],[SHANN 49] munkáiban fektette le az információelmélet, valamint a kommunikáció elmélet matematikai alapjait.
[12] Turing igen fiatalon, 41 évesen halt meg, máig vitatott körülmények között. Ezért életrajzát édesanyja Sara Turing írta meg. Az Általa idézett, A.Turinghoz közelálló emberek egyöntetű véleménye szerint, Turing a becsületesség és tisztesség mintaképe volt, amely személyiség így védtelenné, sebezhetővé tette Őt a XX. század első felének eldurvult világában.
[13]
Felhívom a figyelmet arra, hogy itt a „tulajdonos” két értelemben is szerepel.
Az egyik értelemben az információ tulajdonosa az a valóságos személy akitől az
információ származik, aki az üzenetet küldi a fekete dobozba. Másrészről az információt
tároló fekete doboz tulajdonosa az üzenet tárolásával „tulajdonossá” válik, amely
tulajdonossága etikailag és jogilag is megkérdőjelezhető, de az információkkal
való manipulációs lehetősége semmiképpen. Jelen dolgozat fő célkitűzése, hogy
felhívja erre a paradoxonra a figyelmet, amely egyúttal ráirányítja a figyelmet
arra, hogy az információ alapú társadalom
kulcsfogalma: az információ biztonság.