Idén a Corvinus Egyetem rendezte meg a kognitív infokommunikáció tudományterületnek az IEEE tudományos világszervezet által szponzorált nemzetközi konferenciáját Baranyi Péter professzor elnökletével.

A szeptember 22-én és 23-án megtartott konferencia egyik fő témája volt a mesterséges intelligencia (MI), az új digitális környezet és az ember “együttéléséből” kialakuló új társadalmi, üzleti és vállalati képességek és informatikai innovációk, valamint az ezekhez vezető tudományos kutatási eredmények.  

A digitalizáció, a digitális transzformáció napjainkban kulcsfontosságú kérdés a vállalatoknál. A mesterséges intelligencia, a digitális eszközök térnyerése, a kompetenciák és az infrastruktúra használatának átalakulása új megközelítéseket tesz szükségessé a szervezetek tanulmányozásában. Az emberi képességek immár infokommunikációs megoldásokkal bővülnek, és átalakítják a gondolkodásunkat, így az együttműködés módját is. A kognitív infokommunikáció tudományterülete ezzel a megközelítéssel vizsgálja a technológia és az ember közötti kölcsönhatást. 

A konferencia mindkét napján elhangzott előadássorozatokban bemutatott tudományos eredmények közvetlenül hatnak hétköznapjainkra társadalmi, vállalati, valamint egyéni szinten is. Mind etikai, jogi és informatikai szemmel mutattak rá az előadások arra, hogy miként tudja fenntarthatóan felerősíteni az emberi és vállalati teljesítményt az új digitális környezetünk és azok matematikai és informatikai eszközei hogyan fejleszthetőek tovább.    

A konferenciát a Corvinus Egyetem és a Hong Kong Egyetem Shenzheni kutatóközpontjának közös tudományos együttműködésében, valamint a Magyar Mérnökakadémia, Magyar Kutatási Hálózat, Budapesti Műszaki és Gazdaságtudományi Egyetem, Pannon Egyetem és az Óbudai Egyetem tudományos partnerségében rendezték meg. 

Hogyan ítéljük meg a gépek döntéseit? 

A konferencia nyitó előadásait világhírű professzorok tartották. Cesar A. Hidalgo professzor, a Toulouse-i Egyetem Mesterséges és Természetes Intelligencia Intézete (ANITI) és a Budapesti Corvinus Egyetem Corvinus Institute for Advanced Studies Intézet Kollektív Tanulás Központjának vezetője a “Why do people judge humans differently from machines? The role of agency and experience” címmel tartotta előadását, amely az ember és az intelligens robotok közötti “bizalmat” vizsgálta. 

“A pszichológiánk nagymértékben meghatározza, hogyan látjuk a mesterséges intelligenciát” – állította rögtön előadása elején. A pszichológia azt sugallja, hogy az embereknek az elméjükben különböző modelljeik lehetnek az emberekre és a gépekre vonatkozó érzékelésre, és ezért másképp is fogják kezelni őket. Kiderült, hogy hiba esetén az embereket hajlamosak vagyunk a kárt okozó szándékuk észlelt mértéke alapján megítélni. Ezzel szemben a gépeknek nem vagyunk hajlandóak ekkora cselekvőképességet tulajdonítani. “Amikor az emberek a gépek felett ítélkeznek, akkor az eredmény számít a legtöbbet” – magyarázta a professzor. Képzeljünk el például egy katasztrófát, amikor emberek élete forog veszélyben és mentőakciót indítanak a megmentésükre. Kudarc esetén az emberek hajlamosak keményebben megítélni a gépeket, mint a küldetésért felelős embereket.  

Így felmerül a kérdés, hogy mi történik, ha egy gépet emberhez hasonlónak és nagyfokú cselekvőképességgel rendelkezőnek érzékelünk. Professzor Hidalgo és kollégái randomizált kísérletekben manipulálták az emberek gépekkel kapcsolatos percepcióját, hogy megvizsgálják, vajon az emberek az emberhez hasonlóbb gépeket hasonlóbban ítélik-e meg, mint az embereket. A kutatók négyféle géptípusra dolgoztak ki különböző leírásokat, és kiderült, hogy a cselekvőképesség és a tapasztalat érzékelése megváltoztatja az ítéletünket. Más szóval, azt akarták kideríteni, mi történik, ha úgy érzékeljük a gépeket, mint amelyek képesek érzéseket megtapasztalni, problémákon gondolkodni és önállóan cselekedni. „Azokat a gépeket, amelyeket közelebb érzékelünk az emberhez, hajlamosak vagyunk az emberhez hasonlóbbnak megítélni” – mondta a professzor a fő megállapításukról. A kutatási eredmények rávilágítottak arra fontos tényre is, hogy a gépekről alkotott képzetünk könnyen manipulálható. 

Matematikai eszközök a mesterséges intelligencia mögött 

Péter Baranyi professzor a “Crisp vs. Soft Computing behind AI Transformation” címmel tartott előadást, amelyben a mesterséges intelligencia mögötti “éles” és “lágy” matematikai eszközöket és azok koncepcionális rendszerét vizsgálta.  

Az előadás rávilágított arra, hogy a mesterséges intelligenciát felépítő áttörő matematikai módszerek sorozata professzor Hilbert 1900-ban megjelent híres párizsi felvetéseiig nyúlik vissza. Az előadás “Crisp Computing”-nak nevezte a precíz algebrai képleteken alapuló matematikai eszközöket, melyek eredménye pontos és élesen elkülöníthetően “igen” vagy “nem” jellegű. Ezzel szemben a “Soft Computing”-nak, azaz “lágy-számítástudománynak” nevezte azt a matematikai irányzatot, ahol az eredmény inkább tekinthető mintázatok közötti asszociációnak, következtetésnek, mint pontos számszerű “éles” értéknek. Ide tartozik az emberi agy neuronhálózata által inspirált mesterséges neurális hálózat, mely nagy számú elemi komponensekből, azaz neuronokból és azok közötti kötésekből áll. Ide tartozik továbbá a fuzzy logika, melynek elemi komponensei a nyelvi szabályok és a fuzzy (nem éles határú) halmazok “ha–akkor” típusú ok-okozati viszonyba rendezettsége következtetésre használható. Nagyszámú elemi komponensekre, azaz génszálakat utánzó paraméterlistákat tartalmazó egyedek szaporítására és jóság alapján történő kiválogatására épülnek a genetikus algoritmusok. Hilbert felvetése alapján Kormogolov az 1950-es években bizonyította, hogy minden modell felbontható elemi komponensekre. Ez az állítás alátámasztja, hogy lényegében minden modell leírható lágy-számítástudományi eszközökkel. És ha leírható, akkor minden modell meg is tanítható, például mesterséges neurális hálózattal.  

Péter Baranyi az előadásában elmondta, hogy példádul egy atomerőmű irányítása, repülőgép vezetése vagy egy orvosi műtét esetén nem elegendő, ha mesterséges intelligencia lágy döntést, azaz nem élesen igen/nem jellegű döntést hoz és nem precízen irányítja a folyamatot. Fontos, hogy tudjuk, hogy egy atomerőmű biztosan nem robban fel, és nem elég az, hogy nagymértékben úgy véli a mesterséges intelligencia, hogy nem fog felrobbanni. Ilyen “éles” (Crisp) esetekben kombinálni szükséges a legmodernebb precíz stabil irányításra képes Crisp matematikai eszközöket és az irányítás lényegét meghatározó lágy (Soft) eszközöket használó mesterséges intelligenciát. De magát a mesterséges intelligenciát is precízen stabilan kell tartani. Viszont a nehézség az, hogy a “Crisp” és “Soft Computing” eszközök filozófiájukban, koncepciójukban és formalizmusukban is jelentősen eltérnek. Az előadás egy olyan matematikai keretrendszerre tett javaslatot, melyben mindkét irányvonal eszközei azonosan formalizálhatóak, közöttük műveletek és kapcsolatok értelmezhetőek, így megkezdhető a lényegi döntésekre és precíz irányításra egyaránt alkalmas mesterséges intelligencia felépítése. 

Új keretrendszert alkotott a vállalati valóság megértéséhez a Corvinus 

A konferencia másnapját megnyitó előadást Kő Andrea professzor, a Budapesti Corvinus Egyetem Adatelemzés és Informatika Intézetének vezetője tartotta. Ismertette a Corvinus Egyetem tudósai által kidolgozott és bevezetett digitális és kognitív vállalati környezetek tudományos koncepciót (Digital & Cognitive Corporate Reality – DCR), amely áttörően új szemléletmódban közelíti meg a vállalati digitális evolúciót. (Ebben témakörben már számos előadást is tartottak a konferencián.) 

Kő Andrea professzor rámutatott arra, hogy a gyorsan változó környezetben a menedzsment és az üzleti élet szerepe is megváltozik. „A vállalatoknál olyan új mesterséges és emberi kognitív képességek keverékével kell foglalkoznunk, amely alapjaiban változtatja meg például a memória és a tanulás fogalmát és rendszerét” – fejtette ki előadásában. Ezért kollégáival, Baranyi Péterrel, Borbásné Szabó Ildikóval, Csapó Ádámmal, Kovács Tiborral és Lőrincz Lászlóval új tudományos koncepciót javasoltak. “Ez az első alkalom, amikor a digitális és kognitív fogalmakat a vállalatirányításban alkalmazzuk. Ezek a tudományterületi komponensek már ismertek voltak a kutatók előtt, de ebben az új rendszerben ötvözve, magasabb szintű, átfogóbb jellegű új kérdések és feladatok vizsgálhatóak hatékonyan.“ 

A bemutatott tudományos koncepció lehetőséget biztosít új elméleti keretek és gyakorlati megoldások kidolgozására. Ez alapján például olyan újonnan megjelenő vállalati szerepekkel kapcsolatos eseteket lehetne feltárni, mint a promptmérnöki tevékenység és a mesterséges intelligencia alapú minőség-ellenőrzés és -fejlesztés. „A DCR az együttműködés új és innovatív módjait kínálja” – jelentette ki Kő professzor, kiemelve az időbeli, térbeli és egyéb kontextuális korlátok lazulását a vállalatoknál. Fontos azonban megjegyezni, hogy “az emberi képességek szövevényes részét képezik a modern infokommunikációs hálózatoknak”. Az ember és a technológia kölcsönösen egymásra ható kapcsolatát menedzsmentszempontból is hatékonyan ki lehet használni. 

Korlátok a mesterséges intelligencia etikájában 

A zárónap másik plenáris előadását Dörfler Viktor professzor tartotta “The great fallacy of AI ethics” címmel.  Előadásában a mesterséges intelligencia (MI) etikájának lehetőségeit, korlátait és problémáit elemezte mélyrehatóan. 

Az előadás első része rövid áttekintést nyújtott a nyugati filozófia etikai modelljeiről.  Eszerint nagyjából két és fél ezer évig normatív etika jellemezte a nyugati gondolkodást, azaz az erkölcsfilozófusok megpróbálták előírni, hogy hogyan kell erkölcsösnek lenni.  Arisztotelész erényetikájától Kant szabály alapú etikáján (deontológia) keresztül a következmény-etika számos változatáig egyik modell sem tudta megegyezésre bírni a filozófusokat. A nagy változást a professzor szerint Elizabeth Anscombe hozta, aki azt javasolta, hogy beszéljünk a pszichológusokkal, akik azt figyelik, hogy hogyan jár az emberek esze. Ezért az új leíró etikát erkölcspszichológiának (moral psychology) is nevezik. Ha nem is teljes, de meglehetősen nagy az egyetértés, hogy az emberek erkölcsi iránytűiket követve, erkölcsi döntéseiket intuitíven hozzák meg, és csak utólag vetik össze döntéseiket a normatív modellekkel.   

Ezen a filozófiai alapon a professzor amellett érvelt, hogy legalábbis három dolog nélkülözhetetlen az erkölcsi döntésekhez, amit a MI nem tud produkálni. Tudásunk érzéki (sensory) alapokon nyugszik, és rendkívül fontos, hogy (át)érezzük erkölcsi döntéseink helyzetét, márpedig a MI-ból hiányzik az érzet (felt sense). Meg is kell értenünk (understanding) ezeket a döntési helyzeteket, erre pedig a MI nem képes, még akkor sem, ha a felhasználónak néha úgy tűnik, hogy igen. Mindkettőt magában foglalja a harmadik, a kételkedés (doubt). Aki igyekszik erkölcsösen dönteni, az kételkedik, hiszen döntéseink kimenetelét nem ismerhetjük, és a normatív modellek nem adnak egyértelmű választ arra, hogy mi a jó.  

Ezért a professzor szerint teljesen másképpen kell megközelítenünk az MI-etika témáját. Nézzük meg, hogy miben segíthet az ember erkölcsi döntéseiben az MI és viszont. Az MI rendkívüli sebességgel tudja feldolgozni az esetleg releváns adatokat, és ezekből esetleg hasznos mintákat adhat a döntéshozónak, még időben. Azután majd a döntéshozó használja ezekből azt, amit tud és akar.  Az MI szintén segíthet a kételkedési folyamatban, azzal, hogy a különböző etikai modelleket elő-feldolgozza. Mi pedig abban segíthetünk az MI-nak, hogy megértjük, hogy nem érzi, hogy mikor kell embert hívnia egy erkölcsi döntéshez, és ezért „kívülről” adunk meg neki mutatókat, ami alapján ez megtörténik. Zárószavában Dörfler tanár úr visszakanyarodott a nyitógondolathoz, és kijelentette, hogy tulajdonképpen nincsenek MI-etikai problémáink. Etikai problémáink vannak, és a MI felerősíti ezeket. 

A szeptember 22-én és 23-án megtartott konferencia egyik fő témája volt a mesterséges intelligencia (MI), az új digitális környezet és az ember “együttéléséből” kialakuló új társadalmi, üzleti és vállalati képességek és informatikai innovációk, valamint az ezekhez vezető tudományos kutatási eredmények.  

A digitalizáció, a digitális transzformáció napjainkban kulcsfontosságú kérdés a vállalatoknál. A mesterséges intelligencia, a digitális eszközök térnyerése, a kompetenciák és az infrastruktúra használatának átalakulása új megközelítéseket tesz szükségessé a szervezetek tanulmányozásában. Az emberi képességek immár infokommunikációs megoldásokkal bővülnek, és átalakítják a gondolkodásunkat, így az együttműködés módját is. A kognitív infokommunikáció tudományterülete ezzel a megközelítéssel vizsgálja a technológia és az ember közötti kölcsönhatást. 

A konferencia mindkét napján elhangzott előadássorozatokban bemutatott tudományos eredmények közvetlenül hatnak hétköznapjainkra társadalmi, vállalati, valamint egyéni szinten is. Mind etikai, jogi és informatikai szemmel mutattak rá az előadások arra, hogy miként tudja fenntarthatóan felerősíteni az emberi és vállalati teljesítményt az új digitális környezetünk és azok matematikai és informatikai eszközei hogyan fejleszthetőek tovább.    

A konferenciát a Corvinus Egyetem és a Hong Kong Egyetem Shenzheni kutatóközpontjának közös tudományos együttműködésében, valamint a Magyar Mérnökakadémia, Magyar Kutatási Hálózat, Budapesti Műszaki és Gazdaságtudományi Egyetem, Pannon Egyetem és az Óbudai Egyetem tudományos partnerségében rendezték meg. 

Hogyan ítéljük meg a gépek döntéseit? 

A konferencia nyitó előadásait világhírű professzorok tartották. Cesar A. Hidalgo professzor, a Toulouse-i Egyetem Mesterséges és Természetes Intelligencia Intézete (ANITI) és a Budapesti Corvinus Egyetem Corvinus Institute for Advanced Studies Intézet Kollektív Tanulás Központjának vezetője a “Why do people judge humans differently from machines? The role of agency and experience” címmel tartotta előadását, amely az ember és az intelligens robotok közötti “bizalmat” vizsgálta. 

“A pszichológiánk nagymértékben meghatározza, hogyan látjuk a mesterséges intelligenciát” – állította rögtön előadása elején. A pszichológia azt sugallja, hogy az embereknek az elméjükben különböző modelljeik lehetnek az emberekre és a gépekre vonatkozó érzékelésre, és ezért másképp is fogják kezelni őket. Kiderült, hogy hiba esetén az embereket hajlamosak vagyunk a kárt okozó szándékuk észlelt mértéke alapján megítélni. Ezzel szemben a gépeknek nem vagyunk hajlandóak ekkora cselekvőképességet tulajdonítani. “Amikor az emberek a gépek felett ítélkeznek, akkor az eredmény számít a legtöbbet” – magyarázta a professzor. Képzeljünk el például egy katasztrófát, amikor emberek élete forog veszélyben és mentőakciót indítanak a megmentésükre. Kudarc esetén az emberek hajlamosak keményebben megítélni a gépeket, mint a küldetésért felelős embereket.  

Így felmerül a kérdés, hogy mi történik, ha egy gépet emberhez hasonlónak és nagyfokú cselekvőképességgel rendelkezőnek érzékelünk. Professzor Hidalgo és kollégái randomizált kísérletekben manipulálták az emberek gépekkel kapcsolatos percepcióját, hogy megvizsgálják, vajon az emberek az emberhez hasonlóbb gépeket hasonlóbban ítélik-e meg, mint az embereket. A kutatók négyféle géptípusra dolgoztak ki különböző leírásokat, és kiderült, hogy a cselekvőképesség és a tapasztalat érzékelése megváltoztatja az ítéletünket. Más szóval, azt akarták kideríteni, mi történik, ha úgy érzékeljük a gépeket, mint amelyek képesek érzéseket megtapasztalni, problémákon gondolkodni és önállóan cselekedni. „Azokat a gépeket, amelyeket közelebb érzékelünk az emberhez, hajlamosak vagyunk az emberhez hasonlóbbnak megítélni” – mondta a professzor a fő megállapításukról. A kutatási eredmények rávilágítottak arra fontos tényre is, hogy a gépekről alkotott képzetünk könnyen manipulálható. 

Matematikai eszközök a mesterséges intelligencia mögött 

Péter Baranyi professzor a “Crisp vs. Soft Computing behind AI Transformation” címmel tartott előadást, amelyben a mesterséges intelligencia mögötti “éles” és “lágy” matematikai eszközöket és azok koncepcionális rendszerét vizsgálta.  

Az előadás rávilágított arra, hogy a mesterséges intelligenciát felépítő áttörő matematikai módszerek sorozata professzor Hilbert 1900-ban megjelent híres párizsi felvetéseiig nyúlik vissza. Az előadás “Crisp Computing”-nak nevezte a precíz algebrai képleteken alapuló matematikai eszközöket, melyek eredménye pontos és élesen elkülöníthetően “igen” vagy “nem” jellegű. Ezzel szemben a “Soft Computing”-nak, azaz “lágy-számítástudománynak” nevezte azt a matematikai irányzatot, ahol az eredmény inkább tekinthető mintázatok közötti asszociációnak, következtetésnek, mint pontos számszerű “éles” értéknek. Ide tartozik az emberi agy neuronhálózata által inspirált mesterséges neurális hálózat, mely nagy számú elemi komponensekből, azaz neuronokból és azok közötti kötésekből áll. Ide tartozik továbbá a fuzzy logika, melynek elemi komponensei a nyelvi szabályok és a fuzzy (nem éles határú) halmazok “ha–akkor” típusú ok-okozati viszonyba rendezettsége következtetésre használható. Nagyszámú elemi komponensekre, azaz génszálakat utánzó paraméterlistákat tartalmazó egyedek szaporítására és jóság alapján történő kiválogatására épülnek a genetikus algoritmusok. Hilbert felvetése alapján Kormogolov az 1950-es években bizonyította, hogy minden modell felbontható elemi komponensekre. Ez az állítás alátámasztja, hogy lényegében minden modell leírható lágy-számítástudományi eszközökkel. És ha leírható, akkor minden modell meg is tanítható, például mesterséges neurális hálózattal.  

Péter Baranyi az előadásában elmondta, hogy példádul egy atomerőmű irányítása, repülőgép vezetése vagy egy orvosi műtét esetén nem elegendő, ha mesterséges intelligencia lágy döntést, azaz nem élesen igen/nem jellegű döntést hoz és nem precízen irányítja a folyamatot. Fontos, hogy tudjuk, hogy egy atomerőmű biztosan nem robban fel, és nem elég az, hogy nagymértékben úgy véli a mesterséges intelligencia, hogy nem fog felrobbanni. Ilyen “éles” (Crisp) esetekben kombinálni szükséges a legmodernebb precíz stabil irányításra képes Crisp matematikai eszközöket és az irányítás lényegét meghatározó lágy (Soft) eszközöket használó mesterséges intelligenciát. De magát a mesterséges intelligenciát is precízen stabilan kell tartani. Viszont a nehézség az, hogy a “Crisp” és “Soft Computing” eszközök filozófiájukban, koncepciójukban és formalizmusukban is jelentősen eltérnek. Az előadás egy olyan matematikai keretrendszerre tett javaslatot, melyben mindkét irányvonal eszközei azonosan formalizálhatóak, közöttük műveletek és kapcsolatok értelmezhetőek, így megkezdhető a lényegi döntésekre és precíz irányításra egyaránt alkalmas mesterséges intelligencia felépítése. 

Új keretrendszert alkotott a vállalati valóság megértéséhez a Corvinus 

A konferencia másnapját megnyitó előadást Kő Andrea professzor, a Budapesti Corvinus Egyetem Adatelemzés és Informatika Intézetének vezetője tartotta. Ismertette a Corvinus Egyetem tudósai által kidolgozott és bevezetett digitális és kognitív vállalati környezetek tudományos koncepciót (Digital & Cognitive Corporate Reality – DCR), amely áttörően új szemléletmódban közelíti meg a vállalati digitális evolúciót. (Ebben témakörben már számos előadást is tartottak a konferencián.) 

Kő Andrea professzor rámutatott arra, hogy a gyorsan változó környezetben a menedzsment és az üzleti élet szerepe is megváltozik. „A vállalatoknál olyan új mesterséges és emberi kognitív képességek keverékével kell foglalkoznunk, amely alapjaiban változtatja meg például a memória és a tanulás fogalmát és rendszerét” – fejtette ki előadásában. Ezért kollégáival, Baranyi Péterrel, Borbásné Szabó Ildikóval, Csapó Ádámmal, Kovács Tiborral és Lőrincz Lászlóval új tudományos koncepciót javasoltak. “Ez az első alkalom, amikor a digitális és kognitív fogalmakat a vállalatirányításban alkalmazzuk. Ezek a tudományterületi komponensek már ismertek voltak a kutatók előtt, de ebben az új rendszerben ötvözve, magasabb szintű, átfogóbb jellegű új kérdések és feladatok vizsgálhatóak hatékonyan.“ 

A bemutatott tudományos koncepció lehetőséget biztosít új elméleti keretek és gyakorlati megoldások kidolgozására. Ez alapján például olyan újonnan megjelenő vállalati szerepekkel kapcsolatos eseteket lehetne feltárni, mint a promptmérnöki tevékenység és a mesterséges intelligencia alapú minőség-ellenőrzés és -fejlesztés. „A DCR az együttműködés új és innovatív módjait kínálja” – jelentette ki Kő professzor, kiemelve az időbeli, térbeli és egyéb kontextuális korlátok lazulását a vállalatoknál. Fontos azonban megjegyezni, hogy “az emberi képességek szövevényes részét képezik a modern infokommunikációs hálózatoknak”. Az ember és a technológia kölcsönösen egymásra ható kapcsolatát menedzsmentszempontból is hatékonyan ki lehet használni. 

Korlátok a mesterséges intelligencia etikájában 

A zárónap másik plenáris előadását Dörfler Viktor professzor tartotta “The great fallacy of AI ethics” címmel.  Előadásában a mesterséges intelligencia (MI) etikájának lehetőségeit, korlátait és problémáit elemezte mélyrehatóan. 

Az előadás első része rövid áttekintést nyújtott a nyugati filozófia etikai modelljeiről.  Eszerint nagyjából két és fél ezer évig normatív etika jellemezte a nyugati gondolkodást, azaz az erkölcsfilozófusok megpróbálták előírni, hogy hogyan kell erkölcsösnek lenni.  Arisztotelész erényetikájától Kant szabály alapú etikáján (deontológia) keresztül a következmény-etika számos változatáig egyik modell sem tudta megegyezésre bírni a filozófusokat. A nagy változást a professzor szerint Elizabeth Anscombe hozta, aki azt javasolta, hogy beszéljünk a pszichológusokkal, akik azt figyelik, hogy hogyan jár az emberek esze. Ezért az új leíró etikát erkölcspszichológiának (moral psychology) is nevezik. Ha nem is teljes, de meglehetősen nagy az egyetértés, hogy az emberek erkölcsi iránytűiket követve, erkölcsi döntéseiket intuitíven hozzák meg, és csak utólag vetik össze döntéseiket a normatív modellekkel.   

Ezen a filozófiai alapon a professzor amellett érvelt, hogy legalábbis három dolog nélkülözhetetlen az erkölcsi döntésekhez, amit a MI nem tud produkálni. Tudásunk érzéki (sensory) alapokon nyugszik, és rendkívül fontos, hogy (át)érezzük erkölcsi döntéseink helyzetét, márpedig a MI-ból hiányzik az érzet (felt sense). Meg is kell értenünk (understanding) ezeket a döntési helyzeteket, erre pedig a MI nem képes, még akkor sem, ha a felhasználónak néha úgy tűnik, hogy igen. Mindkettőt magában foglalja a harmadik, a kételkedés (doubt). Aki igyekszik erkölcsösen dönteni, az kételkedik, hiszen döntéseink kimenetelét nem ismerhetjük, és a normatív modellek nem adnak egyértelmű választ arra, hogy mi a jó.  

Ezért a professzor szerint teljesen másképpen kell megközelítenünk az MI-etika témáját. Nézzük meg, hogy miben segíthet az ember erkölcsi döntéseiben az MI és viszont. Az MI rendkívüli sebességgel tudja feldolgozni az esetleg releváns adatokat, és ezekből esetleg hasznos mintákat adhat a döntéshozónak, még időben. Azután majd a döntéshozó használja ezekből azt, amit tud és akar.  Az MI szintén segíthet a kételkedési folyamatban, azzal, hogy a különböző etikai modelleket elő-feldolgozza. Mi pedig abban segíthetünk az MI-nak, hogy megértjük, hogy nem érzi, hogy mikor kell embert hívnia egy erkölcsi döntéshez, és ezért „kívülről” adunk meg neki mutatókat, ami alapján ez megtörténik. Zárószavában Dörfler tanár úr visszakanyarodott a nyitógondolathoz, és kijelentette, hogy tulajdonképpen nincsenek MI-etikai problémáink. Etikai problémáink vannak, és a MI felerősíti ezeket. 

Cikk Information

Website link
Szervezet URL-je
Forrás
Digitális technológia/szakosodás
Mesterséges intelligencia
Digitális készségek
Digitális készségszint
Emelt szintű
Digitális szakértő
Földrajzi terület - Ország
Magyarország
Kezdeményezés típusa
Helyi kezdeményezés

Leave A Reply