Az ISC útmutatója átfogó keretet kínál a magas szintű elvek és a gyakorlati, végrehajtható politika közötti szakadék áthidalására. Választ ad a feltörekvő technológiák által kínált lehetőségek és kockázatok közös megértésének sürgető igényére. Ez egy alapvető dokumentum azok számára, akik gyorsan változó digitális korszakunkban a politikai kapcsolaton dolgoznak.
A keretrendszer átfogó objektíven tárja fel a mesterséges intelligencia és származékaiban rejlő lehetőségeket, az emberi és társadalmi jólétet, valamint olyan külső tényezőket, mint a gazdaság, a politika, a környezet és a biztonság. Az ellenőrzőlista egyes szempontjai a kontextustól függően relevánsabbak lehetnek, mint mások, de a jobb döntések valószínűbbnek tűnnek, ha minden területet figyelembe veszünk, még akkor is, ha egyes esetekben bizonyos esetekben gyorsan irrelevánsként azonosíthatók. Ez az ellenőrzőlista megközelítés velejárója.
„Egy olyan korszakban, amelyet a gyors technológiai innováció és az összetett globális kihívások jellemeznek, az ISC keretrendszere a lehetséges hatások átfogó és többdimenziós elemzésére feljogosítja a vezetőket arra, hogy megalapozott, felelősségteljes döntéseket hozzanak. Biztosítja, hogy technológiai fejlődésünk során az etikai, társadalmi és gazdasági következmények gondos mérlegelésével tegyük ezt.”
Peter Gluckman, az ISC elnöke
Míg többek között az UNESCO, az OECD, az Európai Bizottság és az ENSZ magas szintű elveket hirdetett meg, és számos megbeszélés folyik a lehetséges kormányzás, szabályozás, etika és biztonság kérdéseiről, nagy szakadék tátong ezen elvek és az ENSZ között. irányítási vagy szabályozási keret. Az ISC a politikai döntéshozóknak szóló új útmutatója révén foglalkozik ezzel az igénysel.
Ennek a politikai döntéshozóknak szóló útmutatónak nem az a célja, hogy megtiltson egy szabályozási rendszert, hanem inkább olyan adaptív és fejlődő elemzési keretet javasoljon, amely alátámaszthat minden olyan értékelést és szabályozási folyamatot, amelyet az érdekelt felek, köztük a kormányok és a többoldalú rendszer kidolgozhatnak.
„A keretrendszer kritikus lépés az AI-ról folytatott globális párbeszédben, mivel alapot biztosít ahhoz, hogy konszenzust építsünk a technológia jelenlegi és jövőbeli vonatkozásairól.”
Hema Sridhar, az új-zélandi védelmi minisztérium korábbi tudományos főtanácsadója, jelenleg pedig tudományos főmunkatárs az Aucklandi Egyetemen, Új-Zélandon.
2023 októbere óta számos jelentős nemzeti és többoldalú kezdeményezés történt a mesterséges intelligencia etikájának és biztonságának további figyelembevételével. Egyre aggodalomra adnak okot a mesterséges intelligencia hatásai egyes kritikus rendszereink, köztük a pénzügyi, kormányzati, jogi és oktatási rendszereink integritására, valamint a különböző tudásrendszerekre (beleértve a tudományos és az őshonos ismereteket is). A keretrendszer tovább tükrözi ezeket a szempontokat.
Az ISC-tagoktól és a nemzetközi döntéshozó közösségtől eddig kapott visszajelzések tükröződnek az elemzési keret átdolgozott változatában, amely most útmutatóként jelenik meg a politikai döntéshozók számára.
Útmutató a döntéshozók számára: A gyorsan fejlődő technológiák értékelése, beleértve a mesterséges intelligenciát, a nagy nyelvi modelleket és azon túl
Ez a vitaanyag felvázolja azt a kezdeti keretet, amely a mesterséges intelligencia kapcsán zajló számos globális és nemzeti megbeszélést szolgálja.
Töltse le a keretrendszert a szervezetében való használatra
Itt a kereteszközt szerkeszthető Excel-lapként biztosítjuk, amelyet az Ön szervezetében használhat. Ha a nyílt forráskódú formátumot részesíti előnyben, kérjük, lépjen kapcsolatba velünk [e-mail védett].
Bevezetés
A gyorsan fejlődő technológiák kihívást jelentenek használatukkal, irányításukkal és lehetséges szabályozásukkal kapcsolatban. A mesterséges intelligenciával (AI) és annak használatával kapcsolatos folyamatban lévő politika és nyilvános viták ezeket a kérdéseket akut fókuszba helyezték. Az UNESCO, az OECD, az ENSZ és mások – köztük az Egyesült Királyság Bletchley-nyilatkozatával – a mesterséges intelligencia tág alapelveit jelentették be, és vannak olyan joghatósági kísérletek, amelyek például az Európai Unió (EU) mesterséges intelligenciáján keresztül szabályozzák a technológia szempontjait. törvény vagy az Egyesült Államok közelmúltbeli AI végrehajtó rendelete.
Míg ezeken és más fórumokon hosszasan tárgyalják a mesterséges intelligencia használatát, a geopolitikai megosztottságon átívelő országokban és minden jövedelmi szinten, továbbra is ontológiai szakadék tátong a magas szintű elvek kidolgozása és a gyakorlatba történő beépítése között, akár szabályozáson, szakpolitikán vagy kormányzáson keresztül. vagy sáfársági megközelítések. Az elvtől a gyakorlatig vezető út rosszul meghatározott, de tekintettel a mesterséges intelligencia fejlesztésének és alkalmazásának természetére és ütemére, az érintett érdeklődési körök sokféleségére és a lehetséges alkalmazások skálájára, egyetlen megközelítés sem lehet túlságosan általános vagy előíró.
Ezen okok miatt a nem kormányzati tudományos közösség továbbra is különleges szerepet játszik. A pluralista társadalom- és természettudományi tagsággal rendelkező Nemzetközi Tudományos Tanács (ISC) 2023 októberében vitaanyagot adott ki, amelyben egy előzetes elemzési keretet mutatott be, amely a gyorsan fejlődő digitális technológiához kapcsolódó kockázatokat, előnyöket, veszélyeket és lehetőségeket vizsgálta. Noha a mesterséges intelligencia figyelembevételére fejlesztették ki, eredendően technológia-agnosztikus, és számos feltörekvő és bomlasztó technológiára alkalmazható, mint például a szintetikus biológia és a kvantum. Ez a vitaanyag visszajelzést kért az akadémikusoktól és a politikai döntéshozóktól. Az elsöprő visszajelzések szükségessé tették egy ilyen elemzés elvégzését, és értékes megközelítésnek bizonyultak az olyan feltörekvő technológiák kezelésében, mint az AI.
A keret célja, hogy eszközt biztosítson az összes érdekelt félnek – beleértve a kormányokat, a kereskedelmi tárgyalókat, a szabályozó hatóságokat, a civil társadalmat és az ipart – e technológiák fejlődéséről, hogy segítsen nekik meghatározni, hogyan tekinthetik a technológia pozitív vagy negatív következményeit. maga a technológia, pontosabban annak konkrét alkalmazása. Ezt az elemzési keretet a kormány és az ipar érdekeitől függetlenül fejlesztették ki. Perspektíváit tekintve maximálisan pluralista, kiterjedt konzultáción és visszajelzéseken alapuló technológiai vonatkozásait és következményeit felöleli.
Ennek a politikai döntéshozóknak szóló vitaanyagnak nem az a célja, hogy megtiltson egy szabályozási rendszert, hanem inkább egy olyan adaptív és fejlődő elemzési keretet javasoljon, amely alátámaszthat minden olyan értékelést és szabályozási folyamatot, amelyet az érdekelt felek, köztük a kormányok és a multilaterális rendszer kidolgozhatnak.
Mivel a döntéshozók globálisan és nemzeti szinten megfontolják a megfelelő szakpolitikai beállításokat és eszközöket egy új technológia, például a mesterséges intelligencia kockázatainak és hasznainak egyensúlyba hozása érdekében, az elemzési keretet kiegészítő eszköznek szánják annak biztosítására, hogy a lehetséges következmények teljes készletét megfelelően tükrözzék.
Háttér: miért van szükség analitikai keretre?
A mesterséges intelligencia összetettségével és következményeivel együtt járó technológiák gyors megjelenése számos nagy haszonnal járó állítást eredményez. Ugyanakkor jelentős kockázatoktól való félelmet is gerjeszt, az egyéntől a geostratégiai szintig.1 Az eddigi viták nagy részét bináris értelemben vették figyelembe, mivel a nyilvánosan kifejtett nézetek általában a spektrum legszélső végén zajlanak. A mesterséges intelligencia mellett vagy ellen megfogalmazott állítások gyakran hiperbolikusak, és – a technológia természetéből adódóan – nehezen értékelhetők.
Pragmatikusabb megközelítésre van szükség, ha a hiperbolát kalibrált és szemcsésebb értékelésekkel helyettesítjük. A mesterséges intelligencia technológia tovább fog fejlődni, és a történelem azt mutatja, hogy gyakorlatilag minden technológiának van előnyös és káros haszna is. A kérdés tehát az: hogyan érhetjük el ennek a technológiának a jótékony eredményeit, miközben csökkentjük a káros következmények kockázatát, amelyek közül néhány egzisztenciális is lehet?
A jövő mindig bizonytalan, de elegendő hiteles és szakértő vélemény szól a mesterséges intelligencia és a generatív mesterséges intelligencia tekintetében ahhoz, hogy a viszonylag óvatos megközelítést ösztönözze. Ezenkívül rendszerszemléletre van szükség, mivel a mesterséges intelligencia a technológiák egy osztálya, amelyet széles körben használnak és alkalmaznak többféle felhasználó. Ez azt jelenti, hogy a teljes kontextust figyelembe kell venni, amikor egy mesterséges intelligencia használatának az egyénekre, a társadalmi életre, a civil életre, a társadalmi életre és a globális kontextusra gyakorolt hatásait mérlegeljük.
A legtöbb más technológiától eltérően a digitális és kapcsolódó technológiák esetében a fejlesztés, a kiadás és az alkalmazás között eltelt idő rendkívül rövid, nagyrészt a gyártó cégek vagy ügynökségek érdekei miatt. A mesterséges intelligencia természetéből adódóan – és mivel a digitális gerincre épül – olyan alkalmazásai lesznek, amelyek gyorsan terjednek, amint azt a nagy nyelvi modellek fejlesztésekor már láthattuk. Emiatt előfordulhat, hogy bizonyos tulajdonságok csak a szabadulás után válnak nyilvánvalóvá, vagyis fennáll a váratlan, rosszindulatú és jóindulatú következmények veszélye.
A fontos társadalmi értékdimenziók, különösen a különböző régiókban és kultúrákban, befolyásolják a felhasználás észlelését és elfogadását. Ráadásul a geostratégiai érdekek már most is dominálnak a vitában, szuverén és multilaterális érdekek folyamatosan keresztezik egymást, és ezáltal a versenyt és a megosztottságot.
A mai napig a virtuális technológia szabályozásának nagy részét nagyrészt az „elvek” és az önkéntes megfelelés szemüvegén keresztül látták, bár az EU AI-törvényével2 és ehhez hasonló elmozdulást látunk a végrehajthatóbb, de kissé szűkebb szabályozás felé. Egy hatékony globális vagy nemzeti technológiairányítási és/vagy szabályozási rendszer létrehozása továbbra is kihívást jelent, és nincs egyértelmű megoldás. A kockázatokon alapuló döntéshozatal több rétegére lesz szükség a lánc mentén, a feltalálótól a gyártóig, a felhasználóig, a kormányzatig és a többoldalú rendszerig.
Míg többek között az UNESCO, az OECD, az Európai Bizottság és az ENSZ magas szintű elveket hirdetett meg, és különböző magas szintű megbeszélések folynak a lehetséges kormányzási, szabályozási, etikai és biztonsági kérdésekről, nagy szakadék van ezek között. alapelvek és egy irányítási vagy szabályozási keret. Ezzel foglalkozni kell.
Kiindulópontként az ISC egy olyan szempontrendszer kidolgozását fontolgatja, amelyre bármely fejlesztő, szabályozó, politikai tanácsadó, fogyasztó vagy döntéshozó hivatkozhat. Tekintettel ezeknek a technológiáknak a széles körű vonatkozásaira, egy ilyen taxonómiának a következmények összességét kell figyelembe vennie, nem pedig egy szűken fókuszált keretezést. A globális széttagoltság növekszik a geostratégiai érdekek döntéshozatalra gyakorolt befolyása miatt, és e technológia sürgőssége miatt elengedhetetlen, hogy független és semleges hangok kitartóan kiálljanak az egységes és befogadó megközelítés mellett.
1) Hindustan Times. 2023. A G20-nak fel kell állítania a technológiai változásokkal foglalkozó nemzetközi testületet.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) Az EU mesterséges intelligenciáról szóló törvénye. 2023. https://artificialintelligenceact.eu
Analitikai keretrendszer kialakítása
Az ISC a természet- és társadalomtudományokat integráló elsődleges globális nem kormányzati szervezet. Globális és diszciplináris hatóköre azt jelenti, hogy jó helyzetben van ahhoz, hogy független és globálisan releváns tanácsokat adjon az előttünk álló összetett döntések meghozatalához, különösen mivel ezen a területen a jelenlegi hangok nagyrészt az ipartól vagy a fő technológiai hatalmak politikai és politikai közösségeitől származnak.
A nem kormányzati értékelési folyamat megfontolását is magában foglaló kiterjedt viták időszakát követően az ISC arra a következtetésre jutott, hogy a leghasznosabb hozzájárulása egy olyan adaptív elemzési keret létrehozása lenne, amely mindenki számára felhasználható diskurzus és döntéshozatal alapjául. az érdekelt feleket, beleértve a felmerülő formális értékelési folyamatokat is.
Az előzetes elemzési keret, amely 2023 októberében került megvitatásra és visszajelzésre, egy átfogó ellenőrzőlista formáját öltötte, amelyet kormányzati és nem kormányzati intézmények egyaránt használhatnak. A keretrendszer azonosította és feltárta az olyan technológiákban rejlő lehetőségeket, mint a mesterséges intelligencia és származékai, egy széles szemüvegen keresztül, amely magában foglalja az emberi és társadalmi jólétet, valamint olyan külső tényezőket, mint a gazdaság, a politika, a környezet és a biztonság. Az ellenőrzőlista egyes szempontjai a kontextustól függően relevánsabbak lehetnek, mint mások, de a jobb döntések valószínűbbnek tűnnek, ha minden területet figyelembe veszünk, még akkor is, ha egyes esetekben bizonyos esetekben gyorsan irrelevánsként azonosíthatók. Ez az ellenőrzőlista-megközelítés eredendő értéke.
Az előzetes keretet a korábbi munkákból és gondolkodásmódokból származtatták, beleértve a Kormányzati Tudományos Tanácsok Nemzetközi Hálózatának (INGSA) digitális jólétről szóló jelentését3 és az OECD AI-rendszerek osztályozási keretrendszerét4, hogy bemutassák a lehetséges lehetőségek, kockázatok és hatások összességét. az AI. Ezeknek a korábbi termékeknek a szándéka korlátozottabb volt, idejük és kontextusuk miatt; olyan átfogó keretre van szükség, amely rövid és hosszabb távon is bemutatja a kérdések teljes körét.
Megjelenése óta a vitaanyag jelentős támogatást kapott számos szakértőtől és politikai döntéshozótól. Sokan kifejezetten támogatták azt az ajánlást, hogy olyan adaptív keretrendszert dolgozzanak ki, amely lehetővé teszi a technológia kockázatainak és következményeinek tudatos és proaktív mérlegelését, és ennek során mindig figyelembe veszi az egyéntől a társadalomig és a rendszerekig terjedő dimenziók összességét.
A visszajelzéseken keresztül tett egyik legfontosabb megfigyelés annak elismerése volt, hogy a keretrendszerben figyelembe vett számos vonatkozás eleve sokrétű, és több kategóriára is kiterjed. Például a félretájékoztatás egyéni és geostratégiai szemszögből egyaránt figyelembe vehető; így a következmények széles körűek lennének.
Azt is javasolták, hogy esettanulmányokat vagy példákat vegyenek fel a keretrendszer tesztelésére. Ez felhasználható olyan iránymutatások kidolgozására, amelyek bemutatják, hogyan használhatók a gyakorlatban különböző kontextusokban. Ez azonban jelentős vállalkozás lenne, és korlátozhatja, hogy a különböző csoportok hogyan érzékelik e keretrendszer használatát. Ezt a legjobban a politikai döntéshozók tehetik meg, akik meghatározott joghatóságok vagy kontextusok szakértőivel dolgoznak együtt.
2023 októbere óta számos jelentős nemzeti és többoldalú kezdeményezés történt a mesterséges intelligencia etikájának és biztonságának további figyelembevételével. Egyre aggodalomra adnak okot a mesterséges intelligencia hatásai egyes kritikus rendszereink, köztük a pénzügyi, kormányzati, jogi és oktatási rendszereink integritására, valamint a különböző tudásrendszerekre (beleértve a tudományos és az őshonos ismereteket is). A felülvizsgált keretrendszer tovább tükrözi ezeket a szempontokat.
Az eddig beérkezett visszajelzések tükröződnek az elemzési keret átdolgozott változatában, amely most útmutatóként jelenik meg a politikai döntéshozók számára.
Míg a keretrendszert a mesterséges intelligencia és a kapcsolódó technológiák kontextusában mutatják be, azonnal átvihető más, gyorsan feltörekvő technológiák, például a kvantum- és a szintetikus biológia szempontjaiba.
3) Gluckman, P. és Allen, K. 2018. A jólét megértése a gyors digitális és kapcsolódó átalakulások kontextusában. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OECD. 2022. OECD Framework for the Classification of AI systems. OECD Digital Economy Papers, No. 323, #. Paris, OECD Publishing.
https://oecd.ai/en/classificatio
A keretrendszer
Az alábbi táblázat egy feltételezett analitikai keretrendszer méreteit mutatja be. Példákkal illusztráljuk, miért lehetnek fontosak az egyes tartományok; összefüggésben a keret kontextus szempontjából releváns bővítést igényelne. Szintén fontos különbséget tenni a platformfejlesztések során felmerülő általános problémák és a konkrét alkalmazások során felmerülő problémák között. Egyetlen itt szereplő szempontot sem szabad prioritásként kezelni, és mint ilyet, mindegyiket meg kell vizsgálni.
A problémák nagy vonalakban a következő kategóriákba sorolhatók, az alábbiak szerint:
A táblázat részletezi azokat a dimenziókat, amelyeket esetleg figyelembe kell venni egy új technológia értékelésekor.
🔴 INGSA. 2018. A jólét megértése a gyors digitális és a kapcsolódó átalakulások összefüggésében.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
🟢 Új leírók (a kiterjedt konzultáción, visszajelzésen és irodalmi áttekintésen keresztül)
🟡 OECD keretrendszer az AI-rendszerek osztályozására: a hatékony mesterségesintelligencia-politikák eszköze.
https://oecd.ai/en/classification
Kritériumai | Példák arra, hogy ez hogyan tükröződhet az elemzésben |
🟡A felhasználók AI-kompetenciája | Mennyire kompetensek és mennyire ismerik a rendszer tulajdonságait azok a valószínű felhasználók, akik interakcióba lépnek a rendszerrel? Hogyan kapják meg a vonatkozó felhasználói információkat és figyelmeztetéseket? |
🟡 Érintett érintett | Kik azok az elsődleges érintettek, akikre hatással lesz a rendszer (egyének, közösségek, kiszolgáltatottak, ágazati dolgozók, gyerekek, döntéshozók, szakemberek stb.)? |
🟡 Opcionális | Lehetőséget kapnak a felhasználók a rendszerből való kilépésre, vagy lehetőséget kapnak a kimenet megkérdőjelezésére vagy javítására? |
🟡Az emberi jogok és a demokratikus értékek veszélyeztetése | A rendszer alapvetően befolyásolja-e az emberi jogokat, beleértve, de nem kizárólagosan a magánélet védelmét, a szólásszabadságot, a méltányosságot, a megkülönböztetésmentességet stb.? |
🟡 Lehetséges hatások az emberek jólétére | Kapcsolódnak-e a rendszer hatásterületei az egyéni felhasználó jólétéhez (munka minősége, oktatás, társadalmi interakciók, mentális egészség, identitás, környezet stb.)? |
🟡 Az emberi munkaerő kiszorításának lehetősége | Van-e lehetőség arra, hogy a rendszer automatizálja az emberek által végrehajtott feladatokat vagy funkciókat? Ha igen, milyen következményekkel jár ez? |
🟡 Az identitás, az értékek vagy a tudás manipulálásának lehetősége | A rendszert úgy tervezték, vagy potenciálisan képes manipulálni a felhasználó személyazonosságát, ill értékeket állít fel, vagy dezinformációt terjeszt? |
🔴 Önkifejezési és önmegvalósítási lehetőségek | Van lehetőség a mesterkéltségre és az önbizalomhiányra? Van-e lehetőség hamis ill ellenőrizhetetlen szakértői állítások? |
🔴 Az önértékelés mértéke | Van-e nyomás az idealizált én ábrázolására? Az automatizálás helyettesítheti az értelmet a személyes kiteljesedésről? Van-e nyomás a versenyre a rendszerrel a munkahely? Az egyéni hírnevet nehezebb megvédeni a dezinformációval szemben? |
🔴 Adatvédelem | Vannak-e szétszórt felelősségek a magánélet védelmében, és vannak-e ilyenek a személyes adatok felhasználásával kapcsolatos feltételezések? |
🔴 Autonómia | Befolyásolhatja-e az AI-rendszer az emberi autonómiát azáltal, hogy túlzott ráhagyatkozást generál? végfelhasználó? |
🔴 Az emberi fejlődés | Van-e hatással az emberi fejlődéshez szükséges kulcsfontosságú készségek elsajátítására, mint pl végrehajtó funkciók vagy interperszonális készségek, vagy a figyelem idejét befolyásoló változások tanulás, személyiségfejlődés, mentális egészséggel kapcsolatos aggodalmak stb.? |
🔴 Személyes egészségügyi ellátás | Öndiagnózisról vagy személyre szabott egészségügyi megoldásokról van szó? Ha igen, a szabályozási szabványoknak megfelelően érvényesítve vannak? |
🔴 Lelki egészség | Fennáll-e a fokozott szorongás, magány vagy más mentális egészségügyi problémák veszélye, ill a technológia enyhítheti az ilyen hatásokat? |
🟢 Az emberi evolúció | A nagy nyelvi modellek és a mesterséges általános intelligencia megváltoztathatja-e a az emberi evolúció menete? |
🟢 Ember-gép interakció | A használat idővel szakképzettséget és függőséget okozhat az egyéneknél? Vannak hatással van az emberi interakcióra? |
Kritériumai | Példák arra, hogy ez hogyan tükröződhet az elemzésben |
🔴 Társadalmi értékek | A rendszer alapvetően megváltoztatja a társadalom természetét, lehetővé teszi-e a korábban antiszociálisnak tartott eszmék normalizálását, vagy sérti-e annak a kultúrának a társadalmi értékeit, amelyben alkalmazzák? |
🔴 Társadalmi interakciók | Van-e hatása az értelmes emberi kapcsolatokra, beleértve az érzelmi kapcsolatokat is? |
🔴 A lakosság egészsége | Van-e lehetőség arra, hogy a rendszer előmozdítsa vagy aláássa a lakosság egészségügyi szándékait? |
🔴 Kulturális kifejezés | Valószínűleg vagy nehezebben kezelhető-e a kulturális kisajátítás vagy diszkrimináció növekedése? A döntéshozatali rendszerre való támaszkodás kizárja vagy marginalizálja a társadalom kulturálisan releváns szelektív kötődéseit? |
🔴 Közoktatás | Van ennek hatása a tanári szerepekre vagy az oktatási intézményekre? Hangsúlyozza vagy csökkenti a rendszer a diákok közötti digitális megosztottságot és egyenlőtlenséget? Előrehaladott vagy aláásott-e a tudás vagy a kritikai megértés belső értéke? |
🟢 Torz valóság | Továbbra is alkalmazhatóak azok a módszerek, amelyeket annak megállapítására használnak, hogy mi igaz? A valóság érzékelése sérül? |
Kritériumai | Példák arra, hogy ez hogyan tükröződhet az elemzésben |
🟡 Ipari szektor | Melyik ipari szektorban alkalmazzák a rendszert (pénzügy, mezőgazdaság, egészségügy, oktatás, védelem stb.)? |
🟡 Üzleti modell | Milyen üzleti funkcióban és milyen minőségben alkalmazzák a rendszert? Hol használják a rendszert (magán, állami, nonprofit)? |
🟡 Hatás a kritikus tevékenységekre | A rendszer működésének vagy tevékenységének megszakadása hatással lenne az alapvető szolgáltatásokra vagy a kritikus infrastruktúrákra? |
🟡 Széles körű telepítés | Hogyan kerül bevezetésre a rendszer (szűk használat az egységen belül, szemben a nemzeti/nemzetközi elterjedtséggel)? |
🟡 Műszaki érettség | Mennyire érett műszakilag a rendszer? |
🟢 Interoperabilitás | Valószínűleg vannak nemzeti vagy globális silók, amelyek gátolják a szabad kereskedelmet és hatással vannak a partnerekkel való együttműködésre? |
🟢 Technológiai szuverenitás | A technológiai szuverenitás iránti vágy vezérel-e magatartást, beleértve a mesterséges intelligencia teljes ellátási lánca feletti ellenőrzést? |
🔴 Jövedelem-újraelosztás és nemzeti fiskális karok | Sérülhetnek-e a szuverén állam alapvető szerepei (pl. tartalékbankok)? Javul vagy csökken az állam azon képessége, hogy megfeleljen az állampolgárok elvárásainak és következményeinek (társadalmi, gazdasági, politikai stb.)? |
🟢 Digitális megosztottság (AI megosztottság) | A meglévő digitális egyenlőtlenségek súlyosbodnak, vagy újak jönnek létre? |
Kritériumai | Példák arra, hogy ez hogyan tükröződhet az elemzésben |
🔴 Kormányzás és közszolgálat | Lehetséges-e pozitívan vagy negatívan befolyásolni az irányítási mechanizmusokat és a globális kormányzási rendszert? |
🔴 Hírek média | Valószínűleg a közbeszéd polarizálódik és megrögzül a lakosság szintjén? Ez hatással lesz a negyedik birtokba vetett bizalom szintjére? Tovább érinti-e a hagyományos újságírói etikát és feddhetetlenségi normákat? |
🔴 Jogállam | Ez hatással lesz a felelősségre vonandó egyének vagy szervezetek azonosításának képességére (pl. milyen elszámoltathatóságot kell rendelni egy algoritmushoz a kedvezőtlen következményekért)? Megszűnik-e a szuverenitás (környezetvédelmi, fiskális, szociálpolitikai, etikai stb.)? |
🔴Politika és társadalmi kohézió | Van-e lehetőség szilárdabb politikai nézetekre és kevesebb lehetőség a konszenzus kialakítására? Van-e lehetőség a csoportok további marginalizálására? Többé vagy kevésbé valószínűvé teszik a politika ellenséges stílusát? |
🟢 Szociális jogosítvány | Vannak-e olyan adatvédelmi aggályok, bizalmi problémák és erkölcsi aggályok, amelyeket figyelembe kell venni a használat érdekelt feleinek elfogadásához? |
🟢 Őshonos tudás | Lehetséges, hogy a bennszülött ismeretek és adatok megsérülnek vagy eltulajdoníthatók? Léteznek-e megfelelő intézkedések a félrevezetés, félretájékoztatás és kizsákmányolás ellen? |
🟢 Tudományos rendszer | Sérül az akadémiai és a kutatási integritás? Elvész a tudományba vetett bizalom? Van lehetőség visszaélésre, túlhasználatra vagy visszaélésre? Mi a következménye a tudomány gyakorlatának? |
Kritériumai | Példák arra, hogy ez hogyan tükröződhet az elemzésben |
🟢 Precíziós megfigyelés | A rendszerek az egyéni viselkedési és biológiai adatokra vannak kiképezve, és felhasználhatók-e egyének vagy csoportok kiaknázására? |
🟢 Digitális verseny | Felhasználhatják-e az állami vagy nem állami szereplők (pl. nagy technológiai vállalatok) a rendszereket és adatokat más országok populációinak és ökoszisztémáinak megértésére és ellenőrzésére, vagy alááshatják-e a joghatósági ellenőrzést? |
🟢 Geopolitikai verseny | Lehetséges, hogy a rendszer versenyt szít a nemzetek között az egyéni és csoportos adatok gazdasági, egészségügyi és biztonsági célú felhasználása miatt? |
🟢 Változás a globális hatalmakban | Veszélyben van a nemzetállamok, mint a világ elsődleges geopolitikai szereplőinek státusza? Rendelkeznek-e a technológiai cégek egykor a nemzetállamok számára fenntartott hatalommal, és független, szuverén szereplőkké váltak (a kialakuló technopoláris világrend)? |
🟢 Dezinformáció | Megkönnyítené-e a rendszer az állami és nem állami szereplők által a társadalmi kohézióra, a bizalomra és a demokráciára kiható dezinformáció előállítását és terjesztését? |
🟢 Kettős felhasználású alkalmazások | Van lehetőség katonai és polgári felhasználásra egyaránt? |
🟢 A globális rend töredezettsége | Kialakulhatnak-e olyan silók vagy szabályozási és megfelelési klaszterek, amelyek akadályozzák az együttműködést, következetlenségekhez vezethetnek az alkalmazásban és teret adnak a konfliktusoknak? |
Kritériumai | Példák arra, hogy ez hogyan tükröződhet az elemzésben |
🟢 Energia- és erőforrás-felhasználás (szénlábnyom) | A rendszer és a követelmények növelik-e az energia- és erőforrás-felhasználást az alkalmazással elért hatékonyságnövekedésen felül? |
🟢Energiaforrás | Honnan származik az energia a rendszer számára (megújuló vs. fosszilis tüzelőanyagok stb.)? |
Kritériumai | Példák arra, hogy ez hogyan tükröződhet az elemzésben |
🟡 Irány és gyűjtés | Az adatokat és a bemenetet emberek, automatizált érzékelők vagy mindkettő gyűjti? |
🟡 Az adatok származása | A szakértőktől származó adatok és inputok rendelkezésre állnak, megfigyelhetők, szintetikusak vagy származtatottak? Léteznek vízjel védelem a származás megerősítésére? |
🟡 Az adatok dinamikus jellege | Az adatok dinamikusak, statikusak, dinamikusak időről időre vagy valós időben? |
🟡 Jogok | Az adatok védettek, nyilvánosak vagy személyesek (azonosítható személyekhez kapcsolódnak)? |
🟡 Azonosíthatóság és személyes adatok | Ha személyes, az adatok anonimizáltak vagy álnevesítettek? |
🟡 Az adatok szerkezete | Az adatok strukturáltak, félig strukturáltak, összetett szerkezetűek vagy strukturálatlanok? |
🟡 Az adatok formátuma | Az adatok és metaadatok formátuma szabványos vagy nem szabványos? |
🟡 Az adatok léptéke | Mi az adatkészlet léptéke? |
🟡 Az adatok megfelelősége és minősége | Az adatkészlet megfelel a célnak? Megfelelő a minta mérete? Elég reprezentatív és teljes? Mennyire zajosak az adatok? Hibára hajlamos? |
Kritériumai | Példák arra, hogy ez hogyan tükröződhet az elemzésben |
🟡 Információ elérhetőség | Van valami információ a rendszer modelljéről? |
🟡 Az AI modell típusa | A modell szimbolikus (ember által generált szabályok), statisztikai (adatokat használ) vagy hibrid? |
🟡 Modellhez kapcsolódó jogok | A modell nyílt forráskódú vagy védett, saját vagy harmadik fél által kezelt? |
🟡 Egyetlen több modellből | A rendszer egy vagy több egymással összekapcsolt modellből áll? |
🟡 Generatív vagy diszkriminatív | A modell generatív, diszkriminatív vagy mindkettő? |
🟡 Modellkészítés | A rendszer ember által írt szabályok alapján, adatokból, felügyelt tanulással vagy megerősített tanulással tanul? |
🟡 Modellek evolúciója (AI sodródás) | A modell fejlődik-e és/vagy képességekre tesz-e szert a terepen lévő adatokkal való interakcióból? |
🟡 Összevont vagy központi tanulás | A modellt központilag vagy több helyi szerveren vagy „edge” eszközön tanítják? |
🟡 Fejlesztés/karbantartás | A modell univerzális, testreszabható vagy az AI-szereplő adataira szabott? |
🟡 Determinisztikus vagy valószínűségi | A modellt determinisztikus vagy valószínűségi módon használják? |
🟡 Modell átlátszóság | Rendelkezésre állnak-e olyan információk a felhasználók számára, amelyek lehetővé teszik számukra, hogy megértsék a modell kimeneteit és korlátait, illetve a korlátozásokat? |
🟢 Számítási korlátozás | Vannak számítási korlátai a rendszernek? Megjósolható-e a képességugrások vagy a skálázási törvények? |
Kritériumai | Példák arra, hogy ez hogyan tükröződhet az elemzésben |
🟡 Rendszer által végrehajtott feladat(ok). | Milyen feladatokat lát el a rendszer (felismerés, eseményészlelés, előrejelzés stb.)? |
🟡 Feladatok és cselekvések kombinálása | A rendszer több feladatot és műveletet kombinál (tartalomgeneráló rendszerek, autonóm rendszerek, vezérlőrendszerek stb.)? |
🟡 A rendszer autonómiájának szintje | Mennyire önállóak a rendszer cselekvései, és milyen szerepet játszanak az emberek? |
🟡 Az emberi részvétel mértéke | Van-e valamilyen emberi közreműködés az AI-rendszer általános tevékenységének felügyeletében és annak eldöntésében, hogy mikor és hogyan kell használni az AI-rendszert bármilyen helyzetben? |
🟡 Alapvető alkalmazás | A rendszer olyan alapvető alkalmazási területhez tartozik, mint az emberi nyelvi technológiák, a számítógépes látás, az automatizálás és/vagy az optimalizálás vagy a robotika? |
🟡 Értékelés | Rendelkezésre állnak-e szabványok vagy módszerek a rendszer kimenetének értékelésére? |
Hogyan lehetne ezt a keretet használni?
Ez a keret sokféleképpen használható, többek között:
A továbbjutás
Összefoglalva, az elemzési keret egy olyan eszköztár alapja, amelyet az érintettek használhatnak arra, hogy átfogóan és szisztematikusan áttekintsék a platformok vagy a használat jelentős fejlesztéseit. Az ebben a keretben bemutatott dimenziók a technológiaértékeléstől a közpolitikáig, az emberi fejlődéstől a szociológiáig, valamint a jövő- és technológiatanulmányokig relevánsak. Bár ezt az analitikai keretet mesterséges intelligencia számára fejlesztették ki, sokkal szélesebb körben alkalmazható bármely más feltörekvő technológia esetében.
6 UN AI Tanácsadó Testület. 2023. Időközi jelentés: Governing AI for Humanity. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd
Köszönetnyilvánítás
Sok emberrel konzultáltak és adtak visszajelzést mind a kezdeti vitaanyag kidolgozása során, mind a megjelenést követő visszajelzések során. Mindkét tanulmányt Sir Peter Gluckman, az ISC elnöke és Hema Sridhar, az új-zélandi védelmi minisztérium korábbi tudományos főtanácsadója, jelenleg pedig az új-zélandi Aucklandi Egyetem tudományos főmunkatársa készítette.
Különösen az ISC Lord Martin Rees, a Royal Society volt elnöke és a Cambridge-i Egyetem Egzisztenciális Kockázatok Tanulmányozó Központjának társalapítója; Shivaji Sondhi professzor, fizikaprofesszor, Oxfordi Egyetem; K Vijay Raghavan professzor, az indiai kormány korábbi tudományos főtanácsadója; Amandeep Singh Gill, az ENSZ főtitkárának technológiai megbízottja; Seán Ó hÉigeartaigh, ügyvezető igazgató, Center for the Study of the Study of Existencial Risks, University of Cambridge; Sir David Spiegelhalter, Winton professzor, a kockázatok nyilvános megértése, Egyetem
Cambridge; Amanda-June Brawner, vezető politikai tanácsadó és Ian Wiggins, nemzetközi ügyekért felelős igazgató, Royal Society, Egyesült Királyság; Dr. Jerome Duberry, ügyvezető igazgató és Dr. Marie-Laure Salles, igazgató, Genfi Graduate Institute; Chor Pharn Lee, Stratégiai Jövők Központja, Miniszterelnöki Hivatal, Szingapúr; Barend Mons és Dr. Simon Hodson, az Adatügyi Bizottság (CoDATA); Yuko Harayama professzor, a RIKEN korábbi ügyvezető igazgatója; Egyetemi tanár
Rémi Quirion, elnök, INGSA; Dr. Claire Craig, az Oxfordi Egyetem és a Tudományos Kormányhivatal korábbi előrejelzési vezetője; Yoshua Bengio professzor, az ENSZ főtitkárának tudományos tanácsadó testülete és az Université de Montréal; és sokan mások, akik visszajelzést adtak az ISC-nek a kezdeti vitaanyagról.
A nemzeti kutatási ökoszisztémák előkészítése a mesterséges intelligencia számára: stratégiák és előrehaladás 2024-ben
Az ISC agytrösztjének, a Center for Science Futuresnak ez a munkadokumentuma alapvető információkat és forrásokhoz való hozzáférést biztosít a világ minden részéből származó országokból a mesterséges intelligencia kutatási ökoszisztémáiba való integrálásának különböző szakaszaiban.