Regisztrálj

Jelentés

Útmutató a döntéshozók számára: A gyorsan fejlődő technológiák értékelése, beleértve a mesterséges intelligenciát, a nagy nyelvi modelleket és azon túl

Ebben a tanulmányban az ISC felvázolja azt a keretrendszert, amely tájékoztatja a politikai döntéshozókat a mesterséges intelligencia kapcsán zajló számos globális és nemzeti megbeszélésről.

Az ISC útmutatója átfogó keretet kínál a magas szintű elvek és a gyakorlati, végrehajtható politika közötti szakadék áthidalására. Választ ad a feltörekvő technológiák által kínált lehetőségek és kockázatok közös megértésének sürgető igényére. Ez egy alapvető dokumentum azok számára, akik gyorsan változó digitális korszakunkban a politikai kapcsolaton dolgoznak.

A keretrendszer átfogó objektíven tárja fel a mesterséges intelligencia és származékaiban rejlő lehetőségeket, az emberi és társadalmi jólétet, valamint olyan külső tényezőket, mint a gazdaság, a politika, a környezet és a biztonság. Az ellenőrzőlista egyes szempontjai a kontextustól függően relevánsabbak lehetnek, mint mások, de a jobb döntések valószínűbbnek tűnnek, ha minden területet figyelembe veszünk, még akkor is, ha egyes esetekben bizonyos esetekben gyorsan irrelevánsként azonosíthatók. Ez az ellenőrzőlista megközelítés velejárója.

„Egy olyan korszakban, amelyet a gyors technológiai innováció és az összetett globális kihívások jellemeznek, az ISC keretrendszere a lehetséges hatások átfogó és többdimenziós elemzésére feljogosítja a vezetőket arra, hogy megalapozott, felelősségteljes döntéseket hozzanak. Biztosítja, hogy technológiai fejlődésünk során az etikai, társadalmi és gazdasági következmények gondos mérlegelésével tegyük ezt.”

Peter Gluckman, az ISC elnöke

Míg többek között az UNESCO, az OECD, az Európai Bizottság és az ENSZ magas szintű elveket hirdetett meg, és számos megbeszélés folyik a lehetséges kormányzás, szabályozás, etika és biztonság kérdéseiről, nagy szakadék tátong ezen elvek és az ENSZ között. irányítási vagy szabályozási keret. Az ISC a politikai döntéshozóknak szóló új útmutatója révén foglalkozik ezzel az igénysel.

Ennek a politikai döntéshozóknak szóló útmutatónak nem az a célja, hogy megtiltson egy szabályozási rendszert, hanem inkább olyan adaptív és fejlődő elemzési keretet javasoljon, amely alátámaszthat minden olyan értékelést és szabályozási folyamatot, amelyet az érdekelt felek, köztük a kormányok és a többoldalú rendszer kidolgozhatnak.

„A keretrendszer kritikus lépés az AI-ról folytatott globális párbeszédben, mivel alapot biztosít ahhoz, hogy konszenzust építsünk a technológia jelenlegi és jövőbeli vonatkozásairól.” 

Hema Sridhar, az új-zélandi védelmi minisztérium korábbi tudományos főtanácsadója, jelenleg pedig tudományos főmunkatárs az Aucklandi Egyetemen, Új-Zélandon.

2023 októbere óta számos jelentős nemzeti és többoldalú kezdeményezés történt a mesterséges intelligencia etikájának és biztonságának további figyelembevételével. Egyre aggodalomra adnak okot a mesterséges intelligencia hatásai egyes kritikus rendszereink, köztük a pénzügyi, kormányzati, jogi és oktatási rendszereink integritására, valamint a különböző tudásrendszerekre (beleértve a tudományos és az őshonos ismereteket is). A keretrendszer tovább tükrözi ezeket a szempontokat.

Az ISC-tagoktól és a nemzetközi döntéshozó közösségtől eddig kapott visszajelzések tükröződnek az elemzési keret átdolgozott változatában, amely most útmutatóként jelenik meg a politikai döntéshozók számára.

Útmutató a döntéshozók számára: A gyorsan fejlődő technológiák értékelése, beleértve a mesterséges intelligenciát, a nagy nyelvi modelleket és azon túl

Ez a vitaanyag felvázolja azt a kezdeti keretet, amely a mesterséges intelligencia kapcsán zajló számos globális és nemzeti megbeszélést szolgálja.

A szervezetben használható keretrendszer

Töltse le a keretrendszert a szervezetében való használatra

Itt a kereteszközt szerkeszthető Excel-lapként biztosítjuk, amelyet az Ön szervezetében használhat. Ha a nyílt forráskódú formátumot részesíti előnyben, kérjük, lépjen kapcsolatba velünk [e-mail védett].

Bevezetés

A gyorsan fejlődő technológiák kihívást jelentenek használatukkal, irányításukkal és lehetséges szabályozásukkal kapcsolatban. A mesterséges intelligenciával (AI) és annak használatával kapcsolatos folyamatban lévő politika és nyilvános viták ezeket a kérdéseket akut fókuszba helyezték. Az UNESCO, az OECD, az ENSZ és mások – köztük az Egyesült Királyság Bletchley-nyilatkozatával – a mesterséges intelligencia tág alapelveit jelentették be, és vannak olyan joghatósági kísérletek, amelyek például az Európai Unió (EU) mesterséges intelligenciáján keresztül szabályozzák a technológia szempontjait. törvény vagy az Egyesült Államok közelmúltbeli AI végrehajtó rendelete.

Míg ezeken és más fórumokon hosszasan tárgyalják a mesterséges intelligencia használatát, a geopolitikai megosztottságon átívelő országokban és minden jövedelmi szinten, továbbra is ontológiai szakadék tátong a magas szintű elvek kidolgozása és a gyakorlatba történő beépítése között, akár szabályozáson, szakpolitikán vagy kormányzáson keresztül. vagy sáfársági megközelítések. Az elvtől a gyakorlatig vezető út rosszul meghatározott, de tekintettel a mesterséges intelligencia fejlesztésének és alkalmazásának természetére és ütemére, az érintett érdeklődési körök sokféleségére és a lehetséges alkalmazások skálájára, egyetlen megközelítés sem lehet túlságosan általános vagy előíró.

Ezen okok miatt a nem kormányzati tudományos közösség továbbra is különleges szerepet játszik. A pluralista társadalom- és természettudományi tagsággal rendelkező Nemzetközi Tudományos Tanács (ISC) 2023 októberében vitaanyagot adott ki, amelyben egy előzetes elemzési keretet mutatott be, amely a gyorsan fejlődő digitális technológiához kapcsolódó kockázatokat, előnyöket, veszélyeket és lehetőségeket vizsgálta. Noha a mesterséges intelligencia figyelembevételére fejlesztették ki, eredendően technológia-agnosztikus, és számos feltörekvő és bomlasztó technológiára alkalmazható, mint például a szintetikus biológia és a kvantum. Ez a vitaanyag visszajelzést kért az akadémikusoktól és a politikai döntéshozóktól. Az elsöprő visszajelzések szükségessé tették egy ilyen elemzés elvégzését, és értékes megközelítésnek bizonyultak az olyan feltörekvő technológiák kezelésében, mint az AI.

A keret célja, hogy eszközt biztosítson az összes érdekelt félnek – beleértve a kormányokat, a kereskedelmi tárgyalókat, a szabályozó hatóságokat, a civil társadalmat és az ipart – e technológiák fejlődéséről, hogy segítsen nekik meghatározni, hogyan tekinthetik a technológia pozitív vagy negatív következményeit. maga a technológia, pontosabban annak konkrét alkalmazása. Ezt az elemzési keretet a kormány és az ipar érdekeitől függetlenül fejlesztették ki. Perspektíváit tekintve maximálisan pluralista, kiterjedt konzultáción és visszajelzéseken alapuló technológiai vonatkozásait és következményeit felöleli.

Ennek a politikai döntéshozóknak szóló vitaanyagnak nem az a célja, hogy megtiltson egy szabályozási rendszert, hanem inkább egy olyan adaptív és fejlődő elemzési keretet javasoljon, amely alátámaszthat minden olyan értékelést és szabályozási folyamatot, amelyet az érdekelt felek, köztük a kormányok és a multilaterális rendszer kidolgozhatnak.

Mivel a döntéshozók globálisan és nemzeti szinten megfontolják a megfelelő szakpolitikai beállításokat és eszközöket egy új technológia, például a mesterséges intelligencia kockázatainak és hasznainak egyensúlyba hozása érdekében, az elemzési keretet kiegészítő eszköznek szánják annak biztosítására, hogy a lehetséges következmények teljes készletét megfelelően tükrözzék.

Háttér: miért van szükség analitikai keretre?

A mesterséges intelligencia összetettségével és következményeivel együtt járó technológiák gyors megjelenése számos nagy haszonnal járó állítást eredményez. Ugyanakkor jelentős kockázatoktól való félelmet is gerjeszt, az egyéntől a geostratégiai szintig.1 Az eddigi viták nagy részét bináris értelemben vették figyelembe, mivel a nyilvánosan kifejtett nézetek általában a spektrum legszélső végén zajlanak. A mesterséges intelligencia mellett vagy ellen megfogalmazott állítások gyakran hiperbolikusak, és – a technológia természetéből adódóan – nehezen értékelhetők.

Pragmatikusabb megközelítésre van szükség, ha a hiperbolát kalibrált és szemcsésebb értékelésekkel helyettesítjük. A mesterséges intelligencia technológia tovább fog fejlődni, és a történelem azt mutatja, hogy gyakorlatilag minden technológiának van előnyös és káros haszna is. A kérdés tehát az: hogyan érhetjük el ennek a technológiának a jótékony eredményeit, miközben csökkentjük a káros következmények kockázatát, amelyek közül néhány egzisztenciális is lehet?

A jövő mindig bizonytalan, de elegendő hiteles és szakértő vélemény szól a mesterséges intelligencia és a generatív mesterséges intelligencia tekintetében ahhoz, hogy a viszonylag óvatos megközelítést ösztönözze. Ezenkívül rendszerszemléletre van szükség, mivel a mesterséges intelligencia a technológiák egy osztálya, amelyet széles körben használnak és alkalmaznak többféle felhasználó. Ez azt jelenti, hogy a teljes kontextust figyelembe kell venni, amikor egy mesterséges intelligencia használatának az egyénekre, a társadalmi életre, a civil életre, a társadalmi életre és a globális kontextusra gyakorolt ​​hatásait mérlegeljük.

A legtöbb más technológiától eltérően a digitális és kapcsolódó technológiák esetében a fejlesztés, a kiadás és az alkalmazás között eltelt idő rendkívül rövid, nagyrészt a gyártó cégek vagy ügynökségek érdekei miatt. A mesterséges intelligencia természetéből adódóan – és mivel a digitális gerincre épül – olyan alkalmazásai lesznek, amelyek gyorsan terjednek, amint azt a nagy nyelvi modellek fejlesztésekor már láthattuk. Emiatt előfordulhat, hogy bizonyos tulajdonságok csak a szabadulás után válnak nyilvánvalóvá, vagyis fennáll a váratlan, rosszindulatú és jóindulatú következmények veszélye.

A fontos társadalmi értékdimenziók, különösen a különböző régiókban és kultúrákban, befolyásolják a felhasználás észlelését és elfogadását. Ráadásul a geostratégiai érdekek már most is dominálnak a vitában, szuverén és multilaterális érdekek folyamatosan keresztezik egymást, és ezáltal a versenyt és a megosztottságot.

A mai napig a virtuális technológia szabályozásának nagy részét nagyrészt az „elvek” és az önkéntes megfelelés szemüvegén keresztül látták, bár az EU AI-törvényével2 és ehhez hasonló elmozdulást látunk a végrehajthatóbb, de kissé szűkebb szabályozás felé. Egy hatékony globális vagy nemzeti technológiairányítási és/vagy szabályozási rendszer létrehozása továbbra is kihívást jelent, és nincs egyértelmű megoldás. A kockázatokon alapuló döntéshozatal több rétegére lesz szükség a lánc mentén, a feltalálótól a gyártóig, a felhasználóig, a kormányzatig és a többoldalú rendszerig.

Míg többek között az UNESCO, az OECD, az Európai Bizottság és az ENSZ magas szintű elveket hirdetett meg, és különböző magas szintű megbeszélések folynak a lehetséges kormányzási, szabályozási, etikai és biztonsági kérdésekről, nagy szakadék van ezek között. alapelvek és egy irányítási vagy szabályozási keret. Ezzel foglalkozni kell.

Kiindulópontként az ISC egy olyan szempontrendszer kidolgozását fontolgatja, amelyre bármely fejlesztő, szabályozó, politikai tanácsadó, fogyasztó vagy döntéshozó hivatkozhat. Tekintettel ezeknek a technológiáknak a széles körű vonatkozásaira, egy ilyen taxonómiának a következmények összességét kell figyelembe vennie, nem pedig egy szűken fókuszált keretezést. A globális széttagoltság növekszik a geostratégiai érdekek döntéshozatalra gyakorolt ​​befolyása miatt, és e technológia sürgőssége miatt elengedhetetlen, hogy független és semleges hangok kitartóan kiálljanak az egységes és befogadó megközelítés mellett.


1) Hindustan Times. 2023. A G20-nak fel kell állítania a technológiai változásokkal foglalkozó nemzetközi testületet.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) Az EU mesterséges intelligenciáról szóló törvénye. 2023. https://artificialintelligenceact.eu

Analitikai keretrendszer kialakítása

Az ISC a természet- és társadalomtudományokat integráló elsődleges globális nem kormányzati szervezet. Globális és diszciplináris hatóköre azt jelenti, hogy jó helyzetben van ahhoz, hogy független és globálisan releváns tanácsokat adjon az előttünk álló összetett döntések meghozatalához, különösen mivel ezen a területen a jelenlegi hangok nagyrészt az ipartól vagy a fő technológiai hatalmak politikai és politikai közösségeitől származnak.

A nem kormányzati értékelési folyamat megfontolását is magában foglaló kiterjedt viták időszakát követően az ISC arra a következtetésre jutott, hogy a leghasznosabb hozzájárulása egy olyan adaptív elemzési keret létrehozása lenne, amely mindenki számára felhasználható diskurzus és döntéshozatal alapjául. az érdekelt feleket, beleértve a felmerülő formális értékelési folyamatokat is.

Az előzetes elemzési keret, amely 2023 októberében került megvitatásra és visszajelzésre, egy átfogó ellenőrzőlista formáját öltötte, amelyet kormányzati és nem kormányzati intézmények egyaránt használhatnak. A keretrendszer azonosította és feltárta az olyan technológiákban rejlő lehetőségeket, mint a mesterséges intelligencia és származékai, egy széles szemüvegen keresztül, amely magában foglalja az emberi és társadalmi jólétet, valamint olyan külső tényezőket, mint a gazdaság, a politika, a környezet és a biztonság. Az ellenőrzőlista egyes szempontjai a kontextustól függően relevánsabbak lehetnek, mint mások, de a jobb döntések valószínűbbnek tűnnek, ha minden területet figyelembe veszünk, még akkor is, ha egyes esetekben bizonyos esetekben gyorsan irrelevánsként azonosíthatók. Ez az ellenőrzőlista-megközelítés eredendő értéke.

Az előzetes keretet a korábbi munkákból és gondolkodásmódokból származtatták, beleértve a Kormányzati Tudományos Tanácsok Nemzetközi Hálózatának (INGSA) digitális jólétről szóló jelentését3 és az OECD AI-rendszerek osztályozási keretrendszerét4, hogy bemutassák a lehetséges lehetőségek, kockázatok és hatások összességét. az AI. Ezeknek a korábbi termékeknek a szándéka korlátozottabb volt, idejük és kontextusuk miatt; olyan átfogó keretre van szükség, amely rövid és hosszabb távon is bemutatja a kérdések teljes körét.

Megjelenése óta a vitaanyag jelentős támogatást kapott számos szakértőtől és politikai döntéshozótól. Sokan kifejezetten támogatták azt az ajánlást, hogy olyan adaptív keretrendszert dolgozzanak ki, amely lehetővé teszi a technológia kockázatainak és következményeinek tudatos és proaktív mérlegelését, és ennek során mindig figyelembe veszi az egyéntől a társadalomig és a rendszerekig terjedő dimenziók összességét.

A visszajelzéseken keresztül tett egyik legfontosabb megfigyelés annak elismerése volt, hogy a keretrendszerben figyelembe vett számos vonatkozás eleve sokrétű, és több kategóriára is kiterjed. Például a félretájékoztatás egyéni és geostratégiai szemszögből egyaránt figyelembe vehető; így a következmények széles körűek lennének.

Azt is javasolták, hogy esettanulmányokat vagy példákat vegyenek fel a keretrendszer tesztelésére. Ez felhasználható olyan iránymutatások kidolgozására, amelyek bemutatják, hogyan használhatók a gyakorlatban különböző kontextusokban. Ez azonban jelentős vállalkozás lenne, és korlátozhatja, hogy a különböző csoportok hogyan érzékelik e keretrendszer használatát. Ezt a legjobban a politikai döntéshozók tehetik meg, akik meghatározott joghatóságok vagy kontextusok szakértőivel dolgoznak együtt.

2023 októbere óta számos jelentős nemzeti és többoldalú kezdeményezés történt a mesterséges intelligencia etikájának és biztonságának további figyelembevételével. Egyre aggodalomra adnak okot a mesterséges intelligencia hatásai egyes kritikus rendszereink, köztük a pénzügyi, kormányzati, jogi és oktatási rendszereink integritására, valamint a különböző tudásrendszerekre (beleértve a tudományos és az őshonos ismereteket is). A felülvizsgált keretrendszer tovább tükrözi ezeket a szempontokat.

Az eddig beérkezett visszajelzések tükröződnek az elemzési keret átdolgozott változatában, amely most útmutatóként jelenik meg a politikai döntéshozók számára.

Míg a keretrendszert a mesterséges intelligencia és a kapcsolódó technológiák kontextusában mutatják be, azonnal átvihető más, gyorsan feltörekvő technológiák, például a kvantum- és a szintetikus biológia szempontjaiba.


3) Gluckman, P. és Allen, K. 2018. A jólét megértése a gyors digitális és kapcsolódó átalakulások kontextusában. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OECD. 2022. OECD Framework for the Classification of AI systems. OECD Digital Economy Papers, No. 323, #. Paris, OECD Publishing.
https://oecd.ai/en/classificatio

A keretrendszer

Az alábbi táblázat egy feltételezett analitikai keretrendszer méreteit mutatja be. Példákkal illusztráljuk, miért lehetnek fontosak az egyes tartományok; összefüggésben a keret kontextus szempontjából releváns bővítést igényelne. Szintén fontos különbséget tenni a platformfejlesztések során felmerülő általános problémák és a konkrét alkalmazások során felmerülő problémák között. Egyetlen itt szereplő szempontot sem szabad prioritásként kezelni, és mint ilyet, mindegyiket meg kell vizsgálni.

A problémák nagy vonalakban a következő kategóriákba sorolhatók, az alábbiak szerint:

  • Jólét (beleértve az egyének vagy önmaguk, a társadalom, a társadalmi élet és a civil élet jólétét)
  • Kereskedelem és gazdaság
  • Környezeti
  • Geostratégiai és geopolitikai
  • Technológiai (rendszer jellemzői, kialakítás és használat)

A táblázat részletezi azokat a dimenziókat, amelyeket esetleg figyelembe kell venni egy új technológia értékelésekor.

🔴 INGSA. 2018. A jólét megértése a gyors digitális és a kapcsolódó átalakulások összefüggésében.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

🟢 Új leírók (a kiterjedt konzultáción, visszajelzésen és irodalmi áttekintésen keresztül)

🟡 OECD keretrendszer az AI-rendszerek osztályozására: a hatékony mesterségesintelligencia-politikák eszköze.
https://oecd.ai/en/classification

Hatás dimenziói: Egyéni / önmaga

KritériumaiPéldák arra, hogy ez hogyan tükröződhet az elemzésben
🟡A felhasználók AI-kompetenciájaMennyire kompetensek és mennyire ismerik a rendszer tulajdonságait azok a valószínű felhasználók, akik interakcióba lépnek a rendszerrel? Hogyan kapják meg a vonatkozó felhasználói információkat és figyelmeztetéseket?
🟡 Érintett érintettKik azok az elsődleges érintettek, akikre hatással lesz a rendszer (egyének, közösségek, kiszolgáltatottak, ágazati dolgozók, gyerekek, döntéshozók, szakemberek stb.)?
🟡 OpcionálisLehetőséget kapnak a felhasználók a rendszerből való kilépésre, vagy lehetőséget kapnak a kimenet megkérdőjelezésére vagy javítására?
🟡Az emberi jogok és a demokratikus értékek veszélyeztetéseA rendszer alapvetően befolyásolja-e az emberi jogokat, beleértve, de nem kizárólagosan a magánélet védelmét, a szólásszabadságot, a méltányosságot, a megkülönböztetésmentességet stb.?
🟡 Lehetséges hatások az emberek jólétéreKapcsolódnak-e a rendszer hatásterületei az egyéni felhasználó jólétéhez (munka minősége, oktatás, társadalmi interakciók, mentális egészség, identitás, környezet stb.)?
🟡 Az emberi munkaerő kiszorításának lehetőségeVan-e lehetőség arra, hogy a rendszer automatizálja az emberek által végrehajtott feladatokat vagy funkciókat? Ha igen, milyen következményekkel jár ez?
🟡 Az identitás, az értékek vagy a tudás manipulálásának lehetőségeA rendszert úgy tervezték, vagy potenciálisan képes manipulálni a felhasználó személyazonosságát, ill
értékeket állít fel, vagy dezinformációt terjeszt?
🔴 Önkifejezési és önmegvalósítási lehetőségekVan lehetőség a mesterkéltségre és az önbizalomhiányra? Van-e lehetőség hamis ill
ellenőrizhetetlen szakértői állítások?
🔴 Az önértékelés mértékeVan-e nyomás az idealizált én ábrázolására? Az automatizálás helyettesítheti az értelmet
a személyes kiteljesedésről? Van-e nyomás a versenyre a rendszerrel a
munkahely? Az egyéni hírnevet nehezebb megvédeni a dezinformációval szemben?
🔴 AdatvédelemVannak-e szétszórt felelősségek a magánélet védelmében, és vannak-e ilyenek
a személyes adatok felhasználásával kapcsolatos feltételezések?
🔴 AutonómiaBefolyásolhatja-e az AI-rendszer az emberi autonómiát azáltal, hogy túlzott ráhagyatkozást generál?
végfelhasználó?
🔴 Az emberi fejlődésVan-e hatással az emberi fejlődéshez szükséges kulcsfontosságú készségek elsajátítására, mint pl
végrehajtó funkciók vagy interperszonális készségek, vagy a figyelem idejét befolyásoló változások
tanulás, személyiségfejlődés, mentális egészséggel kapcsolatos aggodalmak stb.?
🔴 Személyes egészségügyi ellátásÖndiagnózisról vagy személyre szabott egészségügyi megoldásokról van szó? Ha igen,
a szabályozási szabványoknak megfelelően érvényesítve vannak?
🔴 Lelki egészségFennáll-e a fokozott szorongás, magány vagy más mentális egészségügyi problémák veszélye, ill
a technológia enyhítheti az ilyen hatásokat?
🟢 Az emberi evolúcióA nagy nyelvi modellek és a mesterséges általános intelligencia megváltoztathatja-e a
az emberi evolúció menete?
🟢 Ember-gép interakcióA használat idővel szakképzettséget és függőséget okozhat az egyéneknél? Vannak
hatással van az emberi interakcióra?
5) A keretrendszerben figyelembe vett technológiai kritériumok kifejezetten a mesterséges intelligenciára vonatkoznak, és szükség szerint felül kell vizsgálni más technológiák esetében.

Hatás dimenziói: Társadalom/társadalmi élet

Kritériumai Példák arra, hogy ez hogyan tükröződhet az elemzésben
🔴 Társadalmi értékekA rendszer alapvetően megváltoztatja a társadalom természetét, lehetővé teszi-e a korábban antiszociálisnak tartott eszmék normalizálását, vagy sérti-e annak a kultúrának a társadalmi értékeit, amelyben alkalmazzák?
🔴 Társadalmi interakciókVan-e hatása az értelmes emberi kapcsolatokra, beleértve az érzelmi kapcsolatokat is?
🔴 A lakosság egészségeVan-e lehetőség arra, hogy a rendszer előmozdítsa vagy aláássa a lakosság egészségügyi szándékait?
🔴 Kulturális kifejezésValószínűleg vagy nehezebben kezelhető-e a kulturális kisajátítás vagy diszkrimináció növekedése? A döntéshozatali rendszerre való támaszkodás kizárja vagy marginalizálja a társadalom kulturálisan releváns szelektív kötődéseit?
🔴 KözoktatásVan ennek hatása a tanári szerepekre vagy az oktatási intézményekre? Hangsúlyozza vagy csökkenti a rendszer a diákok közötti digitális megosztottságot és egyenlőtlenséget? Előrehaladott vagy aláásott-e a tudás vagy a kritikai megértés belső értéke?
🟢 Torz valóságTovábbra is alkalmazhatóak azok a módszerek, amelyeket annak megállapítására használnak, hogy mi igaz? A valóság érzékelése sérül?

A hatás dimenziói: Gazdasági környezet (kereskedelem)

KritériumaiPéldák arra, hogy ez hogyan tükröződhet az elemzésben
🟡 Ipari szektorMelyik ipari szektorban alkalmazzák a rendszert (pénzügy, mezőgazdaság, egészségügy, oktatás, védelem stb.)?
🟡 Üzleti modellMilyen üzleti funkcióban és milyen minőségben alkalmazzák a rendszert? Hol használják a rendszert (magán, állami, nonprofit)?
🟡 Hatás a kritikus tevékenységekre A rendszer működésének vagy tevékenységének megszakadása hatással lenne az alapvető szolgáltatásokra vagy a kritikus infrastruktúrákra?
🟡 Széles körű telepítésHogyan kerül bevezetésre a rendszer (szűk használat az egységen belül, szemben a nemzeti/nemzetközi elterjedtséggel)?
🟡 Műszaki érettségMennyire érett műszakilag a rendszer?
🟢 Interoperabilitás Valószínűleg vannak nemzeti vagy globális silók, amelyek gátolják a szabad kereskedelmet és hatással vannak a partnerekkel való együttműködésre?
🟢 Technológiai szuverenitásA technológiai szuverenitás iránti vágy vezérel-e magatartást, beleértve a mesterséges intelligencia teljes ellátási lánca feletti ellenőrzést?
🔴 Jövedelem-újraelosztás és nemzeti fiskális karokSérülhetnek-e a szuverén állam alapvető szerepei (pl. tartalékbankok)? Javul vagy csökken az állam azon képessége, hogy megfeleljen az állampolgárok elvárásainak és következményeinek (társadalmi, gazdasági, politikai stb.)?
🟢 Digitális megosztottság (AI megosztottság) A meglévő digitális egyenlőtlenségek súlyosbodnak, vagy újak jönnek létre?

A hatás dimenziói: Polgári élet

KritériumaiPéldák arra, hogy ez hogyan tükröződhet az elemzésben
🔴 Kormányzás és közszolgálatLehetséges-e pozitívan vagy negatívan befolyásolni az irányítási mechanizmusokat és a globális kormányzási rendszert?
🔴 Hírek médiaValószínűleg a közbeszéd polarizálódik és megrögzül a lakosság szintjén? Ez hatással lesz a negyedik birtokba vetett bizalom szintjére? Tovább érinti-e a hagyományos újságírói etikát és feddhetetlenségi normákat?
🔴 JogállamEz hatással lesz a felelősségre vonandó egyének vagy szervezetek azonosításának képességére (pl. milyen elszámoltathatóságot kell rendelni egy algoritmushoz a kedvezőtlen következményekért)? Megszűnik-e a szuverenitás (környezetvédelmi, fiskális, szociálpolitikai, etikai stb.)?
🔴Politika és társadalmi kohézióVan-e lehetőség szilárdabb politikai nézetekre és kevesebb lehetőség a konszenzus kialakítására? Van-e lehetőség a csoportok további marginalizálására? Többé vagy kevésbé valószínűvé teszik a politika ellenséges stílusát?
🟢 Szociális jogosítványVannak-e olyan adatvédelmi aggályok, bizalmi problémák és erkölcsi aggályok, amelyeket figyelembe kell venni a használat érdekelt feleinek elfogadásához?
🟢 Őshonos tudásLehetséges, hogy a bennszülött ismeretek és adatok megsérülnek vagy eltulajdoníthatók? Léteznek-e megfelelő intézkedések a félrevezetés, félretájékoztatás és kizsákmányolás ellen?
🟢 Tudományos rendszerSérül az akadémiai és a kutatási integritás? Elvész a tudományba vetett bizalom? Van lehetőség visszaélésre, túlhasználatra vagy visszaélésre? Mi a következménye a tudomány gyakorlatának?

A hatás dimenziói: Geostratégiai/geopolitikai kontextus

KritériumaiPéldák arra, hogy ez hogyan tükröződhet az elemzésben
🟢 Precíziós megfigyelésA rendszerek az egyéni viselkedési és biológiai adatokra vannak kiképezve, és felhasználhatók-e egyének vagy csoportok kiaknázására?
🟢 Digitális versenyFelhasználhatják-e az állami vagy nem állami szereplők (pl. nagy technológiai vállalatok) a rendszereket és adatokat más országok populációinak és ökoszisztémáinak megértésére és ellenőrzésére, vagy alááshatják-e a joghatósági ellenőrzést?
🟢 Geopolitikai versenyLehetséges, hogy a rendszer versenyt szít a nemzetek között az egyéni és csoportos adatok gazdasági, egészségügyi és biztonsági célú felhasználása miatt?
🟢 Változás a globális hatalmakbanVeszélyben van a nemzetállamok, mint a világ elsődleges geopolitikai szereplőinek státusza? Rendelkeznek-e a technológiai cégek egykor a nemzetállamok számára fenntartott hatalommal, és független, szuverén szereplőkké váltak (a kialakuló technopoláris világrend)?
🟢 DezinformációMegkönnyítené-e a rendszer az állami és nem állami szereplők által a társadalmi kohézióra, a bizalomra és a demokráciára kiható dezinformáció előállítását és terjesztését?
🟢 Kettős felhasználású alkalmazásokVan lehetőség katonai és polgári felhasználásra egyaránt?
🟢 A globális rend töredezettségeKialakulhatnak-e olyan silók vagy szabályozási és megfelelési klaszterek, amelyek akadályozzák az együttműködést, következetlenségekhez vezethetnek az alkalmazásban és teret adnak a konfliktusoknak?

A hatás méretei: Környezeti

KritériumaiPéldák arra, hogy ez hogyan tükröződhet az elemzésben
🟢 Energia- és erőforrás-felhasználás (szénlábnyom)A rendszer és a követelmények növelik-e az energia- és erőforrás-felhasználást az alkalmazással elért hatékonyságnövekedésen felül?
🟢EnergiaforrásHonnan származik az energia a rendszer számára (megújuló vs. fosszilis tüzelőanyagok stb.)?

A hatás méretei: Adatok és bemenet

KritériumaiPéldák arra, hogy ez hogyan tükröződhet az elemzésben
🟡 Irány és gyűjtésAz adatokat és a bemenetet emberek, automatizált érzékelők vagy mindkettő gyűjti?
🟡 Az adatok származásaA szakértőktől származó adatok és inputok rendelkezésre állnak, megfigyelhetők, szintetikusak vagy származtatottak? Léteznek vízjel védelem a származás megerősítésére?
🟡 Az adatok dinamikus jellegeAz adatok dinamikusak, statikusak, dinamikusak időről időre vagy valós időben?
🟡 JogokAz adatok védettek, nyilvánosak vagy személyesek (azonosítható személyekhez kapcsolódnak)?
🟡 Azonosíthatóság és személyes adatokHa személyes, az adatok anonimizáltak vagy álnevesítettek?
🟡 Az adatok szerkezeteAz adatok strukturáltak, félig strukturáltak, összetett szerkezetűek vagy strukturálatlanok?
🟡 Az adatok formátumaAz adatok és metaadatok formátuma szabványos vagy nem szabványos?
🟡 Az adatok léptékeMi az adatkészlet léptéke?
🟡 Az adatok megfelelősége és minősége Az adatkészlet megfelel a célnak? Megfelelő a minta mérete? Elég reprezentatív és teljes? Mennyire zajosak az adatok? Hibára hajlamos?

Becsapódás méretei: Modell

KritériumaiPéldák arra, hogy ez hogyan tükröződhet az elemzésben
🟡 Információ elérhetőségVan valami információ a rendszer modelljéről?
🟡 Az AI modell típusaA modell szimbolikus (ember által generált szabályok), statisztikai (adatokat használ) vagy hibrid?
🟡 Modellhez kapcsolódó jogokA modell nyílt forráskódú vagy védett, saját vagy harmadik fél által kezelt?
🟡 Egyetlen több modellbőlA rendszer egy vagy több egymással összekapcsolt modellből áll?
🟡 Generatív vagy diszkriminatívA modell generatív, diszkriminatív vagy mindkettő?
🟡 ModellkészítésA rendszer ember által írt szabályok alapján, adatokból, felügyelt tanulással vagy megerősített tanulással tanul?
🟡 Modellek evolúciója (AI sodródás)A modell fejlődik-e és/vagy képességekre tesz-e szert a terepen lévő adatokkal való interakcióból?
🟡 Összevont vagy központi tanulásA modellt központilag vagy több helyi szerveren vagy „edge” eszközön tanítják?
🟡 Fejlesztés/karbantartásA modell univerzális, testreszabható vagy az AI-szereplő adataira szabott?
🟡 Determinisztikus vagy valószínűségi A modellt determinisztikus vagy valószínűségi módon használják?
🟡 Modell átlátszóság Rendelkezésre állnak-e olyan információk a felhasználók számára, amelyek lehetővé teszik számukra, hogy megértsék a modell kimeneteit és korlátait, illetve a korlátozásokat?
🟢 Számítási korlátozásVannak számítási korlátai a rendszernek? Megjósolható-e a képességugrások vagy a skálázási törvények?

Hatás dimenziói: Feladat és kimenet

KritériumaiPéldák arra, hogy ez hogyan tükröződhet az elemzésben
🟡 Rendszer által végrehajtott feladat(ok).Milyen feladatokat lát el a rendszer (felismerés, eseményészlelés, előrejelzés stb.)?
🟡 Feladatok és cselekvések kombinálásaA rendszer több feladatot és műveletet kombinál (tartalomgeneráló rendszerek, autonóm rendszerek, vezérlőrendszerek stb.)?
🟡 A rendszer autonómiájának szintje Mennyire önállóak a rendszer cselekvései, és milyen szerepet játszanak az emberek?
🟡 Az emberi részvétel mértékeVan-e valamilyen emberi közreműködés az AI-rendszer általános tevékenységének felügyeletében és annak eldöntésében, hogy mikor és hogyan kell használni az AI-rendszert bármilyen helyzetben?
🟡 Alapvető alkalmazásA rendszer olyan alapvető alkalmazási területhez tartozik, mint az emberi nyelvi technológiák, a számítógépes látás, az automatizálás és/vagy az optimalizálás vagy a robotika?
🟡 ÉrtékelésRendelkezésre állnak-e szabványok vagy módszerek a rendszer kimenetének értékelésére?

Hogyan lehetne ezt a keretet használni?

Ez a keret sokféleképpen használható, többek között:

  • A magas szintű elvek és a szabályozási vagy irányítási célú értékelés közötti szakadék áthidalása. A keretrendszer ezt támogathatja azáltal, hogy hitelesített közös taxonómiát hoz létre azon kérdések körére, amelyek megfontolásra érdemesek a releváns érdekelt felek által, a további gondolkodás megalapozása és formálása érdekében. Például nemzeti szinten a keretet a kormány eszközként használhatja, mivel nemzeti mesterségesintelligencia-stratégiát és politikákat dolgoz ki, hogy közös alapot hozzon létre a kockázatok és lehetőségek tekintetében az érdekelt csoportok között.
  • A hatásvizsgálatok tájékoztatása. Az EU AI-törvénye előírja, hogy a mesterségesintelligencia-eszközöket biztosító vagy folyamataikban mesterséges intelligenciát alkalmazó szervezetek hatásvizsgálatot végezzenek kezdeményezéseik kockázatának azonosítása érdekében, és megfelelő kockázatkezelési megközelítést alkalmazzanak. Az itt bemutatott keret ennek alapjául szolgálhatna.
  • Tájékoztatni a horizontot a kockázatokról és a jövőbeli forgatókönyvekről. Az ENSZ mesterséges intelligencia tanácsadó testületének időközi jelentésében6 szereplő kockázatok kategorizálása nagyjából igazodik az itt bemutatott keretrendszerhez. Lehetőség van arra, hogy a keretrendszert konszenzus kialakítására és a felmerülő kockázatok súlyosságának tesztelésére, valamint ezek megelőzésére használják.
  • Az AI használatának irányításához és szabályozásához szükséges etikai elvek megerősítése. A keretrendszer ezt úgy teheti meg, hogy rugalmas alapot biztosít, amelyre megbízható rendszerek fejleszthetők, és biztosítja a technológia jogszerű, etikus, robusztus és felelősségteljes használatát. Ezeket az alapelveket az ebben a keretrendszerben bemutatott hatások teljes skálájával szemben tesztelni lehetne.
  • A meglévő és fejlődő intézkedések (szabályozási, jogalkotási, szakpolitikai, szabványok, irányítási stb.) számbavételének elősegítése és a további vizsgálatot igénylő hiányosságok azonosítása. Ezeket nemzeti vagy multinacionális szinten fel lehetne térképezni a keretkategóriákkal, hogy meghatározzák a hiányosságokat és azonosítsák a megfelelő intézkedéseket a kockázatok mérséklésére.
  • Az AI kormányzati használatának támogatása. Mivel sok kormány határozza meg saját stratégiáját a mesterséges intelligencia ügynökségeken és rendszereken belüli használatára vonatkozóan, a keretrendszer felhasználható a megfelelő kockázati küszöbök meghatározására, valamint a kulcsfontosságú érdekelt felek és felelősségi körök azonosítására.
  • A közbeszéd támogatása, valamint a mesterséges intelligencia felhasználási módjára és a mögöttes adatokra vonatkozó társadalmi engedélyek létrehozása, amelyeket a kormányzati szolgáltatásokban vagy tágabb értelemben a társadalomban felhasználnak.

A továbbjutás
Összefoglalva, az elemzési keret egy olyan eszköztár alapja, amelyet az érintettek használhatnak arra, hogy átfogóan és szisztematikusan áttekintsék a platformok vagy a használat jelentős fejlesztéseit. Az ebben a keretben bemutatott dimenziók a technológiaértékeléstől a közpolitikáig, az emberi fejlődéstől a szociológiáig, valamint a jövő- és technológiatanulmányokig relevánsak. Bár ezt az analitikai keretet mesterséges intelligencia számára fejlesztették ki, sokkal szélesebb körben alkalmazható bármely más feltörekvő technológia esetében.

6 UN AI Tanácsadó Testület. 2023. Időközi jelentés: Governing AI for Humanity. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd

Köszönetnyilvánítás

Sok emberrel konzultáltak és adtak visszajelzést mind a kezdeti vitaanyag kidolgozása során, mind a megjelenést követő visszajelzések során. Mindkét tanulmányt Sir Peter Gluckman, az ISC elnöke és Hema Sridhar, az új-zélandi védelmi minisztérium korábbi tudományos főtanácsadója, jelenleg pedig az új-zélandi Aucklandi Egyetem tudományos főmunkatársa készítette.

Különösen az ISC Lord Martin Rees, a Royal Society volt elnöke és a Cambridge-i Egyetem Egzisztenciális Kockázatok Tanulmányozó Központjának társalapítója; Shivaji Sondhi professzor, fizikaprofesszor, Oxfordi Egyetem; K Vijay Raghavan professzor, az indiai kormány korábbi tudományos főtanácsadója; Amandeep Singh Gill, az ENSZ főtitkárának technológiai megbízottja; Seán Ó hÉigeartaigh, ügyvezető igazgató, Center for the Study of the Study of Existencial Risks, University of Cambridge; Sir David Spiegelhalter, Winton professzor, a kockázatok nyilvános megértése, Egyetem
Cambridge; Amanda-June Brawner, vezető politikai tanácsadó és Ian Wiggins, nemzetközi ügyekért felelős igazgató, Royal Society, Egyesült Királyság; Dr. Jerome Duberry, ügyvezető igazgató és Dr. Marie-Laure Salles, igazgató, Genfi Graduate Institute; Chor Pharn Lee, Stratégiai Jövők Központja, Miniszterelnöki Hivatal, Szingapúr; Barend Mons és Dr. Simon Hodson, az Adatügyi Bizottság (CoDATA); Yuko Harayama professzor, a RIKEN korábbi ügyvezető igazgatója; Egyetemi tanár
Rémi Quirion, elnök, INGSA; Dr. Claire Craig, az Oxfordi Egyetem és a Tudományos Kormányhivatal korábbi előrejelzési vezetője; Yoshua Bengio professzor, az ENSZ főtitkárának tudományos tanácsadó testülete és az Université de Montréal; és sokan mások, akik visszajelzést adtak az ISC-nek a kezdeti vitaanyagról.


További olvasnivaló

A nemzeti kutatási ökoszisztémák előkészítése a mesterséges intelligencia számára: stratégiák és előrehaladás 2024-ben

Az ISC agytrösztjének, a Center for Science Futuresnak ez a munkadokumentuma alapvető információkat és forrásokhoz való hozzáférést biztosít a világ minden részéből származó országokból a mesterséges intelligencia kutatási ökoszisztémáiba való integrálásának különböző szakaszaiban.

Ugrás a tartalomra