Számos akadémikus és szakpolitikai szakértő javasolta, hogy a Nemzetközi Tudományos Tanács – pluralista társadalom- és természettudományi tagságával – hozzon létre egy folyamatot a kockázatok, előnyök, veszélyek és lehetőségek megjegyzésekkel ellátott keretének/ellenőrző listájának létrehozására és karbantartására. gyorsan fejlődő digitális technológiákkal, köztük – de nem kizárólagosan – a mesterséges intelligenciával kapcsolatos. Az ellenőrzőlista célja, hogy tájékoztassa az összes érdekelt felet – beleértve a kormányokat, a kereskedelmi tárgyalókat, a szabályozó hatóságokat, a civil társadalmat és az ipart – a lehetséges jövőbeli forgatókönyvekről, és meghatározza, hogyan mérlegelhetik a lehetőségeket, előnyöket, kockázatokat és egyéb kérdéseket.
Az ISC örömmel mutatja be ezt a vitaanyagot a gyorsan fejlődő digitális és kapcsolódó technológia értékeléséről. A mesterséges intelligencia, a szintetikus biológia és a kvantumtechnológiák a tudomány által ismert innováció kiváló példái, amelyek példátlan ütemben fejlődnek ki. Nehéz lehet szisztematikusan előre látni nem csak az alkalmazásukat, hanem azok következményeit is.
A generatív mesterséges intelligencia társadalmi vonatkozásainak értékelése, mint például a nagy nyelvi modellek, amelyek előre láthatóan képviselik e vitaanyag nagy részét, szükséges hidat képeznek a jelenlegi diskurzuson belül – olykor pánik vezérelte, máskor nem elég mélyreható gondolatok – és a szükséges folyamatokon belül. intézkedést tehetünk. Az ISC meg van győződve arról, hogy az ilyen új technológiák társadalmi elfogadottsága és lehetséges szabályozása közötti analitikai keretre van szükség ahhoz, hogy elősegítse a több érdekelt felekkel folytatott megbeszéléseket, amelyek ahhoz szükségesek, hogy tájékozott és felelősségteljes döntéseket hozzanak e gyorsan fejlődő technológia társadalmi előnyeinek optimalizálásával kapcsolatban.
Az ISC ezen a vitaanyagon keresztül nyitott a közösségünk reakcióira, hogy felmérje, hogyan lehet a legjobban továbbra is részt venni a technológiával kapcsolatos vitában és hozzájárulni ahhoz.
Salvatore Aricò, vezérigazgató
Az ISC vitairata
Keretrendszer a gyorsan fejlődő digitális és kapcsolódó technológiák értékeléséhez: mesterséges intelligencia, nagy nyelvi modellek és azon túl
Ez a vitaanyag felvázolja azt a kezdeti keretet, amely a mesterséges intelligencia kapcsán zajló számos globális és nemzeti megbeszélést szolgálja.
Töltse le a jelentéstÚj! Olvassa el a 2024-es verziót a politikai döntéshozók számára a szervezete számára letölthető keretrendszerrel.
Útmutató a döntéshozók számára: A gyorsan fejlődő technológiák értékelése, beleértve a mesterséges intelligenciát, a nagy nyelvi modelleket és azon túl
Ez a vitaanyag felvázolja azt a kezdeti keretet, amely a mesterséges intelligencia kapcsán zajló számos globális és nemzeti megbeszélést szolgálja.
tartalom
Bevezetés
A gyorsan fejlődő technológiák kihívást jelentenek irányításukkal és lehetséges szabályozásukkal kapcsolatban. A mesterséges intelligenciával (AI) és használatával kapcsolatos politika és nyilvános viták akut fókuszba helyezték ezeket a kérdéseket. Míg az UNESCO, az OECD és mások tágabb alapelveket hirdettek meg az MI-re vonatkozóan, és születőben vannak a megbeszélések a technológia globális vagy joghatósági szabályozásáról, ontológiai szakadék tátong a magas szintű elvek kidolgozása és a szabályozásba, politikába való beépítésük között. kormányzási és sáfársági megközelítések. Ez az, ahol a nem kormányzati tudományos közösségnek különös szerepe lehet.
Számos akadémikus és szakpolitikai szakértő javasolta, hogy a Nemzetközi Tudományos Tanács (ISC) – pluralista társadalom- és természettudományi tagságával – hozzon létre egy folyamatot a kockázatok, előnyök, a kockázatok, előnyök megjegyzésekkel ellátott keretének/ellenőrző listájának elkészítésére és karbantartására. a gyorsan változó digitális technológiákhoz kapcsolódó fenyegetéseket és lehetőségeket, beleértve – de nem kizárólagosan – a mesterséges intelligenciát. Az ellenőrzőlista célja, hogy tájékoztassa az összes érdekelt felet – beleértve a kormányokat, a kereskedelmi tárgyalókat, a szabályozó hatóságokat, a civil társadalmat és az ipart – a lehetséges jövőbeli forgatókönyvekről, és meghatározza, hogyan mérlegelhetik a lehetőségeket, előnyöket, kockázatokat és egyéb kérdéseket.
Az eredmények nem értékelő testületként, hanem adaptív és fejlődő elemzési keretként működnének, amely alátámaszthatna minden olyan értékelési és szabályozási folyamatot, amelyet az érdekelt felek, köztük a kormányok és a többoldalú rendszer kidolgozhatnak. Ideális esetben bármilyen elemzési keretet a kormányzati és iparági követelésektől függetlenül kell kidolgozni, tekintettel azok érthető érdekeire. Perspektíváit tekintve is maximálisan pluralisztikusnak kell lennie, így a technológia minden aspektusát és következményeit magában kell foglalnia.
Ez a vitaanyag felvázolja azt a kezdeti keretet, amely a mesterséges intelligencia kapcsán zajló számos globális és nemzeti megbeszélést szolgálja.
Háttér: Miért van szükség analitikai keretre?
A mesterséges intelligencia összetettségével és következményeivel együtt járó technológia gyors megjelenése számos állítást támaszt nagy előnyökkel. Ugyanakkor jelentős kockázatoktól való félelmet is gerjeszt, az egyénitől a geostratégiai szintig. A vita nagy része a nézetek spektrumának legszélső végén zajlik, ezért pragmatikusabb megközelítésre van szükség. A mesterséges intelligencia technológia tovább fog fejlődni, és a történelem azt mutatja, hogy gyakorlatilag minden technológiának van előnyös és káros haszna is. A kérdés tehát a következő: hogyan érhetünk el előnyös eredményeket ezzel a technológiával, miközben csökkentjük a káros következmények kockázatát, amelyek közül néhány egzisztenciális is lehet?
A jövő mindig bizonytalan, de elegendő hiteles és szakértő vélemény szól a mesterséges intelligencia és a generatív mesterséges intelligencia tekintetében ahhoz, hogy a viszonylag óvatos megközelítést ösztönözze. Ezenkívül rendszerszemléletű megközelítésre van szükség, mivel a mesterséges intelligencia a technológiák egy osztálya, amelyet széles körben használnak és alkalmaznak többféle felhasználó. Ez azt jelenti, hogy a teljes kontextust figyelembe kell venni a mesterséges intelligenciának az egyénekre, a társadalmi életre, a civil életre, a társadalmi életre és a globális kontextusra gyakorolt hatásainak mérlegelésekor.
A legtöbb korábbi technológiától eltérően a digitális és a kapcsolódó technológiáknak nagyon rövid idő telik el a fejlesztéstől a megjelenésig, amelyet nagyrészt a gyártó cégek vagy ügynökségek érdekei vezérelnek. Az AI gyorsan terjed; egyes tulajdonságok csak a megjelenés után válhatnak nyilvánvalóvá, és a technológiának rossz és jóindulatú alkalmazásai is lehetnek. A fontos értékek dimenziói befolyásolják a felhasználás megítélését. Ezenkívül geostratégiai érdekek is szerepet játszhatnak.
A virtuális technológia szabályozását a mai napig nagyrészt az „elvek” és az önkéntes megfelelés szemüvegén keresztül látták. A közelmúltban azonban a vita a nemzeti és többoldalú kormányzás kérdései felé fordult, beleértve a szabályozási és egyéb politikai eszközök alkalmazását. A mesterséges intelligencia mellett vagy ellen megfogalmazott állítások gyakran hiperbolikusak, és – a technológia természetéből adódóan – nehezen értékelhetők. Hatékony globális vagy nemzeti technológiai szabályozási rendszer felállítása kihívást jelent, és a kockázatokon alapuló döntéshozatal több rétegére lesz szükség a lánc mentén, a feltalálótól a gyártóig, a felhasználóig, a kormányzatig és a multilaterális rendszerig.
Míg többek között az UNESCO, az OECD és az Európai Bizottság magas szintű elveket hirdetett meg, és különböző magas szintű megbeszélések folynak a lehetséges szabályozási kérdésekről, nagy ontológiai szakadék tátong ezen elvek és az irányítási vagy szabályozási keret között. Mi a megfontolások taxonómiája, amelyet a szabályozónak figyelembe kell vennie? A szűken fókuszált keretezés nem lenne bölcs dolog, tekintettel e technológiák széles körű vonatkozásaira. Ez a lehetőség sok kommentár tárgya volt, pozitív és negatív egyaránt.
Analitikai keretrendszer kialakítása
Az ISC a természet- és társadalomtudományokat integráló elsődleges globális civil szervezet. Globális és diszciplináris hatóköre azt jelenti, hogy jó helyzetben van ahhoz, hogy független és globálisan releváns tanácsokat adjon az előttünk álló összetett döntések meghozatalához, különösen mivel ezen a területen a jelenlegi hangok nagyrészt az ipartól vagy a fő technológiai hatalmaktól származnak. Az elmúlt hónapok kiterjedt vitáját követően, beleértve egy nem kormányzati értékelési folyamat megfontolását, az ISC arra a következtetésre jutott, hogy a leghasznosabb hozzájárulása egy olyan adaptív elemzési keret létrehozása és fenntartása lenne, amely a diskurzus és a döntéshozatal alapjaként használható. minden érdekelt fél, beleértve a felmerülő formális értékelési folyamatokat is.
Ez a keret egy átfogó ellenőrző lista formájában valósulna meg, amelyet mind kormányzati, mind nem kormányzati intézmények használhatnának. A keretrendszer azonosítja és feltárja az olyan technológiákban rejlő lehetőségeket, mint a mesterséges intelligencia és származékai, egy széles lencsén keresztül, amely magában foglalja az emberi és társadalmi jólétet, valamint olyan külső tényezőket, mint a gazdaság, a politika, a környezet és a biztonság. Az ellenőrzőlista egyes szempontjai relevánsabbak lehetnek, mint mások, a kontextustól függően, de jobb döntések valószínűbbek, ha minden területet figyelembe veszünk. Ez az ellenőrzőlista megközelítés velejárója.
A javasolt keretrendszer a korábbi munkából és gondolkodásból származik, beleértve a Kormányzati Tudományos Tanácsok Nemzetközi Hálózatának (INGSA) digitális jóléti jelentését.1 és az OECD AI osztályozási keretrendszere2 bemutatni a mesterséges intelligencia lehetséges lehetőségeinek, kockázatainak és hatásainak összességét. Ezeknek a korábbi termékeknek az idejük és a kontextusuk miatt a szándékuk korlátozottabb volt, szükség van egy átfogó keretrendszerre, amely rövid és hosszabb távon egyaránt bemutatja a problémák teljes körét.
Bár az AI figyelembevételére fejlesztették ki, ez az elemzési keret bármely gyorsan fejlődő technológiára alkalmazható. A kérdések nagy vonalakban a következő kategóriákba sorolhatók további vizsgálat céljából:
A felsorolt szempontok listája a fenti kategóriák mindegyikéhez, valamint azok lehetőségei és következményei szerepelnek. Egyesek a mesterséges intelligencia adott esetei vagy alkalmazásai szempontjából relevánsak, míg mások általánosak és nem ismerik a platformot vagy a felhasználást. Egyetlen itt szereplő szempontot sem szabad prioritásként kezelni, és mint ilyet, mindegyiket meg kell vizsgálni.
Hogyan lehetne ezt a keretet használni?
Ez a keretrendszer a következő módokon használható, de nem kizárólagosan:
Az alábbi táblázat egy analitikai keretrendszer dimenzióinak korai kialakítását mutatja be. A technológiától és annak használatától függően egyes összetevők relevánsabbak lesznek, mint mások. A példák bemutatják, miért lehetnek fontosak az egyes tartományok; összefüggésben a keret kontextus szempontjából releváns bővítést igényelne. Szintén fontos különbséget tenni a platformfejlesztések és az egyes alkalmazások során felmerülő általános problémák között.
Az új technológia értékelésekor figyelembe veendő méretek
A méretek kezdeti vázlata, amelyeket esetleg figyelembe kell venni egy új technológia értékelésekor | ||
A hatás méretei | Kritériumai | Példák arra, hogy ez hogyan tükröződhet az elemzésben |
Egyén/én | A felhasználók AI-kompetenciája | Mennyire kompetensek és mennyire ismerik a rendszer tulajdonságait azok a valószínű felhasználók, akik interakcióba lépnek a rendszerrel? Hogyan kapják meg a vonatkozó felhasználói információkat és figyelmeztetéseket? |
Érintett érintettek | Kik azok az elsődleges érintettek, akikre hatással lesz a rendszer (azaz egyének, közösségek, kiszolgáltatottak, ágazati dolgozók, gyerekek, döntéshozók, szakemberek)? | |
Opcionális | Lehetőségük van-e a felhasználóknak a rendszerből való leiratkozásra; lehetőséget kell adni nekik a kimenet megkérdőjelezésére vagy kijavítására? | |
Az emberi jogok és a demokratikus értékek veszélyeztetése | A rendszer hatással lehet-e (és milyen irányban) az emberi jogokra, beleértve, de nem kizárólagosan a magánélet védelmét, a szólásszabadságot, a méltányosságot, a diszkrimináció kockázatát stb.? | |
Lehetséges hatások az emberek jólétére | A rendszer hatással lehet (és milyen irányban) az egyéni felhasználó jólétére (azaz a munka minőségére, az oktatásra, a társadalmi interakciókra, a mentális egészségre, az identitásra, a környezetre)? | |
Az emberi munkaerő kiszorításának lehetősége | Van-e lehetőség arra, hogy a rendszer automatizálja az emberek által végrehajtott feladatokat vagy funkciókat? Ha igen, milyen következményekkel jár ez? | |
Az identitás, az értékek vagy a tudás manipulálásának lehetősége | A rendszert úgy tervezték, hogy manipulálja a felhasználó identitását vagy értékkészletét, vagy dezinformációt terjesszen? Lehetséges-e hamis vagy ellenőrizhetetlen szakértelem állítás? | |
Az önértékelés mértéke | Van-e nyomás egy idealizált én ábrázolására? Az automatizálás helyettesítheti a személyes kiteljesedés érzését? Van nyomás a rendszerrel való versenyre a munkahelyen? Nehezebbé válik az egyéni hírnév védelme a dezinformációval szemben? | |
Adatvédelem | Vannak-e szétszórt felelősségek a magánélet védelmében, és vannak-e feltételezések a személyes adatok felhasználásával kapcsolatban? | |
Autonómia | Befolyásolhatja-e a rendszer az emberi autonómiát azáltal, hogy a végfelhasználók túlzott mértékben támaszkodnak a technológiára? | |
Az emberi fejlődés | Van-e hatással az emberi fejlődés kulcsfontosságú készségeinek elsajátítására, mint például a végrehajtó funkciók, az interperszonális készségek, a tanulási idő változásai, a személyiségfejlődés, a mentális egészségügyi problémák stb.? | |
Személyes egészségügyi ellátás | Vannak igények személyre szabott egészségügyi megoldásokra? Ha igen, érvényesek-e a szabályozási szabványok szerint? | |
Mentális egészség | Fennáll-e a fokozott szorongás, magány vagy más mentális egészségügyi problémák kockázata, vagy a technológia mérsékelheti ezeket a hatásokat? | |
Az emberi evolúció | Vajon a technológia változásokhoz vezethet az emberi evolúcióban? | |
A hatás méretei | Kritériumai | Leírás |
Társadalom/társadalmi élet | Társadalmi értékek | Alapvetően megváltoztatja-e a rendszer a társadalom természetét, vagy lehetővé teszi-e a korábban antiszociálisnak tartott eszmék normalizálását, vagy sérti annak a kultúrának a társadalmi értékeit, amelyben alkalmazzák? |
Szociális interakció | Van-e hatása az értelmes emberi kapcsolatokra, beleértve az érzelmi kapcsolatokat is? | |
Méltányosság | Valószínűleg az alkalmazás/technológia csökkenti vagy fokozza az egyenlőtlenségeket (pl. gazdasági, társadalmi, oktatási, földrajzi)? | |
A lakosság egészsége | Van-e lehetőség arra, hogy a rendszer előmozdítsa vagy aláássa a lakosság egészségügyi szándékait? | |
Kulturális kifejezés | Valószínűleg vagy nehezebben kezelhető-e a kulturális kisajátítás vagy diszkrimináció növekedése? A döntéshozatali rendszerre való támaszkodás potenciálisan kizárja vagy marginalizálja a társadalom egyes részeit? | |
Közoktatás | Van ennek hatása a tanári szerepekre vagy az oktatási intézményekre? Hangsúlyozza vagy csökkenti a rendszer a diákok közötti egyenlőtlenséget és a digitális megosztottságot? Előrehaladott vagy aláásott-e a tudás vagy a kritikai megértés belső értéke? | |
Eltorzult valóságok | Továbbra is alkalmazhatóak azok a módszerek, amelyeket annak megállapítására használunk, hogy mi igaz? A valóság érzékelése sérül? | |
Gazdasági környezet (kereskedelem) | Ipari szektor | Melyik ipari szektorban alkalmazzák a rendszert (pl. pénzügy, mezőgazdaság, egészségügy, oktatás, védelem)? |
Üzleti modell | Milyen üzleti funkcióban és milyen minőségben alkalmazzák a rendszert? Hol használják a rendszert (magán, állami, nonprofit)? | |
Hatás a kritikus tevékenységekre | A rendszer működésének vagy tevékenységének megszakadása hatással lenne az alapvető szolgáltatásokra vagy a kritikus infrastruktúrákra? | |
A bevetés lélegzete | Hogyan kerül bevezetésre a rendszer (szűk egy szervezeten belül, szemben az országos/nemzetközi elterjedtséggel)? | |
Technikai érettség (TRL) | Mennyire érett műszakilag a rendszer? | |
Technológiai szuverenitás | A technológia ösztönzi-e a technológiai szuverenitás nagyobb koncentrációját? | |
Jövedelem-újraelosztás és nemzeti költségvetési eszközök | Sérülhetnek-e a szuverén állam alapvető szerepei (azaz a tartalékbankok)? Javul vagy csökken az állam azon képessége, hogy megfeleljen az állampolgárok elvárásainak és következményeinek (azaz társadalmi, gazdasági, politikai)? | |
A hatás méretei | Kritériumai | Leírás |
Polgári élet | Kormányzás és közszolgálat | Lehetséges, hogy az irányítási mechanizmusok és a globális kormányzási rendszerek pozitívan vagy negatívan befolyásolhatók? |
Hírek média | Valószínűleg a közbeszéd többé-kevésbé polarizálódik és megrögzül a lakosság szintjén? Ez hatással lesz a médiába vetett bizalom szintjére? Tovább érinti a hagyományos újságírás etikáját és feddhetetlenségi normáit? | |
Jogállamiság | Ez hatással lesz a felelősségre vonandó személyek vagy szervezetek azonosításának képességére (azaz milyen elszámoltathatóságot kell rendelni egy algoritmushoz a kedvezőtlen következményekért)? Ez a szuverenitás (azaz környezetvédelmi, fiskális, szociálpolitikai, etikai) elvesztéséhez vezet? | |
Politika és társadalmi kohézió | Van-e lehetőség szilárdabb politikai nézetekre és kevesebb lehetőség a konszenzus kialakítására? Van-e lehetőség a csoportok további marginalizálására? Többé vagy kevésbé valószínűvé teszik a politika ellenséges stílusát? | |
Geo-stratégiai/geopolitikai kontextus | Precíziós megfigyelés | A rendszerek az egyéni viselkedési és biológiai adatokra vannak kiképezve, és ha igen, felhasználhatók-e egyének vagy csoportok kizsákmányolására? |
Digitális gyarmatosítás | Képesek-e az állami vagy nem állami szereplők a rendszereket és az adatokat felhasználni más országok populációinak és ökoszisztémáinak megértésére és ellenőrzésére, vagy a joghatósági ellenőrzés aláásására? | |
Geopolitikai verseny | Befolyásolja-e a rendszer a nemzetek és a technológiai platformok közötti versenyt az egyéni és kollektív adatokhoz gazdasági vagy stratégiai célból való hozzáférésért? | |
Kereskedelmi és kereskedelmi megállapodások | Van-e a rendszernek kihatása a nemzetközi kereskedelmi megállapodásokra? | |
Változás a globális hatalmakban | Veszélyben van a nemzetállamok, mint a világ elsődleges geopolitikai szereplőinek státusza? A technológiai vállalatok a nemzetállamok számára fenntartott hatalmat fogják használni, és független szuverén szereplőkké válnak? | |
hamis információ | Könnyebb-e az állami és nem állami szereplőknek olyan dezinformációt előállítani és terjeszteni, amely hatással van a társadalmi kohézióra, a bizalomra és a demokráciára? | |
Környezeti | Energia- és erőforrás-fogyasztás (karbonlábnyom) | A rendszer és a követelmények növelik-e az energia- és erőforrás-felhasználást az alkalmazással elért hatékonyságnövekedésen felül? |
A hatás méretei | Kritériumai | Leírás |
Adatok és bevitel | Észlelés és begyűjtés | Az adatokat és a bemenetet emberek, automatizált érzékelők vagy mindkettő gyűjti? |
Az adatok származása | Az adatok tekintetében ezek szolgáltattak, megfigyeltek, szintetikusak vagy származtatottak? Léteznek vízjel védelem a származás megerősítésére? | |
Az adatok dinamikus jellege | Az adatok dinamikusak, statikusak, időről időre frissülnek vagy valós időben frissülnek? | |
Jogok | Az adatok védettek, nyilvánosak vagy személyesek (azaz azonosítható személyekhez kapcsolódnak)? | |
Személyes adatok azonosíthatósága | Ha személyes adat, akkor anonimizálják vagy álnevek? | |
Az adatok szerkezete | Az adatok strukturáltak, félig strukturáltak, összetett szerkezetűek vagy strukturálatlanok? | |
Az adatok formátuma | Az adatok és metaadatok formátuma szabványos vagy nem szabványos? | |
Az adatok léptéke | Mi az adatkészlet léptéke? | |
Az adatok megfelelősége és minősége | Az adatkészlet megfelel a célnak? Megfelelő a minta mérete? Elég reprezentatív és teljes? Mennyire zajosak az adatok? Hibára hajlamos? | |
Modell | Információ elérhetősége | Rendelkezésre állnak-e információk a rendszer modelljéről? |
Az AI modell típusa | A modell szimbolikus (ember által generált szabályok), statisztikai (adatokat használ) vagy hibrid? | |
A modellhez kapcsolódó jogok | A modell nyílt forráskódú, vagy védett, saját vagy harmadik fél által kezelt? | |
Egy vagy több modell | A rendszer egy vagy több egymással összekapcsolt modellből áll? | |
Generatív vagy diszkriminatív | A modell generatív, diszkriminatív vagy mindkettő? | |
Modellépület | A rendszer ember által írt szabályok alapján, adatokból, felügyelt tanulással vagy megerősített tanulással tanul? | |
Modellfejlődés (AI sodródás) | A modell fejlődik-e és/vagy képességekre tesz-e szert a terepen lévő adatokkal való interakcióból? | |
Összevont vagy központi tanulás | A modellt központilag vagy több helyi szerveren vagy „edge” eszközön tanítják? | |
Fejlesztés és karbantartás | A modell univerzális, testreszabható vagy az AI-szereplő adataira szabott? | |
Determinisztikus vagy valószínűségi | A modellt determinisztikus vagy valószínűségi módon használják? | |
Modell átláthatóság | Rendelkezésre állnak-e olyan információk a felhasználók számára, amelyek lehetővé teszik számukra, hogy megértsék a modell kimeneteit és korlátait, illetve a korlátozásokat? | |
Számítási korlátozás | Vannak számítási korlátai a rendszernek? Megjósolhatjuk-e a képességugrásokat vagy a skálázási törvényeket? | |
A hatás méretei | Kritériumai | Leírás |
Feladat és kimenet | Rendszer által végrehajtott feladat(ok). | Milyen feladatokat lát el a rendszer (pl. felismerés, eseményészlelés, előrejelzés)? |
Feladatok és cselekvések kombinálása | A rendszer több feladatot és műveletet kombinál (pl. tartalomgeneráló rendszerek, autonóm rendszerek, vezérlőrendszerek)? | |
A rendszer autonómiájának szintje | Mennyire önállóak a rendszer cselekvései, és milyen szerepet játszanak az emberek? | |
Az emberi részvétel mértéke | Van-e valamilyen emberi közreműködés az AI-rendszer általános tevékenységének felügyeletében, valamint annak eldöntésében, hogy mikor és hogyan használjuk a rendszert bármilyen helyzetben? | |
Alapvető alkalmazás | A rendszer olyan alapvető alkalmazási területhez tartozik, mint az emberi nyelvi technológiák, a számítógépes látás, az automatizálás és/vagy az optimalizálás vagy a robotika? | |
Értékelés | Rendelkezésre állnak-e szabványok vagy módszerek a rendszer kimenetének értékelésére vagy az előre nem látható tulajdonságok kezelésére? |
Kulcsa a leírók forrásai
Egyszerű szöveg:
Gluckman, P. és Allen, K. 2018. A jólét megértése a gyors digitális és a kapcsolódó átalakulások összefüggésében. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
Félkövér szöveg:
OECD. 2022. OECD keretrendszer a mesterséges intelligencia rendszerek osztályozására. OECD Digital Economy Papers, No. 323, OECD Publishing, Paris. https://oecd.ai/en/classification
Dőlt szöveg:
Új leírók (több forrásból)
A továbbjutás
Az erre a vitaanyagra adott választól függően az ISC szakértői munkacsoportot hozna létre a fenti elemzési keret továbbfejlesztésére vagy módosítására, amelyen keresztül az érintettek átfogóan megvizsgálhatják a platformok vagy a felhasználási dimenziók jelentős fejlesztéseit. A munkacsoport diszciplinárisan, földrajzilag és demográfiailag sokszínű lenne, szakértelemmel a technológiaértékeléstől a közpolitikáig, az emberi fejlődéstől a szociológiáig, valamint a jövőkutatásig és technológiai tanulmányokig terjedne.
Ha részt szeretne venni ebben a vitairatban, látogasson el a következő oldalra Council.science/publications/framework-digital-technologies
Köszönetnyilvánítás
Sir Peter Gluckman, az ISC elnöke és Hema Sridhar, a Védelmi Minisztérium korábbi vezető tudósa, jelenleg pedig tudományos főmunkatársa, az Aucklandi Egyetemen, Új-Zélandon készített dokumentum kidolgozása során sok emberrel konzultáltak.
Külön köszönetet mondunk Lord Martin Rees-nek, a Royal Society korábbi elnökének és a Cambridge-i Egyetem Egzisztenciális Kockázatok Tanulmányozó Központjának társalapítójának; Shivaji Sondhi professzor, fizikaprofesszor, Oxfordi Egyetem; K Vijay Raghavan professzor, az indiai kormány korábbi tudományos főtanácsadója; Amandeep Singh Gill, az ENSZ-főtitkár technológiai megbízottja; Dr. Seán Óh Éigeartaigh, a Cambridge-i Egyetem Egzisztenciális Kockázatok Tanulmányozó Központjának ügyvezető igazgatója; Amanda-June Brawner, vezető politikai tanácsadó és Ian Wiggins, a Royal Society UK nemzetközi ügyekért felelős igazgatója; Dr. Jerome Duberry, Dr. Marie-Laure Salles, igazgató, Genfi Graduate Institute; Chor Pharn Lee, Stratégiai Jövők Központja, Miniszterelnöki Hivatal, Szingapúr; Barend Mons és Dr. Simon Hodson, az Adatügyi Bizottság (CoDATA); Yuko Harayama professzor, Japán; Rémi Quirion professzor, elnök, INGSA; Dr. Claire Craig, az Oxfordi Egyetem és a Tudományos Kormányhivatal korábbi előrejelzési vezetője; és Yoshua Bengio professzor, az ENSZ főtitkárának tudományos tanácsadó testülete és az Université de Montréal. Az ellenőrzőlista megközelítést általában támogatták, és hangsúlyozták az ISC bármely intézkedésének időszerűségét.
Kép: adamichi az iStock-on