A mesterséges intelligencia fegyveresítése



<div _ngcontent-c14 = "" internalhtml = "

Az autonóm fegyverrendszerek felemelkedésének valóságaNőtt a CogWorld

Bevezetés

A technológiai fejlődés patkányverseny lett. A feltörekvő technológiai verseny és a futurisztikus harci harctér versenyében a mesterséges intelligencia (AI) a globális hatalmi játék középpontjává válik. Mint sok országban láttuk, az autonóm fegyverrendszer (AWS) fejlesztése gyorsan halad, és a mesterséges intelligencia fegyveresítésének növekedése erősen destabilizáló fejlődéssé vált. Ez bonyolult biztonsági kihívásokat jelent az egyes nemzetek döntéshozóinak, de az emberiség jövőjének is.

A mai valóság az, hogy a mesterséges intelligencia egy olyan új algoritmikus hadviselési mező felé vezet, amely nem rendelkezik határokkal vagy határokkal, vagy lehet, hogy nem rendelkezik az emberekkel, és lehetetlen lesz megérteni és talán az emberi ökoszisztémán keresztül ellenőrizni a kibertérben, a térben és a térben. (CGS). Ennek eredményeképpen a mesterséges intelligencia fegyveresítésének ötlete, ahol egy fegyverrendszer, amely a CGS-en keresztül aktiválva emberi és nem humán célokat képes kiválasztani és befogadni anélkül, hogy egy emberi tervező vagy üzemeltető további beavatkozása lenne, nagy félelmet okoz.

Bármilyen intelligens gép vagy gépi intelligencia gondolata, hogy képes legyen bármilyen előrejelzett hadviselési feladatot végrehajtani anélkül, hogy emberi beavatkozás és beavatkozás lenne – csak a beágyazott szenzorok kölcsönhatását, a számítógépes programozást és az emberi környezet és az ökoszisztéma algoritmusait használva. valósággá válik amit már nem lehet figyelmen kívül hagyni.

A mesterséges intelligencia fegyveresítése

Mivel az AI, a gépi tanulás és a mélyreható tanulás tovább fejlődik és a koncepciótól a kereskedelmi forgalomig terjed, a számítási teljesítmény, a memória, a nagy adatok és a nagy sebességű kommunikáció gyors gyorsulása nemcsak az innovációt, a beruházásokat és az alkalmazási őrületet teremti meg, hanem fokozza a küldetést AI chipek esetén. Ez folyamatos gyors fejlődés és fejlődés jelzi, hogy a mesterséges intelligencia úton van a hadviselés forradalmasításában, és hogy a nemzetek kétségkívül tovább fogják fejleszteni az automatizált fegyverrendszert, amelyet az AI lehetővé fog tenni.

Amikor a nemzetek egyénileg és kollektíven felgyorsítják erőfeszítéseiket a tudományos és technológiai versenyelőny megszerzésére, az AI további fegyverezése elkerülhetetlen. Ennek megfelelően szükség van arra, hogy megjelenítsük, mit fog kinézni egy holnapi algoritmikus háború, mert az autonóm fegyverrendszerek építése egy dolog, de más országokkal és más emberekkel szembeni algoritmikus hadviselésben való használata.

A jelentések szerint már kialakult A CGS-ben a háborúk elleni küzdelem egyre több aspektusát támogató komplex algoritmikus rendszerek, az igazság az, hogy az AI commoditization most valóság. A kibertérben látható, hogy az automatizált hadviselés (cyberwarfare) rendelkezik már megkezdődött – ahol bárki és mindenki célpont. Szóval, mi a következő, a geo-hadviselés és az űrháború? És ki és mi lesz a cél?

Az AI fegyverek gyors fejlődése nyilvánvaló az egész területen: navigálás és a pilóta nélküli haditengerészet használata, légi és terepjáró járművek, biztosíték-kár becslésekkel, „tűz-elfelejt” rakétarendszerek telepítése és helyhez kötött rendszerek használatával automatizálják mindent a személyzeti rendszerektől és a berendezések karbantartásától a felügyeleti drónok, robotok és több példa. Tehát, amikor az algoritmusok egyre több szempontból támogatják a háborút, fontos kérdés merül fel: milyen engedélyezhető, korlátozott és tiltott az AI ma és holnapi háborúja?

Míg az Autonóm Fegyverek Rendszerei úgy vélik, hogy lehetőséget nyújtanak a fegyverrendszer működési költségeinek csökkentésére – különösen a munkaerő hatékonyabb felhasználásával -, és valószínűleg lehetővé teszik a fegyverrendszerek nagyobb sebesség, pontosság, tartósság, pontosság, elérhetőség és koordináció elérését. a CGS csatatér, a technológiai, jogi, gazdasági, társadalmi és biztonsági kérdések megértésének és értékelésének szükségessége továbbra is fennáll.

A programozók és a programozás szerepe

A bonyolult biztonsági kihívások és az ismeretlenek tengeri útja közepette az emberi faj biztonsága és biztonsága továbbra is a programozók és a programozás szerepe, valamint a félvezető chipek integritása. Ennek oka az, hogy a programozók meghatározhatják és meghatározhatják az AWS jellegét (legalábbis az elején), amíg az AI el nem kezd programozni.

Azonban, ha és amikor egy programozó, aki szándékosan vagy véletlenül programoz egy önálló fegyvert a jelenlegi és jövőbeni nemzetközi humanitárius jog megsértésével, hogyan ellenőrzi az emberek az AI fegyverzetét? Továbbá, mivel az AWS a szoftverekre összpontosít, ahol a hibákért és az AWS rendszerek tervezéséért és használatáért felelősséget kell vállalnia? Ez vezet a kérdés középpontjához – mikor és ha egy autonóm rendszer megöli, aki felelős a gyilkosságért, függetlenül attól, hogy indokolt-e vagy sem?

Kiberbiztonsági kihívások

Röviden, az algoritmusok semmiképpen sem biztonságosak, és nem is ellenállnak a hibáknak, rosszindulatú programoknak, torzításoknak és manipulációnak. És mivel a gépi tanulás olyan gépeket használ, amelyek más gépeket képeznek, mi történik, ha rosszindulatú program vagy manipuláció történik a képzési adatokkal? Bár a biztonsági kockázatok mindenhol megtalálhatók, a csatlakoztatott eszközök növelik a távoli biztonsági helyzetek távoli helyszíneken való megsértését, és mivel a kód átlátszatlan, a biztonság nagyon összetett. Tehát, amikor az AI más AI-vel háborút folytat (függetlenül attól, hogy ez kiberbiztonsági, geo-biztonsági vagy űrbiztonsági), a folyamatban lévő kiberbiztonsági kihívások monumentális kockázatot jelentenek az emberiség jövőjére és az emberi ökoszisztémára a CGS-ben.

Jóllehet az autonóm fegyverrendszerek itt maradnak, mindannyian egyedileg és kollektíven válaszolni kell arra, hogy a mesterséges intelligencia meghajtja és meghatározza az emberi túlélésre és biztonságra vonatkozó stratégiát, vagy mi?

Elismerve ezt a feltörekvő valóságot, a Risk Group kezdeményezte az autonóm fegyverrendszerekről szükséges vitát Markus Wagnerrel, az ausztráliai Wollongongi Egyetem szerzőjével és jogtanácsadójával.

Közzététel: A kockázatcsoport LLC az én cégem

A Risk Group az Autonóm Fegyverek Rendszerét és a törvényt tárgyalja Markus Wagnerrel, a Wollongongi Egyetemen, a Risk Roundup-nál alapított, publikált szerzővel és jogi docenssel.

Mi a következő lépés?

Mivel a nemzetek egyénileg és kollektíven felgyorsítják erőfeszítéseiket a tudomány és a technológia versenyelőnyének megszerzésére, az AI további fegyverezése elkerülhetetlen. Ennek eredményeképpen az AWS elhelyezése megváltoztatná az emberi jelentést, és a bizonytalan feltételek között nem változtatná meg a biztonság alapjait és az emberiség és a béke jövőjét.

Fontos megérteni és értékelni, hogy nem lehet-e megakadályozni az autonóm fegyverkezési versenyt, ami tévedhet. Itt az ideje, hogy elismerjük azt a tényt, hogy egyszerűen azért, mert a technológia lehetővé teszi az AWS sikeres fejlődését, nem jelenti azt, hogy mi kellene. Talán nem az emberiség érdeke a mesterséges intelligencia fegyverezése! Itt az ideje a szünetnek.

„>

Az autonóm fegyverrendszerek felemelkedésének valóságaNőtt a CogWorld

Bevezetés

A technológiai fejlődés patkányverseny lett. A feltörekvő technológiai verseny és a futurisztikus harci harctér versenyében a mesterséges intelligencia (AI) a globális hatalmi játék középpontjává válik. Mint sok országban láttuk, az autonóm fegyverrendszer (AWS) fejlesztése gyorsan halad, és a mesterséges intelligencia fegyveresítésének növekedése erősen destabilizáló fejlődéssé vált. Ez bonyolult biztonsági kihívásokat jelent az egyes nemzetek döntéshozóinak, de az emberiség jövőjének is.

A mai valóság az, hogy a mesterséges intelligencia egy olyan új algoritmikus hadviselési mező felé vezet, amely nem rendelkezik határokkal vagy határokkal, vagy lehet, hogy nem rendelkezik az emberekkel, és lehetetlen lesz megérteni és talán az emberi ökoszisztémán keresztül ellenőrizni a kibertérben, a térben és a térben. (CGS). Ennek eredményeképpen a mesterséges intelligencia fegyveresítésének ötlete, ahol egy fegyverrendszer, amely a CGS-en keresztül aktiválva emberi és nem humán célokat képes kiválasztani és befogadni anélkül, hogy egy emberi tervező vagy üzemeltető további beavatkozása lenne, nagy félelmet okoz.

Bármilyen intelligens gép vagy gépi intelligencia gondolata, hogy képes legyen bármilyen előrejelzett hadviselési feladatot végrehajtani anélkül, hogy emberi beavatkozás és beavatkozás lenne – csak a beágyazott szenzorok kölcsönhatását, a számítógépes programozást és az emberi környezet és az ökoszisztéma algoritmusait használva. valósággá válik amit már nem lehet figyelmen kívül hagyni.

A mesterséges intelligencia fegyveresítése

Mivel az AI, a gépi tanulás és a mélyreható tanulás tovább fejlődik és a koncepciótól a kereskedelmi forgalomig terjed, a számítási teljesítmény, a memória, a nagy adatok és a nagy sebességű kommunikáció gyors gyorsulása nemcsak az innovációt, a beruházásokat és az alkalmazási őrületet teremti meg, hanem fokozza a küldetést AI chipek esetén. Ez folyamatos gyors fejlődés és fejlődés jelzi, hogy a mesterséges intelligencia úton van a hadviselés forradalmasításában, és hogy a nemzetek kétségkívül tovább fogják fejleszteni az automatizált fegyverrendszert, amelyet az AI lehetővé fog tenni.

Amikor a nemzetek egyénileg és kollektíven felgyorsítják erőfeszítéseiket a tudományos és technológiai versenyelőny megszerzésére, az AI további fegyverezése elkerülhetetlen. Ennek megfelelően szükség van arra, hogy megjelenítsük, mit fog kinézni egy holnapi algoritmikus háború, mert az autonóm fegyverrendszerek építése egy dolog, de más országokkal és más emberekkel szembeni algoritmikus hadviselésben való használata.

A jelentések szerint már kialakult A CGS-ben a háborúk elleni küzdelem egyre több aspektusát támogató komplex algoritmikus rendszerek, az igazság az, hogy az AI commoditization most valóság. A kibertérben látható, hogy az automatizált hadviselés (cyberwarfare) rendelkezik már megkezdődött – ahol bárki és mindenki célpont. Szóval, mi a következő, a geo-hadviselés és az űrháború? És ki és mi lesz a cél?

Az AI fegyverek gyors fejlődése nyilvánvaló az egész területen: navigálás és a pilóta nélküli haditengerészet használata, légi és terepjáró járművek, amelyek biztosíték-kár becsléseket t „tűz-elfelejt” rakétarendszerek telepítése és helyhez kötött rendszerek használatával automatizálják mindent a személyzeti rendszerektől és a berendezések karbantartásától a felügyeleti drónok, robotok és több példa. Tehát, amikor az algoritmusok egyre több szempontból támogatják a háborút, fontos kérdés merül fel: milyen engedélyezhető, korlátozott és tiltott az AI ma és holnapi háborúja?

Míg az Autonóm Fegyverek Rendszerei úgy vélik, hogy lehetőséget nyújtanak a fegyverrendszer működési költségeinek csökkentésére – különösen a munkaerő hatékonyabb felhasználásával -, és valószínűleg lehetővé teszik a fegyverrendszerek nagyobb sebesség, pontosság, tartósság, pontosság, elérhetőség és koordináció elérését. a CGS csatatér, a technológiai, jogi, gazdasági, társadalmi és biztonsági kérdések megértésének és értékelésének szükségessége továbbra is fennáll.

A programozók és a programozás szerepe

A bonyolult biztonsági kihívások és az ismeretlenek tengeri útja közepette az emberi faj biztonsága és biztonsága továbbra is a programozók és a programozás szerepe, valamint a félvezető chipek integritása. Ennek oka az, hogy a programozók meghatározhatják és meghatározhatják az AWS jellegét (legalábbis az elején), amíg az AI el nem kezd programozni.

Azonban, ha és amikor egy programozó, aki szándékosan vagy véletlenül programoz egy önálló fegyvert a jelenlegi és jövőbeni nemzetközi humanitárius jog megsértésével, hogyan ellenőrzi az emberek az AI fegyverzetét? Továbbá, mivel az AWS a szoftverekre összpontosít, ahol a hibákért és az AWS rendszerek tervezéséért és használatáért felelősséget kell vállalnia? Ez vezet a kérdés középpontjához – mikor és ha egy autonóm rendszer megöli, aki felelős a gyilkosságért, függetlenül attól, hogy indokolt-e vagy sem?

Kiberbiztonsági kihívások

Röviden, az algoritmusok semmiképpen sem biztonságosak – és nem is védettek a hibákra, rosszindulatú programokra, torzításokra és manipulációkra. És mivel a gépi tanulás olyan gépeket használ, amelyek más gépeket képeznek, mi történik, ha rosszindulatú program vagy manipuláció történik a képzési adatokkal? Bár a biztonsági kockázatok mindenhol megtalálhatók, a csatlakoztatott eszközök növelik a távoli biztonsági helyzetek távoli helyszíneken való megsértését, és mivel a kód átlátszatlan, a biztonság nagyon összetett. Tehát, amikor az AI más AI-vel háborút folytat (függetlenül attól, hogy ez kiberbiztonsági, geo-biztonsági vagy űrbiztonsági), a folyamatban lévő kiberbiztonsági kihívások monumentális kockázatot jelentenek az emberiség jövőjére és az emberi ökoszisztémára a CGS-ben.

Jóllehet az autonóm fegyverrendszerek itt maradnak, mindannyian egyedileg és kollektíven válaszolni kell arra, hogy a mesterséges intelligencia meghajtja és meghatározza az emberi túlélésre és biztonságra vonatkozó stratégiát, vagy mi?

Elismerve ezt a feltörekvő valóságot, a Risk Group kezdeményezte az autonóm fegyverrendszerekről szükséges vitát Markus Wagnerrel, az ausztráliai Wollongongi Egyetem szerzőjével és jogtanácsadójával.

Közzététel: A kockázatcsoport LLC az én cégem

A Risk Group az Autonóm Fegyverek Rendszerét és a törvényt tárgyalja Markus Wagnerrel, a Wollongongi Egyetemen, a Risk Roundup-nál alapított, publikált szerzővel és jogi docenssel.

Mi a következő lépés?

Mivel a nemzetek egyénileg és kollektíven felgyorsítják erőfeszítéseiket a tudomány és a technológia versenyelőnyének megszerzésére, az AI további fegyverezése elkerülhetetlen. Ennek eredményeképpen az AWS elhelyezése megváltoztatná az emberi jelentést, és bizonytalan értelemben megváltoztatja a biztonság alapjait és az emberiség és a béke jövőjét.

Fontos megérteni és értékelni, hogy nem lehet-e megakadályozni az autonóm fegyverkezési versenyt, ami tévedhet. Itt az ideje, hogy elismerjük azt a tényt, hogy egyszerűen azért, mert a technológia lehetővé teszi az AWS sikeres fejlődését, nem jelenti azt, hogy mi kellene. Talán nem az emberiség érdeke a mesterséges intelligencia fegyverezése! Itt az ideje a szünetnek.