A Google és a Microsoft figyelmeztet arra, hogy az AI megteheti a Dumb Things-t


A Google vezérigazgatója, Sundar Pichai a múlt héten jó híreket hozott a befektetőknek az anyavállalat Alphabet jövedelemkérelméről. Az ábécé 39,3 milliárd dolláros bevételt jelentett az elmúlt negyedévben, ami 22 százalékkal több, mint egy évvel korábban. Pichai adta a hitelt a Google gépi tanulási technológiájának, mondván, hogy kitalálta, hogyan lehet jobban illeszkedni a hirdetésekhez a fogyasztók által kívántakkal.

Egy dolog, amit Pichai nem említette: az Alphabet most figyelmezteti a befektetőket, hogy ugyanaz az AI technológia etikai és jogi problémákat okozhat a vállalat üzletében. A figyelmeztetés először jelent meg az Alphabet legutóbbi éves jelentésének „Kockázati tényezők” szegmensében, amelyet az Értékpapír- és Tőzsde Bizottságnak a következő napon nyújtottak be:

„[N]A termékek és szolgáltatások, beleértve a mesterséges intelligenciát és a gépi tanulást is magukban foglaló vagy felhasználható termékeket, új vagy súlyosbíthatják a meglévő etikai, technológiai, jogi és egyéb kihívásokat, amelyek negatívan befolyásolhatják márkáinkat és termékeink és szolgáltatásaink iránti igényét, és hátrányosan befolyásolhatják bevételek és működési eredmények. ”

A vállalatoknak éves bejelentéseik kockázati tényezőit kell felhasználniuk annak érdekében, hogy a befektetők számára előre látható bajokat tegyenek közzé. Ez azt jelenti, hogy a szabad piac működni fog. Azt is biztosítja a vállalatok számára, hogy megszüntessék a kereseteket, amelyek szerint a vezetés elrejtette a lehetséges problémákat.

Nem világos, hogy az Alphabet értékpapír-ügyvédei úgy döntöttek, hogy itt az ideje, hogy figyelmeztesse a befektetőket az intelligens gépek kockázatairól. A Google visszautasította a nyilvános bejelentések kidolgozását. A vállalat 2009-ben elkezdte a közutakon saját vezetésű autók tesztelését, és több éven át kutatja az AI által felvetett etikai kérdéseket.

Az ábécé vezetője az AI kutatásban, de hat hónappal a rivális Microsoft riasztotta a befektetőket a technológia etikai kockázatairól. A Google legutóbbi bejelentésében szereplő AI-közzététel úgy néz ki, mint egy sokkal teljesebb nyelvű, leeresztett verzió, amelyet a Microsoft az elmúlt augusztusban benyújtott legutóbbi SEC-jelentésében tett közzé:

"Az AI algoritmusok hibásak lehetnek. A adathalmazok elégtelenek lehetnek, vagy torzított információkat tartalmaznak. A Microsoft vagy mások nem megfelelő vagy ellentmondásos adatgyakorlása hátrányosan befolyásolhatja az AI megoldások elfogadását. Ezek a hiányosságok alááshatják az AI alkalmazások döntéseit, előrejelzéseit vagy elemzését versenyjogi károkért, jogi felelősségért, valamint a márka- vagy

A Microsoft már évek óta mélyen befektet az AI-be, és 2016-ban bevezetett egy belső AI etikai tanácsot, amely megakadályozta, hogy egyes szerződések veszélyeztetik a technológia nem megfelelő használatát.

A Microsoft nem válaszolt a nyilvánosságra hozatali gazember AI közzétételének időpontjával kapcsolatos kérdésekre. Mind a Microsoft, mind az Alphabet kiemelkedő szerepet játszott a mesterséges intelligencia által felvetett etikai kihívásokkal kapcsolatos közelmúltbeli virágzásban. Mindketten már először tapasztalták őket.

Tavaly a kutatók azt találták, hogy a Microsoft felhő szolgáltatása sokkal kevésbé volt pontos a fekete nők nemének felismerésében, mint a fehér férfiaknál. A cég elnézést kért és azt mondta, hogy rögzítette a problémát. A Google-nál alkalmazott munkavállalói tiltakozások arra kényszerítették a vállalatot, hogy az AI-t alkalmazó Pentagon-szerződésből vezesse a felügyeleti felvételeket, és cenzúrázta saját fotószolgáltatását a majmok keresésétől kezdve, amikor egy fekete incidens után a gorillákat tévesztették.

A Microsoft és a Google új közzétételei homályosnak tűnhetnek. A SEC iratok a speciális és bőségesen alárendelt ügyvédi dialektusban írt terjesztő dokumentumok. Mindazonáltal, David Larcker, a Stanford vállalatirányítási kutatási kezdeményezésének igazgatója szerint az AI-hoz kapcsolódó kockázatok új elismeréseit valószínűleg észrevették. „Az emberek megnézik ezeket a dolgokat” – mondja.

A befektetők és a versenytársak elemzik a kockázati tényezőket, hogy megértsék, mi a vezetés elme, Larcker szerint. Sok elem olyan gyakran felsorolva – mint például a gazdasági lassulás kockázatai -, hogy többé-kevésbé értelmetlenek. A vállalatok közötti különbségek, vagy a szokatlan tételek – mint a mesterséges intelligencia által felvetett etikai kihívások – informatívabbak lehetnek.

Néhány olyan vállalat, amely a jövőt igényli, nagymértékben függ az AI-tól és a gépi tanulás nem sorolja fel az ilyen technológiák nem szándékolt hatásait a SEC-ben közzétett adatokban. Az IBM legutóbbi éves jelentésében 2017-re a vállalat azt állítja, hogy „vezeti a növekvő piacot a mesterséges intelligencia infúziós szoftvermegoldásaihoz”, miközben úttörő szerepet tölt be az „adat felelősség, az etika és az átláthatóság terén”. AI vagy gépi tanulással. Az IBM nem válaszolt a megjegyzésre. A vállalat következő éves bejelentése a következő hetekben várható.

Az Amazon, amely az AI-re támaszkodik az Alexa és a raktárrobotok területén, beleértve a hangsegédeket, a múlt hónapban benyújtott éves jelentésében megemlítette a mesterséges intelligenciát. A Google-tól és a Microsoft-tól eltérően azonban a vállalat nem hívja fel a befektetőket, hogy szórakoztassák, hogy az algoritmusok lehetnek elfogultak vagy etikátlanak. Az Amazon félelme az, hogy a kormány az üzleti szempontból kedvezőtlen szabályokat szabja a technológiára.

A „Kormányrendelet fejlődik és kedvezőtlen változások károsíthatják üzletünket” címmel az Amazon írta: „Nem világos, hogy a meglévő jogszabályok, mint például a tulajdonjog, a hamisítvány, az adatvédelem és a személyes adatvédelem vonatkoznak az internetre, e- kereskedelem, digitális tartalom, webszolgáltatások és mesterséges intelligencia technológiák és szolgáltatások. ”

Ironikus, hogy az Amazon csütörtök felkérte néhány kormányzati szabályt az arcfelismerésről, egy olyan technológiáról, amelyet a bűnüldözéshez vezetett, hivatkozva a visszaélés veszélyére. Az Amazon nem válaszolt olyan észrevételi kérelemre, hogy miért gondolja, hogy a befektetőknek tudniuk kell az AI körüli szabályozási, de nem etikai bizonytalanságokról. Ez az értékelés időben változhat.

Larcker azt mondja, hogy az új üzleti gyakorlatok és technológiák egyre fontosabbá válnak, sok vállalatnál kockázati közzétételre hajlamosak. Cybersecurity-t használnak, hogy ritka megjelenést tegyenek a SEC iratokban; most megemlítve, hogy pro forma. Az AI lehetne a következő. – Azt hiszem, ez a dolgok természetes fejlődése – mondja Larcker.


Nagyszerű WIRED történetek