Google en Microsoft waarschuwen dat AI dingen mag doen die stom zijn


Google CEO Sundar Pichai bracht goede berichten naar investeerders tijdens de winstoproep van ouderbedrijf Alphabet vorige week. Alphabet rapporteerde afgelopen kwartaal $ 39,3 miljard aan inkomsten, een stijging van 22 procent ten opzichte van een jaar eerder. Pichai gaf een deel van de eer aan de machine learning-technologie van Google en zei dat het had bedacht hoe advertenties beter konden worden afgestemd op wat consumenten wilden.

Een ding dat Pichai niet noemde: Alphabet waarschuwt beleggers nu dat dezelfde AI-technologie ethische en juridische problemen kan veroorzaken voor de bedrijfsactiviteiten. De waarschuwing verscheen voor de eerste keer in het segment "Risicofactoren" van het laatste jaarverslag van Alphabet, ingediend bij de Securities and Exchange Commission de volgende dag:

Nieuwe producten en diensten, waaronder die met kunstmatige intelligentie en machine learning, kunnen nieuwe ethische, technologische, wettelijke en andere uitdagingen met zich meebrengen of verergeren, wat een negatief effect kan hebben op onze merken en de vraag naar onze producten en diensten en een negatieve invloed kan hebben op onze inkomsten en bedrijfsresultaten.

Bedrijven moeten het risicofactorengedeelte van hun jaarlijkse aangiften gebruiken om te voorzienbare problemen aan beleggers bekend te maken. Dat zou de vrije markt moeten laten werken. Het biedt bedrijven ook een manier om processen te ontkrachten die beweren dat het management potentiële problemen heeft verborgen.

Het is niet duidelijk waarom de effectenadvocaten van Alphabet besloten dat het tijd was om beleggers te waarschuwen voor de risico's van slimme machines. Google weigerde verder uit te wijden over de openbare indieningen. Het bedrijf is begonnen met het testen van zelfrijdende auto's op de openbare weg in 2009 en publiceert al enkele jaren onderzoek naar ethische vragen die AI heeft gesteld.

Alphabet positioneert zich graag als een leider in AI-onderzoek, maar het was zes maanden achter concurrerende Microsoft om beleggers te waarschuwen voor de ethische risico's van de technologie. De AI-onthulling in Google's meest recente indiening leest als een ingekorte versie van een veel vollediger taal die Microsoft in haar meest recente jaarlijkse SEC-rapport, dat afgelopen augustus is ingediend, heeft ingediend:

AI-algoritmen kunnen gebreken vertonen. Datasets kunnen onvoldoende zijn of vooringenomen informatie bevatten. Ongepaste of controversiële gegevenspraktijken van Microsoft of anderen kunnen de acceptatie van AI-oplossingen aantasten. Deze tekortkomingen kunnen de beslissingen, voorspellingen of analyse die AI-toepassingen produceren ondermijnen, waardoor we concurrentiedruk, wettelijke aansprakelijkheid en reputatieschade ondervinden.

Microsoft investeert ook al jarenlang in AI en in 2016 introduceerde het een interne AI-ethiekraad die sommige contracten heeft geblokkeerd die als ongepast gebruik van de technologie worden beschouwd.

Microsoft heeft niet gereageerd op vragen met betrekking tot de timing van de openbaarmaking van het potentieel voor rogue AI. Zowel Microsoft als Alphabet hebben een prominente rol gespeeld in een recente bloei van bezorgdheid en onderzoek naar ethische uitdagingen die kunstmatige intelligentie heeft opgeroepen. Beiden hebben ze al uit de eerste hand ervaren.

Vorig jaar ontdekten onderzoekers dat de cloudservice van Microsoft veel minder nauwkeurig was in het detecteren van het geslacht van zwarte vrouwen dan blanke mannen in foto's. Het bedrijf verontschuldigde zich en zei dat het het probleem heeft opgelost. Medewerkersdemonstraties bij Google dwongen het bedrijf uit een Pentagon-contract om AI toe te passen op bewakingsbeelden uit de lucht, en het heeft zijn eigen Photos-dienst gecensureerd door te zoeken naar apen in gebruikersfoto's na een incident waarbij zwarte mensen werden aangezien voor gorilla's.

De nieuwe onthullingen van Microsoft en Google kunnen onduidelijk lijken. SEC-documenten zijn uitgestrekte documenten die zijn geschreven in een speciaal en uitgebreid juridisch dialect. Toch zegt David Larcker, directeur van het Corporate Governance Research Initiative van Stanford, dat de nieuwe erkenningen van de risico's van AI waarschijnlijk zijn opgemerkt. "Mensen kijken naar deze dingen", zegt hij.

Investeerders en concurrenten analyseren risicofactoren om een ​​idee te krijgen van wat er in het hoofd van het management leeft, zegt Larcker. Veel items worden zo vaak vermeld, zoals de risico's van een economische vertraging, dat ze min of meer zinloos zijn. Verschillen tussen bedrijven of ongebruikelijke items, zoals ethische uitdagingen die kunstmatige intelligentie oproept, kunnen informatief zijn.

Sommige bedrijven die beweren dat hun toekomst sterk afhankelijk is van AI en machine learning, vermelden niet de onbedoelde effecten van die technologieën in hun SEC-onthullingen. In het meest recente jaarverslag van IBM, voor 2017, beweert het bedrijf dat het "de ontluikende markt leidt voor geïnformeerde softwareoplossingen met kunstmatige intelligentie", terwijl het ook een pionier is van "gegevensverantwoordelijkheid, ethiek en transparantie." Maar de indiening was stil over risicobeheerder met AI of machine learning. IBM heeft niet gereageerd op een verzoek om commentaar. De volgende jaarlijkse aanvraag van het bedrijf moet de komende weken worden ingediend.

Amazon, dat vertrouwt op AI in gebieden zoals zijn stemassistent Alexa en magazijnrobots, heeft een vermelding van kunstmatige intelligentie toegevoegd aan de risicofactoren in zijn jaarverslag dat eerder deze maand werd ingediend. In tegenstelling tot Google en Microsoft, nodigt het bedrijf beleggers echter niet uit om zich te bezinnen op de manier waarop algoritmen vooringenomen of onethisch kunnen zijn. Amazon's angst is dat de regering bedrijfseconomische regels over de technologie zal neerslaan.

Onder het kopje "Regulering van de overheid kan evolueren en ongunstige veranderingen kunnen onze business schaden", schreef Amazon: "Het is niet duidelijk hoe bestaande wetten die zaken regelen als eigendom van eigendom, smaadheid, gegevensbescherming en persoonlijke privacy van toepassing zijn op internet, e- handel, digitale inhoud, webdiensten en kunstmatige intelligentie-technologieën en -diensten. "

Ironisch genoeg nodigde Amazon op donderdag enkele overheidsregels uit voor gezichtsherkenning, een technologie die het heeft gepoft voor wetshandhaving, daarbij verwijzend naar het gevaar van misbruik. Amazon heeft niet gereageerd op een verzoek om commentaar over waarom het denkt dat beleggers moeten weten over regelgeving, maar niet over ethische onzekerheden rond AI. Die beoordeling kan in de loop van de tijd veranderen.

Larcker zegt dat naarmate nieuwe bedrijfspraktijken en -technologieën belangrijker worden, ze bij veel bedrijven de neiging hebben om risico-informatie te verspreiden. Cybersecurity was een zeldzaam verschijnsel in SEC-deponeringen; nu vermelden is het pro forma. AI kan de volgende zijn. "Ik denk dat het een soort natuurlijke progressie van dingen is", zegt Larcker.


Meer Great WIRED Stories