Je bekijkt nu Open AI geeft toegang tot nieuw AI-model voor de VS. AI-veiligheidsinstituut
OpenAI

Open AI geeft toegang tot nieuw AI-model voor de VS. AI-veiligheidsinstituut

Sam Altman, CEO van OpenAI, zei dat OpenAI samenwerkt met het Amerikaanse AI Safety Institute, een federale overheidsinstantie die tot doel heeft de risico’s op AI-platforms te beoordelen en aan te pakken.

De samenwerking komt tot overeenstemming over vroege toegang tot het volgende AI-model voor veiligheidstests

De timing waarop OpenAI een overeenkomst bereikt met het Amerikaanse AI Safety Institute lijkt een beetje verdacht, aangezien het bedrijf eerder deze week de Future of Innovation Act heeft goedgekeurd, een wetsvoorstel van de Senaat dat het Safety Institute in staat zou stellen als een regelgevend orgaan dat normen en richtlijnen vastlegt voor AI-modellen. Deze stappen kunnen worden gezien als een poging tot toezicht op de regelgeving – of op zijn minst een poging om invloed van OpenAI uit te oefenen op de AI-beleidsvorming op federaal niveau.

Het is niet voor niets dat Altman een van de leden is van de Artificial Intelligence Safety and Security Board van het Amerikaanse ministerie van Binnenlandse Veiligheid, die aanbevelingen doet over “de ontwikkeling en inzet van veilige AI” in de Amerikaanse kritieke infrastructuur . En OpenAI heeft zijn uitgaven aan federaal lobbyen dit jaar aanzienlijk verhoogd, waarbij hij in de eerste zes maanden van 2024 800.000 USD uitgaf, vergeleken met 260.000 USD in heel 2023.

Het Amerikaanse AI Safety Institute, gehuisvest binnen het National Institute of Standards and Technology van het ministerie van Handel, overlegt met een groep bedrijven, waaronder Anthropic, en met grote technologiebedrijven zoals Google, Microsoft, Meta, Apple, Amazon en Nvidia. Deze branchegroep is belast met het implementeren van acties die zijn uiteengezet in het AI-uitvoerend bevel van president Joe Biden van oktober, waaronder het ontwikkelen van richtlijnen voor AI-rode teams, het beoordelen van capaciteiten, het beheren van risico’s, het beveiligen en beveiligen van inhoud en het verzegelen van geaggregeerde inhoud.

Dit is een belangrijke stap in het vormgeven van de manier waarop AI-technologie in de Verenigde Staten wordt gereguleerd en ontwikkeld, met actieve deelname van technologiebedrijven en relevante overheidsinstanties. OpenAI toont, door zijn toegenomen werk op het gebied van AI-beleid en -beveiliging, een opmerkelijke inzet voor het bevorderen van de veilige ontwikkeling en adoptie van AI.

Bent u geïnteresseerd in het laatste nieuws over ontwikkelingen op het gebied van AI en technologiebeleid, blijf dan onze blog volgen voor regelmatige updates.

Er wordt naar nieuws verwezen en geciteerd

techcrunch.com

Authors

  • Veda Veltrop

    Veda Veltrop is een invloedrijke leider in de technologie-industrie en de huidige COO van ChatGPTOpenAI.nl. Met haar strategisch inzicht en passie voor innovatie heeft ze een essentiële rol gespeeld in de groei en ontwikkeling van het bedrijf.

    Bekijk Berichten

Geef een reactie