terug naar boven
Woensdag 17 juli 2024
thuisArtificial IntelligenceDe veiligheid van de producten van OpenAI staat ter discussie

De veiligheid van de producten van OpenAI staat ter discussie


OpenAI lijkt elke dag de krantenkoppen te halen en deze keer is er een dubbele dosis bezorgdheid over . OpenAI staat bekend om zijn baanbrekende ontwikkelingen op het gebied van kunstmatige intelligentie en is nu in de schijnwerpers komen te staan ​​dankzij niet één maar twee grote inbreuken op de beveiliging.

Deze incidenten hebben vragen doen rijzen over de gegevensverwerking en cyberbeveiligingsprotocollen van het bedrijf, waardoor het vertrouwen van zowel gebruikers als experts uit de sector is geschokt.

ChatGPT voor Mac zit vol beveiligingsfouten

De Mac-app voor ChatGPT is een populair hulpmiddel voor gebruikers die het krachtige taalmodel van OpenAI, GPT-4o, rechtstreeks vanaf hun desktopcomputers willen gebruiken. Deze week werd echter een beveiligingsfout onthuld.

Pedro José Pereira Vietto, een Swift-ontwikkelaar, ontdekte dat de app gebruikersgesprekken lokaal op het apparaat in platte tekst opsloeg. Dit betekent dat gevoelige informatie die tijdens deze gesprekken werd gedeeld, niet werd beschermd, waardoor deze toegankelijk werd voor andere apps of potentiële malware.

Vieito's bevindingen werden snel opgepikt door de technische nieuwsmedia De lip, waardoor de bezorgdheid onder gebruikers wordt aangewakkerd en OpenAI ertoe wordt aangezet snel actie te ondernemen. Het bedrijf heeft een update uitgebracht die introduceerde encryptie voor lokaal opgeslagen chatsom het onmiddellijke veiligheidsprobleem aan te pakken.

Η απουσία sandboxing, μια πρακτική ασφαλείας που απομονώνει τις εφαρμογές για να αποτρέψει τα τρωτά σημεία από το να επηρεάσουν άλλα μέρη του συστήματος, περιέπλεξε περαιτέρω το ζήτημα. Δεδομένου ότι η εφαρμογή ChatGPT δεν είναι διαθέσιμη στο , dit het hoeft niet te voldoen aan de sandbox-vereisten van Apple.

Het feit dat een dergelijk fundamenteel toezicht op de beveiliging überhaupt plaatsvond, heeft vragen doen rijzen over de interne beveiligingspraktijken van OpenAI en de grondigheid van het applicatieontwikkelingsproces.

Door deze maas in de wet kon de app gegevens onveilig opslaan, waardoor gebruikers aan potentiële risico's werden blootgesteld.

De snelle oplossing van OpenAI heeft de onmiddellijke dreiging verzacht, maar heeft ook de noodzaak van strengere beveiligingsmaatregelen bij de ontwikkeling en inzet van AI-toepassingen benadrukt.

Het speelboek van een hacker

Het tweede beveiligingsprobleem waarmee OpenAI wordt geconfronteerd is geworteld in een incident van afgelopen voorjaarmaar de gevolgen ervan zijn zelfs vandaag de dag voelbaar.

Begin vorig jaar heeft een hacker slaagde erin de interne berichtensystemen van OpenAI te doorbreken, het verkrijgen van toegang tot gevoelige informatie over de activiteiten van het bedrijf en kunstmatige intelligentietechnologieën. De De hacker heeft de gegevens geüpload van in een online forum waar medewerkers spraken over de nieuwste OpenAI-technologieënmaar het kwam niet terecht in de systemen waarin het bedrijf zijn AI huisvest en bouwt, volgens twee mensen die bekend zijn met het incident.

Leidinggevenden van OpenAI maakten het incident bekend aan werknemers tijdens een Volledige bijeenkomst op het kantoor van het bedrijf in San Francisco in april 2023. Er werd echter besloten om de inbreuk niet openbaar te maken, omdat er geen klant- of partnerinformatie werd gestolen en leidinggevenden dit niet als een bedreiging voor de nationale veiligheid zagen. Zij geloofden het De hacker was een particulier zonder banden met een buitenlandse overheidzij ook heb het niet laten weten of wetshandhavingsinstanties.

Mac-app ChatGPT bleek eerder gebruikersgesprekken in platte tekst op te slaan, waardoor de veiligheid in gevaar kwam (Afbeelding tegoed)

Deze beslissing leidde tot interne zorgen over de beveiligingspositie van OpenAI. Sommige medewerkers maakten zich daar zorgen over Buitenlandse tegenstanders zoals China zouden potentieel soortgelijke kwetsbaarheden kunnen misbruiken να κλέψει τεχνολογία τεχνητής νοημοσύνης που θα μπορούσε τελικά να αποτελέσει απειλή για την εθνική ασφάλεια των .

Leopold Aschenbrenner, als OpenAI technisch programmamanagerbetoogde dat het bedrijf ondernam niet genoeg stappen om dergelijke bedreigingen te voorkomen. Hij stuurde een memo naar het bestuur waarin hij zijn zorgen uiteenzette, maar werd later ontslagen, een stap die volgens hem politiek gemotiveerd was vanwege zijn klachten.

Fluisterende zorgen

ο interne inbreuk en daaropvolgende afhandeling van incidenten hebben diepere scheuren in OpenAI blootgelegd op het gebied van beveiligingspraktijken en transparantie. Het ontslag van Aschenbrenner, dat volgens hem het gevolg was van zijn klacht, heeft aanleiding gegeven tot discussie over de inzet van het bedrijf op het gebied van veiligheid en hoe om te gaan met interne afwijkende meningen. Hoewel OpenAI beweert dat zijn schorsing geen verband hield met zijn ontslag, heeft de situatie de spanningen binnen het bedrijf aan het licht gebracht.

De inbreuk en de nasleep ervan brachten ook de potentiële geopolitieke risico’s aan het licht die verbonden zijn aan geavanceerde kunstmatige-intelligentietechnologieën. De angst dat AI-geheimen kunnen worden gestolen door buitenlandse tegenstanders zoals China is niet ongegrond. Soortgelijke zorgen zijn geuit in de technologie-industrie, met name door Microsoft-voorzitter Brad Smith, die heeft getuigd over Chinese hackers die technologiesystemen misbruiken om federale netwerken aan te vallen.

Ondanks deze zorgen verhinderen federale en staatswetten dat bedrijven als OpenAI discrimineren op basis van etniciteit. Experts beweren dat het blokkeren van buitenlands talent de ontwikkeling van kunstmatige intelligentie in de VS zou kunnen belemmeren. Matt Knight, hoofdveiligheidsfunctionaris van OpenAI, benadrukte de noodzaak om deze risico's in evenwicht te brengen en tegelijkertijd 's werelds beste talent te benutten om AI-technologieën vooruit te helpen.

OpenAI-beveiligingsbugs
In 2023 heeft een hacker afgelopen voorjaar inbreuk gemaakt op de interne berichtensystemen van OpenAI en zo toegang gekregen tot gevoelige informatie (Afbeelding tegoed)

Wat is het machtsspel van OpenAI?

Als reactie op deze incidenten heeft OpenAI heeft stappen ondernomen om zijn beveiligingsmaatregelen te versterken. Het bedrijf heeft een opgericht Veiligheids- en beveiligingscomité om de risico's verbonden aan toekomstige technologieën te beoordelen en te beperken. In deze commissie zitten waardevolle elementen zoals b.v Paul Nacasoneeen voormalige legergeneraal die leiding gaf aan de National Security Agency en de Cyberspace Administration, en werd benoemd tot lid van de raad van bestuur van OpenAI.

De inzet van OpenAI op het gebied van veiligheid wordt verder gedemonstreerd door de voortdurende investeringen in het beschermen van zijn technologieën. Knight benadrukte dat deze inspanningen jaren vóór de introductie van ChatGPT begonnen en zich blijven ontwikkelen naarmate het bedrijf opkomende risico's probeert te begrijpen en aan te pakken. Ondanks deze voorzorgsmaatregelen hebben recente incidenten aangetoond dat de reis naar robuuste veiligheid voortduurt en voortdurende waakzaamheid vereist.


Uitgelicht beeldtegoed: Kim Menich/Schroef los





VIA: DataConomy.com

Marizas Dimitris
Marizas Dimitrishttps://www.techwar.gr
Dimitris, een toegewijd fan van mobiele telefoons van Samsung, heeft een speciale band opgebouwd met de producten van het bedrijf en waardeert het ontwerp, de prestaties en de innovatie die ze bieden. Technisch nieuws van over de hele wereld schrijven en lezen.
GERELATEERDE ARTIKELEN

LAAT EEN ANTWOORD ACHTER

voer uw reactie in!
Vul hier uw naam in

Meest populair

Laatste artikelen