Kaspersky heeft het AI Pact ondertekend, een initiatief van de Europese Commissie dat tot doel heeft organisaties voor te bereiden op de implementatie van de AI Act. Dit is het allereerste uitgebreide juridische kader voor AI wereldwijd, dat is ingevoerd als wetgeving in de Europese Unie (EU). Kaspersky pleit voor het veilige gebruik van AI-technologieën en de ondertekening weerspiegelt Kaspersky's inzet om het voorzichtige en verantwoorde gebruik van AI-technologieën te bevorderen en te vergemakkelijken, waarvan het belang binnen het cyberbeveiligingsveld wordt erkend.
De AI-verordening van de EU heeft tot doel betrouwbare AI in de Europese regio en daarbuiten aan te moedigen door ervoor te zorgen dat AI-technologieën voldoen aan veiligheids- en ethische beginselen en door AI-gerelateerde risico's aan te pakken. De AI-verordening, die in 2024 van kracht werd, zal naar verwachting[1] medio 2026 volledig van toepassing worden. Het AI-pact is bedoeld om de overgang naar de nieuwe verordening te vergemakkelijken door organisaties aan te moedigen proactief de belangrijkste bepalingen van de AI Act uit te voeren.
Door de belofte te ondertekenen, heeft Kaspersky zich verbonden aan drie kernverplichtingen omtrent het gebruik van AI-technologie, namelijk:
- een AI-governancestrategie vast te stellen om de toepassing van AI in het bedrijf te bevorderen en toekomstige naleving van de AI-verordening te waarborgen;
- AI-systemen identificeren die worden geleverd of ingezet in gebieden die op grond van de AI-verordening als risicovol worden beschouwd;
- het bewustzijn en de AI-geletterdheid van medewerkers en anderen die namens het bedrijf met AI-systemen te maken hebben, te bevorderen, rekening houdend met hun technische kennis, ervaring, opleiding en opleiding en de context waarin de AI-systemen worden gebruikt.
Naast de kerntoezeggingen belooft Kaspersky om voorspelbare risico's te analyseren die AI-systemen kunnen vormen voor de
rechten van personen. Ook
zorgt Kaspersky ervoor dat individuen worden
geïnformeerd wanneer ze rechtstreeks in contact komen met een AI-systeem.Daarnaast zal zij haar
werknemers informeren over de inzet van AI-systemen op de werkplek.
"Nu we getuige zijn van de snelle
inzet van AI-technologieën, is het van groot belang om ervoor te zorgen dat de drang naar
innovatie in evenwicht is met het juiste risicobeheer", zegt Eugene Kaspersky, oprichter en CEO van Kaspersky. "We zijn al jaren een pleitbezorger voor
AI-geletterdheid en kennisdeling over AI-gerelateerde risico's en bedreigingen.We zijn verheugd ons aan te sluiten bij organisaties die bedrijven helpen
AI-technologieën verantwoord en veilig te benutten. We zullen ons inzetten voor het bevorderen van transparante en ethische
AI-praktijken en bijdragen aan het opbouwen van vertrouwen in deze
technologie."
Kaspersky heeft veel ervaring met het gebruik van AI-technologieën in zijn
beveiligingstechnologieën. Al bijna 20 jaar gebruikt het bedrijf AI-aangedreven
automatisering om de security en privacy van zijn klanten te verbeteren en het breedste scala aan
cyberdreigingen te detecteren. Nu AI-systemen steeds vaker voorkomen, zet
Kaspersky zich in om de expertise die is opgedaan in het AI Technology Research
Center te delen om ervoor te zorgen dat organisaties goed gepositioneerd zijn
om de risico's aan te pakken die gepaard gaan met de implementatie van
AI-systemen.
Om professionals te ondersteunen bij de implementie van AI-systemen en hen te voorzien met specifieke aanbevelingen over veilige inzet van AI, hebben Kaspersky-experts "Guidelines
for Secure Development and Deployment of AI Systems" ontwikkeld. Deze richtlijnen werden gepresenteerd tijdens het VN-internetgovernanceforum van 2024. Naast
beveiligingsoverwegingen benadrukt Kaspersky het ethisch gebruik van AI-technologieën.Het heeft het principes
geformuleerd voor ethisch gebruik van AI-systemen in cyberbeveiliging, waarbij andere cyberbeveiligingsaanbieders worden uitgenodigd om deze
principes te onderschrijven en te volgen.
Over Kaspersky AI Technology Research Center
Onze experts van het Kaspersky AI Technology Research Center werken al bijna 20 jaar met AI in cybersecurity en Secure AI om het breedste scala aan bedreigingen te ontdekken en tegen te gaan. Ons team draagt AI-expertise bij, op basis van hun onderzoek, om onze oplossingen te verbeteren, van AI-gestuurde bedreigingsdetectie en waarschuwingstriage tot GenAI-aangedreven Threat Intelligence.
[1] Met bepaalde uitzonderingen die in de verordening worden beschreven: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689