HiddenLayer pozyskuje 50 milionów dolarów na wzmocnienie bezpieczeństwa AI

Published on:

Współczesny świat jest coraz bardziej uzależniony od sztucznej inteligencji (AI), która napędza wszystko, od usług finansowych po opiekę zdrowotną. Jednakże wraz z rosnącą zależnością od AI, rośnie również ryzyko cyberataków ukierunkowanych na te systemy. W odpowiedzi na te zagrożenia, firma HiddenLayer, będąca wiodącym dostawcą rozwiązań bezpieczeństwa dla modeli i zasobów AI, pozyskała 50 milionów dolarów w rundzie finansowania serii A, aby wzmocnić swoje narzędzia cyberbezpieczeństwa chroniące AI.

Rozwój i rozszerzenie działalności hiddenlayer

Ta znaczna inwestycja pozwoli HiddenLayer na rozszerzenie swojej bazy talentów, zwiększenie działań rynkowych i dalsze inwestowanie w nagradzaną platformę Machine Learning SecurITy (MLSec). Firma planuje zwiększyć liczbę swoich pracowników z 50 do 90 do końca roku, co wskazuje na silny wzrost i ambITne plany rozwoju.

Zaawansowane technologie bezpieczeństwa AI

Platforma MLSec firmy HiddenLayer oferuje kompleksowe rozwiązania bezpieczeństwa dla modeli AI, chroniąc je przed atakami, podatnościami i złośliwym kodem. Platforma monIToruje wejścia i wyjścia systemów AI, przeprowadzając rygorystyczne testy integralności, aby zapewnić bezpieczeństwo modeli przed wdrożeniem.

Ochrona przed atakami uczenia transferowego

Jednym z kluczowych atutów platformy HiddenLayer jest jej zdolność do ochrony przed atakami uczenia transferowego. Atak tego typu może wystąpić, gdy organizacje wykorzystują wstępnie wyszkolone, otwarte modele dostępne do publicznego użytku. HiddenLayer obserwuje tylko matematyczne reprezentacje danych wejściowych i wyjściowych, minimalizując ryzyko ujawnienia własnych modeli.

Współpraca z mITre atlas

HiddenLayer wnosi również swój wkład w MITRE ATLAS, bazę wiedzy dotyczącą taktyk i technik ataku AI, prowadzoną przez MITRE Corporation. Chris SestITo, dyrektor generalny HiddenLayer, twierdzi, że ich platforma może chronić przed wszystkimi 64 unikalnymi typami ataków wymienionymi w ATLAS, w tym kradzieżą własności intelektualnej, ekstrakcją modelu, atakami wnioskowania, omijania modelu i zatruwaniem danych.

Rosnące znaczenie bezpieczeństwa AI

Chociaż rzeczywiste przykłady szeroko zakrojonych ataków na systemy AI są trudne do znalezienia, agencje rządowe i organizacje coraz częściej dostrzegają potrzebę przeciwdziałania potencjalnym zagrożeniom. National Cyber SecurITy Center w Wielkiej Brytanii i amerykański Urząd PolITyki Nauki i Technologii podkreśliły znaczenie testowania, identyfikacji ryzyka i ciągłego monITorowania, aby zapewnić bezpieczeństwo i skuteczność systemów AI.

Wzrost popytu na rozwiązania bezpieczeństwa AI

Badania branżowe odzwierciedlają rosnące obawy dotyczące bezpieczeństwa AI. W badaniu Forrestera zleconym przez HiddenLayer, większość ankietowanych firm wyraziła obawy dotyczące bezpieczeństwa modeli uczenia maszynowego i polegała na ręcznych procesach w celu rozwiązania problemów z zagrożeniami modeli AI. Gartner podał, że w ciągu ostatniego roku 2 na 5 organizacji doświadczyło naruszenia prywatności AI lub incydentu bezpieczeństwa, a 1 na 4 z tych ataków uznano za złośliwe.

Przyszłość bezpieczeństwa AI

HiddenLayer dostrzega, że ​​popyt na rozwiązania bezpieczeństwa AI będzie nadal rósł wraz z rozszerzaniem się zastosowania AI w różnych branżach. Chociaż inne startupy oferują produkty mające na celu zwiększenie odporności systemów AI, HiddenLayer wyróżnia się swoim podejściem opartym na wykrywaniu i reagowaniu AI.

Partnerstwa i klienci

Firma zyskała uznanie, współpracując z Databricks i Intelem, a także z klientami z listy Fortune 100 w sektorze finansowym, rządowym, obronnym i cyberbezpieczeństwa. Przyspieszające tempo adopcji AI podkreśla potrzebę priorytetowego traktowania wdrażania odpowiednich środków bezpieczeństwa przez organizacje, co czyni rozwiązania takie jak platforma HiddenLayer niezbędne. Nowa runda finansowania prowadzona przez M12 i Moore Strategic Ventures przyspieszy rozwój firmy wraz ze wzrostem globalnego popytu na rozwiązania zapewniające bezpieczeństwo AI.

Related

Leave a Reply

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj