Przykłady zastosowania sztucznej inteligencji do wykonywania rutynowych, powtarzalnych zadań w przedsiębiorstwach są naprawdę szerokie. Okazuje się, że nieumiejętne korzystanie z narzędzi AI może mieć dla przedsiębiorstw przykre konsekwencje. To, że problem we współpracy pomiędzy człowiekiem a sztuczną inteligencją istnieje widać w wynikach raportu „Cyberportret polskiego biznesu 2025″, przygotowanego przez ESET i DAGMA Bezpieczeństwo IT.
Nieznajomość AI szkodzi
Polscy pracownicy mają problemy z rozpoznaniem materiałów wygenerowanych przez sztuczną inteligencję. 30 proc. z nich przyznało, że uznało materiały wideo lub obrazy wygenerowane przez AI za prawdziwe. 29 proc. nie umiało ocenić ich autentyczności. To otwiera drogę do manipulacji i cyberataków w środowisku pracy.
Niezrozumienie narzędzi AI widać również w innej statystyce. Aż 19 proc. pracowników przyznało, że udostępnia tego typu rozwiązaniom wrażliwe dane firmowe. Na poprawę bezpieczeństwa nie wpływa fakt, że szkolenia w krajowych firmach postępują wolniej niż zagrożenia związane z korzystaniem z AI.
„Skuteczna reakcja na zagrożenia wymaga odpowiedniego poziomu wiedzy i kompetencji. Jeżeli pracownik nie rozumie, że ma do czynienia z incydentem – nie zgłosi go, nawet jeśli odpowiednie procedury istnieją w firmie. Ten problem jest szczególnie widoczny w kontekście nowych form zagrożeń, takich jak manipulacje z wykorzystaniem sztucznej inteligencji” – powiedział Beniamin Szczepankiewicz, ekspert cyberbezpieczeństwa ESET.
Komentarze
Nie ma jeszcze żadnych komentarzy :)