![Zabezpieczenia można ominąć, także te zastosowane w modelu...](https://d-art.ppstatic.pl/kadry/k/r/1/9c/b3/64997a1a7ba2d_o_large.jpg)
Czy kiedykolwiek powstanie sztuczna inteligencja odporna na nadużycia cyberprzestępców?
Zabezpieczenia można ominąć, także te zastosowane w modelu językowym ChatGPT. Twórcy takich programów zdają sobie z tego sprawę i robią wszystko, aby łatać znalezione przez cyberprzestępców luki. Z każdą kolejną próbą wykorzystania AI do niecnych celów niezgodnych z prawem, złamanie mechanizmów ochronnych staje się więc trudniejsze.
Żyjemy jednak w czasach, w których nawet uczeń podstawówki może nauczyć się hakowania algorytmów sztucznej inteligencji, wyszukując w sieci informacje na ten temat. W przyszłości stanie się to bardziej wymagające, choć wciąż będzie możliwe.
![Obecnie możemy polegać wyłącznie na obietnicach złożonych w...](https://d-art.ppstatic.pl/kadry/k/r/1/8c/44/64997a1cd4f56_o_large.jpg)
Czy istnieje rozwiązanie problemu prywatności danych, które użytkownicy wprowadzają do narzędzi takich jak ChatGPT?
Obecnie możemy polegać wyłącznie na obietnicach złożonych w umowach licencyjnych, na które się zgadzamy, gdy zaczynamy korzystać z narzędzi AI. Nie zakładałbym, że powstanie coś na wzór „otwartej” sztucznej inteligencji, która nie zbiera danych o użytkownikach.
Najbardziej zaawansowane modele należeć będą do wielkich firm, które włożyły ogromne pieniądze w ich opracowanie. Trzeba pamiętać, że trenowanie algorytmów wymaga bardzo dużo mocy obliczeniowej, ale korzystanie z nich już nie.
Można spodziewać się, że w niedalekiej przyszłości starsze wersje AI wciąż będą udostępniane za darmo wszystkim, którzy będą chcieli z nich korzystać. Jednak tylko od ich właścicieli będzie zależało, co zrobią z wprowadzonymi przez swoich klientów informacjami.