Stworzenie sztucznej inteligencji jest celem wielu firm informatycznych na całym świecie, upatrują w tym szansę na stworzenie systemu który sam będzie się rozwijał, rozwiązywał różnego rodzaju problemy, dzięki czemu będzie można osiągnąć nowy poziom w informatyce.
Pozwoli to także na usprawnienie systemu decyzyjnego, wyeliminowanie błędów w wielu gałęziach gospodarki. Jednak należy zwrócić uwagę, że nieograniczone działanie systemów inteligentnych mogłoby kolidować z przepisami prawnymi.
Jakie zagrożenia niesie ze sobą swobodny rozwój sztucznej inteligencji?
Dobrym przykładem mogą być przepisy RODO, sztuczna inteligencja która jako nieograniczona mogłaby zyskiwać dostęp do różnych danych mogłaby przy okazji łamać przepisy RODO, wykorzystywać dane osobowe w sposób nieprawidłowy. Podobnie mogłoby to być inne dane poufne czy też tajne które mogłyby znaleźć w formie niezabezpieczonej na różnych stronach internetowych. Tego rodzaju biblioteki danych mogłyby być przeszukiwane przez systemy sztucznej inteligencji w celu znalezienia konkretnych informacji. Dlatego należy zwrócić uwagę na prawne oraz etyczne aspekty nadzoru nad sztuczną inteligencją. Obecnie powstaje wiele chatbotów uczących się algorytmów, które odpowiadają na pytania użytkowników, często zastępując tradycyjną obsługę klienta. Programy tego typu badają zachowanie użytkownika, dostosowują się do sytuacji, a także uczą się nowych zwrotów. W niektórych przypadkach może to prowadzić do różnych nadużyć, wykorzystywania epitetów, których program nauczy się od użytkownika.
„Obecnie w Polsce i w UE nie mamy powszechnie obowiązujących reguł (ustaw, rozporządzeń czy dyrektyw UE), które jednoznacznie przesądzałyby, co wolno, a czego nie wolno przy tworzeniu i wykorzystywaniu sztucznej inteligencji.” – Maciej Kubiak.
Ważne jest wdrażanie dokumentów, postanowień które określały by sposób w jaki można tworzyć oprogramowanie uczące się, inteligentne. Komisja Europejska wydała dokument „Biała księga w sprawie sztucznej inteligencji. Europejskie podejście do doskonałości i zaufania”. Dostępne są także różne komunikaty Parlamentu Europejskiego, jak również uchwały krajowe, które określają sposób rozwoju sztucznej inteligencji.