Sztuczna inteligencja coraz częściej wykracza poza sferę zawodową i towarzyszy Polakom także w życiu prywatnym. Od organizacji codziennych obowiązków po wsparcie w zdobywaniu wiedzy – możliwości AI są coraz bardziej różnorodne. Jak jednak wygląda nasz stosunek do tej technologii w kontekście ochrony danych i regulacji? Według raportu “Jak AI zmienia codzienność Polaków? Sztuczna inteligencja w pracy i życiu osobistym” firmy doradczo-technologicznej Future Mind, niemal połowa respondentów uważa, że korzystanie z tej technologii powinno być mocniej regulowane przez instytucje publiczne.
Jak wynika z badania Future Mind, co czwarty Polak posługuje się narzędziami opartymi o GenAI w życiu prywatnym w ciągu każdego miesiąca lub rzadziej. 17 proc. badanych korzysta z nich przynajmniej raz w tygodniu, a 7 proc. – codziennie. Narzędzia te pomagają nie tylko w pracy, ale także w rozwijaniu osobistych pasji, zarządzaniu codziennymi obowiązkami czy organizowaniu czasu wolnego. Według respondentów AI w przyszłości mogłoby pomóc w poszerzaniu wiedzy i umiejętności (44 proc.), pełnić funkcję ich osobistego asystenta (30 proc.), czy też współpracownika (14 proc.). Nie brakuje również głosów, że technologia ta mogłaby nawet wcielić się w rolę terapeuty. Wskazało tak 12 proc. uczestników badania.
- Patrząc na wyniki naszego badania, można pokusić się o stwierdzenie, że generatywna sztuczna inteligencja „zadomowiła się” w naszym życiu. Szczególnie zauważalne jest to wśród najmłodszej grupy respondentów (20-34 lata), która jest najbardziej oswojona z innowacyjnymi technologiami. Aż 55 proc. ankietowanych z tego przedziału wiekowego korzysta z GenAI w różnym stopniu – od codziennego użytkowania, po sporadyczne. Wraz z wiekiem respondentów odsetek ten spada – odpowiednio do 45 proc. dla grupy wiekowej 35-49 lat oraz 37 proc. dla grupy wiekowej 50-65 lat – komentuje Jakub Nawrocki, Lead UX Researcher w Future Mind. – GenAI to technologia, z której warto korzystać, ale ważne, aby robić to w sposób świadomy. Wspieranie naszych działań przez inteligentne algorytmy może przynieść wiele korzyści, ale kluczowe jest zrozumienie jej możliwości i ograniczeń – dodaje.
Choć innowacyjne technologie niosą za sobą wiele korzyści, Polacy nadal obawiają się negatywnych skutków ich częstego używania. Aż 44 proc. badanych wskazuje na ryzyko naruszenia prywatności, jako jedno z największych zagrożeń związanych z rozwojem GenAI. Ponadto, respondenci wskazali także na szerzenie dezinformacji i manipulacji (43 proc.), tworzenie nowoczesnej groźnej broni (37 proc.) oraz inwigilację przez algorytmy (34 proc.), jako jedne z głównych negatywnych skutków wykorzystania tej technologii w przyszłości.
– Polacy nadal podchodzą do kwestii GenAI z dozą ostrożności i sceptycyzmu. Co ciekawe – poza zidentyfikowaniem negatywnych konsekwencji jej używania, na szerszą – nawet globalną – skalę, coraz częściej zauważamy też problemy, które mogą dotknąć nas samych, bądź naszego najbliższego otoczenia. W naszym badaniu respondenci wskazali chociażby na dehumanizację relacji międzyludzkich (35 proc.) oraz obniżenie zdolności krytycznego myślenia (25 proc.). Szybki rozwój sztucznej inteligencji zmusza nas do zastanowienia się, w jaki sposób możemy zarządzać jej rozwojem, jednocześnie wykorzystując jej innowacyjny potencjał. W tym przypadku Polacy wskazują na wdrożenie odpowiednich regulacji. Co drugi uczestnik naszego badania deklaruje, że chciałby bardziej rygorystycznych norm prawnych dotyczących AI – podkreśla Jakub Nawrocki, Lead UX Researcher w Future Mind.
Akt o Sztucznej Inteligencji, który wszedł w życie z dniem 1 sierpnia 2024 roku, to pierwsze tego typu na świecie prawo, które ma uregulować sektor AI. Bazuje on na kalkulacji ryzyka, uzależniając obowiązki dostawców i podmiotów wdrażających modele i systemy AI od potencjalnego zagrożenia dla obywateli, społeczeństw i gospodarek. Pomimo jego wprowadzenia, kwestia powszechności AI wciąż budzi dyskusje – zwłaszcza w odniesieniu do związanych z jej wykorzystaniem przepisów prawa. Niemal połowa badanych (48 proc.) uważa, że AI powinna być mocniej regulowana przez instytucje publiczne, takie jak państwo czy Unia Europejska. Z kolei 28 proc. respondentów, twierdzi, że obecne przepisy są wystarczające, a co dziesiąty deklaruje, że regulacji powinno być mniej niż obecnie. Tak wyraźny podział opinii sugeruje, że regulacje są niezbędne, ale należy je dopasować do potrzeb i obaw społeczeństwa. Przyszłość AI zależy jednak nie tylko od samego rozwoju technologii, ale również od świadomego jej wykorzystywania przez użytkowników oraz od odpowiedzialnych norm prawnych.
Kontakt dla mediów:
Julia Dudziak-Dropko
+48 729 115 231
[email protected]