Sztuczna inteligencja. Szanse i zagrożenia w świecie techniki- Strona 5 z 6 - dlaProdukcji.pl

Wyszukaj w serwisie

Sztuczna inteligencja. Szanse i zagrożenia w świecie techniki i dozoru technicznego                      

Przykłady fake newsów:

  • Fałszywe informacje o szczepionkach.
  • Zmyślone wypowiedzi polityków.
  • Teorie spiskowe rozpowszechniane jako „ujawnione fakty”.

SI nie śpi

My zatem też działajmy…  z włączonym myśleniem krytycznym.

Systemy ze sztuczną inteligencją, mimo że nadal są nowością, to już na stałe zagościły w świecie technologicznym i mają realny wpływ na nasze życie. Jak zaprezentowano na powyższych przykładach ich wykorzystanie daje realne korzyści, ale ze względu na wysoki poziom skomplikowania wiąże się również z pewnymi zagrożeniami niespotykanymi nigdy wcześniej.

Czy tego chcemy czy nie, bezpośrednio lub pośrednio, w mniejszym lub większym stopniu będziemy mieli styczność z tą technologią. Mówiąc „my”, mam na myśli zarówno jednostki i społeczeństwo jak również firmy czy organizacje.

W takim razie: jak żyć?

Prompt autora do chat bota SI: Jak żyć?

Chat bot SI odpowiada:

To pytanie – .Jak żyć?” – jest jednocześnie proste i głęboko filozoficzne. Nie ma jednej odpowiedzi, ale mogę zaproponować killka perspektyw, które mogą pomóc Ci znaleźć własną drogę:

1. Zrozum siebie

Autor klika: Zatrzymaj generowanie!

Stop! To jest żart, nie o wszystko musimy pytać sztuczną inteligencję.

Możemy – a nawet powinniśmy – sami znaleźć odpowiedź na to pytanie.

Po pierwsze – edukacja zarówno we własnym zakresie, jak również szkoląc pracowników
„Poznaj siebie i poznaj swojego wroga, a w stu bitwach nie zaznasz porażki.” – Sun Zi, „Sztuka wojny”

Bardzo istotnym elementem przeciwdziałania zagrożeniom wynikającym z wykorzystania systemów SI są szkolenia pracowników połączone z warsztatami, które powinny obejmować praktyczne zastosowania SI w codziennych zadaniach zawodowych. Ma to na celu poznanie możliwości oraz ograniczeń systemów wykorzystujących SI, naukę użycia oraz zdobywanie kompetencji z zakresu SI.

Nawet jeśli twoja firma nie wdrożyła jeszcze systemu SI, zadbaj o budowę świadomości i odporności wśród pracowników na zagrożenia związane z jej wykorzystywaniem. Twórz kampanie informacyjne uczulające ludzi na akcje dezinformacji, fake newsy, materiały deepfake, informuj pracowników o nowych rodzajach cyberzagrożeń z którymi mogą się spotkać, przedstaw im znaczenie cyfrowej czujności i weryfikowania źródeł informacji.

W aspekcie edukacji bardzo ważnym elementem jest samokształcenie. Zachęcam do poświęcenia czasu, aby zrozumieć, jak działają ogólnodostępne systemy SI, do czego można je wykorzystać i jakie mają ograniczenia. Spróbuj wykorzystać do nauki różne chatboty SI, zapytaj: „Kim jesteś? Jak możesz mi pomóc?”. Skorzystaj z modeli generujących obrazy lub filmy na podstawie twoich zapytań. Regularnie aktualizuj swoją wiedzę na temat najlepszych praktyk korzystania z tych narzędzi oraz śledź nowości w dziedzinie sztucznej inteligencji. Nie bój się eksperymentować.

Natomiast w firmach, które planują lub już wdrażają rozwiązania oparte o algorytmy sztucznej inteligencji należy położyć szczególny nacisk na bezpieczeństwo. Bezpieczne wdrażanie systemów ze sztuczną inteligencją wymaga kompleksowego podejścia, które łączy aspekty technologiczne, organizacyjne, prawne i etyczne.

Poniżej [4] przedstawiono kilka przykładowych praktyk wspierających ten proces:

  • audyty i testy bezpieczeństwa, procedury reagowania na incydenty,
  • opracowanie planu odzyskiwania danych po awarii (ang. DRP – Disaster Recovery Plan),
  • etyczne i transparentne podejście,
  • zarządzanie ryzykiem i zgodność z prawem – m.in. RODO, AI Act Code of Practise,
  • monitorowanie i ciągła optymalizacja, np. w schemacie cyklu PDCA (planuj, wykonaj, sprawdź, działaj/usprawniaj),
  • dobór odpowiednich narzędzi/algorytmów oraz danych.

Relacje

Partner serwisu

Katalog produktów

Poznaj nasze serwisy

Nasze strony wykorzystują pliki cookies. Korzystanie z naszych stron internetowych bez zmiany ustawień przeglądarki dotyczących plików cookies oznacza, że zgadzacie się Państwo na umieszczenie ich w Państwa urządzeniu końcowym. Więcej szczegółów w Polityce prywatności.