
ludzie od dawna są zafascynowani koncepcją sztucznej inteligencji, ale dopiero stosunkowo niedawno technologia rozwinęła się na tyle, aby mogła stać się rzeczywistością. W 2014 roku widzieliśmy komputer zdający test Turinga – jego odpowiedzi w serii konwersacji tekstowych przekonały 30% ludzkich śledczych, że jest to człowiek.
Widzimy AI w życiu codziennym. Przykładami mogą być Siri firmy Apple i Cortana Microsoftu – ironicznie nazwane imieniem postaci z uszkodzoną sztuczną inteligencją w serii gier wideo Halo. Jesteśmy w drodze do samochodów bez kierowcy z najnowszym dwusilnikowym modelem S Tesla Motors, którego funkcja autopilota utrzymuje samochód bezpiecznie na pasie, przestrzega ograniczeń prędkości, omija przeszkody i parkuje w garażu. CEO Elon Musk powiedział Bloombergowi, że spodziewa się, że Tesla będzie “pierwszą firmą, która wprowadzi na rynek ze znaczną autonomiczną funkcją jazdy w pojazdach”.
W sektorze obrony południowokoreańskie siły rozmieściły samobieżne roboty SGR-1, aby patrolować granicę z Koreą Północną, a także w Iraku i Afganistanie robot mobilny iRobot Packbot usuwa niewybuchowe bomby i miny i zbiera dowody kryminalistyczne.
Inwestorzy poważnie traktują SI. Ostatni kwartał 2014 r. Przyniósł wiele inwestycji w doliny krzemowe w start-upach AI, które brały udział w analizie ryzyka finansowego, analizie dużych zbiorów danych, rozpoznawaniu języków i obrazów oraz automatycznym pisaniu raportów. Obejmują one mechanizmy prognozowania rynku finansowego, takie jak Sentient, które symulują rynki finansowe, aby ustalić, jak będą reagować na różne scenariusze, oraz wspieranego przez Goldman Sachs asystenta rynku wirtualnego od amerykańskiego startera Kensho, który może odpowiedzieć na złożone słowne pytania finansowe. W opiece zdrowotnej produkt IBM Watson pomaga lekarzom zajmującym się chorymi na raka wykorzystywać dane genomiczne do personalizacji planów leczenia pacjentów.
Tymczasem Facebook używa głębokiego uczenia się, zestawu algorytmów próbujących modelować abstrakcje wysokiego poziomu z danych, aby sprawdzić, czy dwa zdjęcia są tej samej osoby. W ubiegłym roku Google nabył oprogramowanie do uczenia maszynowego DeepMind, a IBM zaprezentował jego neuromorficzny układ SyNapse, którego tranzystory krzemowe są skonfigurowane do replikacji neuronów i synaps ludzkiego mózgu.
Jednak wraz ze wzrostem zainteresowania i inwestycji w regionie, wielu czołowych myślicieli i przedsiębiorców na świecie wyraża publicznie swoje obawy. Stephen Hawking mówi, że może to oznaczać koniec ludzkości; Elon Musk mówi, że jest bardziej niebezpieczny niż bomby atomowe.
Zawsze rozważaliśmy sztuczną inteligencję z pewnym niepokojem. Prawa robotyki Isaaca Asimova sięgają roku 1942. Liczne filmy o sztucznej inteligencji podkreślają potencjalne zagrożenia dla ludzkości, szczególnie gdy maszyny z sztuczną inteligencją stają się “samoświadome”. Ostatnie przykłady to Her i Ex Machina. Ale to jest fikcja. Teraz stoimy przed prawdziwą możliwością “myślenia” maszyn podejmujących decyzje, które wpływają na ludzi.
W praktyce AI eliminuje ludzki błąd. Nie zmęczy się, nie pomyli się matematyki lub nie wykona tego samego testu dwa razy. Ale chociaż potrafimy zhumanizować technologię, aby analizować i podejmować decyzje w oparciu o nasze potrzeby, zachowania, preferencje i reakcje, musimy być ostrożni w ustalaniu jej celów – i być świadomymi jej ograniczeń. Oczywistym ograniczeniem jest to, że sprzęt i oprogramowanie ulegają zużyciu i są zastępowane, ale najważniejsze pytania dotyczą etyki. Jakie są implikacje prawne? Jakie zasady powinniśmy podejmować, aby zmniejszyć ryzyko?
Wielu światowych ekspertów ds. Sztucznej inteligencji podpisało niedawno list otwarty opublikowany przez Instytut Przyszłości Życia, który jest powiązany z MIT, który stwierdza: “Z uwagi na ogromny potencjał sztucznej inteligencji, ważne jest, aby badać, jak czerpać z niego korzyści, jednocześnie unikając potencjalnych pułapek. “Towarzyszący dokument określa priorytety badawcze, które obejmują ustanowienie” znaczącej ludzkiej kontroli nad systemem sztucznej inteligencji po rozpoczęciu działalności “. Musk, który jest jednym z głośnych sygnatariuszy, przekazał 10 milionów dolarów na “badania mające na celu utrzymanie AI korzystnej dla ludzkości”.
Konsekwencje etyczne podkreślone w dokumencie obejmują odpowiedzialność i prawo. Na przykład, kto ponosi odpowiedzialność, jeżeli w wypadku uczestniczy samochód bez kierowcy? Czy AI powinien być objęty istniejącym prawem cybernetycznym, czy też powinien mieć określone zasady? Jakie zasady należy wprowadzić, aby kontrolować rozmieszczenie autonomicznej broni?
Nie chodzi tu tylko o tworzenie reguł zarządzania inteligentnymi maszynami – musimy również zastanowić się, w jaki sposób regulujemy dane, które tworzą i udostępniają. Reguły próbujące kontrolować przepływ danych osobowych od dawna były wysoko na liście ustawodawczej i regulacyjnej i zostały podkreślone przez rewelacje Snowdena.
Łączenie sztucznej inteligencji i Internetu przedmiotów, aby urządzenia mogły automatycznie udostępniać dane osobowe, w tym dane finansowe i zdrowotne, stwarza dodatkowe obawy dotyczące prywatności i bezpieczeństwa. Gartner prognozuje, że do końca tego roku będzie blisko 5 miliardów podłączonych urządzeń. Organy regulacyjne i producenci urządzeń muszą wziąć pod uwagę, że podłączone urządzenia zapewniają dodatkowe możliwości zarówno dla legalnych organizacji, jak i hakerów, w uzyskiwaniu dostępu do danych osobowych.
Wreszcie, w artykule poruszono kwestię etyki zawodowej i potrzeby polityki, która pozwala nam czerpać korzyści z sztucznej inteligencji i minimalizować niebezpieczeństwa. Odpowiedzią jest opracowanie solidnej sztucznej inteligencji poprzez weryfikację (czy zbudowałem system w prawidłowy sposób?), Ważność (czy zbudowałem właściwy system?), Bezpieczeństwo i kontrolę. To są kluczowe wyzwania.
Sztuczna inteligencja może potencjalnie zmienić sposób, w jaki żyjemy i pracujemy, ale ważne jest, abyśmy ustalili odpowiednie ograniczenia i kontrole. W przeciwnym razie istnieje ryzyko, że zamiast poszerzać nasze horyzonty i potencjał, kompromisy, które już podejmujemy w zakresie dostępu do naszych danych osobowych, mogą narazić na szwank nasze wybory, a nawet nasze podstawowe prawa człowieka.