Kompletna historia sztucznej inteligencji

Historia sztucznej inteligencji może wydawać się tematem gęstym i nieprzeniknionym dla ludzi, którzy nie są dobrze zorientowani w informatyce i jej podzbiorach.

Pomimo tego, jak tajemnicza i nietykalna może wydawać się sztuczna inteligencja, po rozbiciu jest ona o wiele łatwiejsza do zrozumienia, niż mogłoby się wydawać.

W terminologii laika, AI to zrozumienie, że maszyny mogą interpretować, wydobywać i uczyć się z danych zewnętrznych w sposób, w którym wspomniane maszyny funkcjonalnie naśladują praktyki poznawcze normalnie przypisywane ludziom. Sztuczna inteligencja opiera się na założeniu, że ludzkie procesy myślowe mają zdolność zarówno do replikacji, jak i mechanizacji.

Jump to:

AI od 380 p.n.e. do 1900
AI od 1900-1950
AI w latach pięćdziesiątych
AI w latach sześćdziesiątych
AI w latach siedemdziesiątych
AI w latach osiemdziesiątych
AI w latach dziewięćdziesiątych
AI od 2000-2010
AI od 2010 do dziś

Historia sztucznej inteligencji sięga starożytności, w której filozofowie zastanawiali się nad ideą, że sztuczne istoty, mechanicznych ludzi i innych automatów istniały lub mogły istnieć w jakiś sposób.

Dzięki wczesnym myślicielom, sztuczna inteligencja stawała się coraz bardziej namacalna w latach 1700 i później. Filozofowie rozważali, jak ludzkie myślenie może być sztucznie zmechanizowane i manipulowane przez inteligentne, nie-ludzkie maszyny. Procesy myślowe, które podsyciły zainteresowanie AI, rozpoczęły się, gdy klasyczni filozofowie, matematycy i logicy rozważali manipulację symbolami (mechanicznie), co ostatecznie doprowadziło do wynalezienia programowalnego komputera cyfrowego, Atanasoff Berry Computer (ABC) w latach 40. ubiegłego wieku. Ten szczególny wynalazek zainspirował naukowców do pójścia naprzód z ideą stworzenia „elektronicznego mózgu” lub sztucznie inteligentnej istoty.

Niemal dekada minęła zanim ikony AI pomogły w zrozumieniu dziedziny, którą mamy dzisiaj. Alan Turing, matematyk między innymi, zaproponował test, który mierzył zdolność maszyny do replikowania ludzkich działań do stopnia, który był nieodróżnialny od ludzkiego zachowania. Jeszcze w tej samej dekadzie pole badań nad sztuczną inteligencją powstało podczas letniej konferencji w Dartmouth College w połowie lat pięćdziesiątych, gdzie John McCarthy, informatyk i kognitywista, ukuł termin „sztuczna inteligencja.”

Od lat pięćdziesiątych wielu naukowców, programistów, logików i teoretyków pomagało w ugruntowaniu nowoczesnego rozumienia sztucznej inteligencji jako całości. Z każdą nową dekadą pojawiały się innowacje i odkrycia, które zmieniały fundamentalną wiedzę ludzi na temat dziedziny sztucznej inteligencji i tego, jak historyczne postępy sprawiły, że AI z nieosiągalnej fantazji stała się namacalną rzeczywistością dla obecnych i przyszłych pokoleń.

Kontynuuj czytanie, aby dowiedzieć się więcej o konkretnych postępach i momentach w historii AI.

Kluczowe wydarzenia w historii sztucznej inteligencji

Nie jest zaskoczeniem, że sztuczna inteligencja rozwijała się gwałtownie po 1900 roku, ale zaskakujące jest to, jak wielu ludzi myślało o AI setki lat przed tym, jak istniało nawet słowo opisujące to, o czym myśleli.

AI od 380 r. p.n.e. do 1900 r.

Między 380 r. p.n.e. a późnymi latami 1600: Różni matematycy, teologowie, filozofowie, profesorowie i autorzy rozmyślali o technikach mechanicznych, maszynach liczących i systemach liczbowych, które ostatecznie doprowadziły do koncepcji zmechanizowanej „ludzkiej” myśli u istot nie-ludzkich.

Wczesne lata siedemnaste: Przedstawienia wszechwiedzących maszyn podobnych do komputerów były szerzej omawiane w literaturze popularnej. Jonathan Swift w swojej powieści „Podróże Guliwera” wspomniał o urządzeniu zwanym silnikiem, który jest jednym z najwcześniejszych odniesień do współczesnej technologii, a konkretnie do komputera. Zamierzonym celem tego urządzenia była poprawa wiedzy i operacji mechanicznych do punktu, w którym nawet najmniej utalentowana osoba wydawałaby się być wykwalifikowana – wszystko z pomocą i wiedzą nie-ludzkiego umysłu (naśladującego sztuczną inteligencję)

1872: Powieść autora Samuela Butlera „Erewhon” zabawiała się pomysłem, że w nieokreślonym punkcie przyszłości maszyny będą miały potencjał posiadania świadomości.

AI w latach 1900-1950

Od uderzenia roku 1900 tempo, w jakim rosły innowacje w dziedzinie sztucznej inteligencji, było znaczące.

1921: Karel Čapek, czeski dramatopisarz, wydał swoją sztukę science fiction „Rossum’s Universal Robots” (tłumaczenie na język angielski). Jego sztuka badała koncepcję fabrycznie stworzonych sztucznych ludzi, których nazwał robotami – pierwsze znane odniesienie do tego słowa. Od tego momentu ludzie przejęli ideę „robotów” i wdrożyli ją do swoich badań, sztuki i odkryć.

1927: W filmie sci-fi Metropolis, w reżyserii Fritza Langa, pojawiła się robotyczna dziewczyna, która była fizycznie nieodróżnialna od ludzkiego odpowiednika, od którego wzięła swoje podobieństwo. Sztucznie inteligentna dziewczyna-robot atakuje miasto, siejąc spustoszenie w futurystycznym Berlinie. Ten film ma znaczenie, ponieważ jest pierwszym ekranowym przedstawieniem robota, a tym samym stanowił inspirację dla innych słynnych nie-ludzkich postaci, takich jak C-P30 w Gwiezdnych wojnach.

1929: Japoński biolog i profesor Makoto Nishimura stworzył Gakutensoku, pierwszego robota, który został zbudowany w Japonii. Gakutensoku oznacza „uczenie się z praw natury”, co sugeruje, że sztucznie inteligentny umysł robota mógł czerpać wiedzę od ludzi i natury. Niektóre z jego funkcji obejmowały poruszanie głową i rękami, a także zmianę wyrazu twarzy.

1939: John Vincent Atanasoff (fizyk i wynalazca), wraz ze swoim asystentem Cliffordem Berry, stworzył Atanasoff-Berry Computer (ABC) z grantem 650 dolarów na Iowa State University. ABC ważył ponad 700 funtów i mógł rozwiązywać do 29 równoczesnych równań liniowych.

1949: Informatyk Edmund Berkeley w książce „Giant Brains: Or Machines That Think” zauważył, że maszyny coraz częściej są w stanie obsługiwać duże ilości informacji z szybkością i umiejętnościami. Następnie porównał maszyny do ludzkiego mózgu, gdyby był on zrobiony ze „sprzętu i drutu zamiast ciała i nerwów”, opisując zdolność maszyn do ludzkiego umysłu, stwierdzając, że „maszyna może więc myśleć.”

AI w latach 50-tych

Lata 50-te okazały się czasem, w którym wiele postępów w dziedzinie sztucznej inteligencji zaowocowało wzrostem opartych na badaniach odkryć w dziedzinie AI, dokonanych między innymi przez różnych informatyków.

1950: Claude Shannon, „ojciec teorii informacji”, opublikował „Programming a Computer for Playing Chess”, który był pierwszym artykułem omawiającym rozwój programu komputerowego do gry w szachy.

1950: Alan Turing opublikował „Computing Machinery and Intelligence”, w którym zaproponował ideę The Imitation Game – pytanie, które rozważało, czy maszyny mogą myśleć. Ta propozycja stała się później Testem Turinga, który mierzył inteligencję maszyny (sztucznej). Opracowanie Turinga testowało zdolność maszyny do myślenia tak, jak myślałby człowiek. Test Turinga stał się ważnym elementem w filozofii sztucznej inteligencji, która omawia inteligencję, świadomość i zdolności maszyn.

1952: Arthur Samuel, informatyk, opracował program komputerowy do gry w warcaby – pierwszy, który samodzielnie nauczył się grać w grę.

1955: John McCarthy wraz z zespołem mężczyzn stworzył propozycję warsztatów na temat „sztucznej inteligencji”. W 1956 roku, kiedy warsztaty się odbyły, oficjalne narodziny tego słowa przypisano McCarthy’emu.

1955: Allen Newell (badacz), Herbert Simon (ekonomista) i Cliff Shaw (programista) są współautorami Logic Theorist, pierwszego programu komputerowego poświęconego sztucznej inteligencji.

1958: McCarthy opracował Lisp, najpopularniejszy i wciąż preferowany język programowania do badań nad sztuczną inteligencją.

1959: Samuel ukuł termin „uczenie maszynowe”, mówiąc o programowaniu komputera, aby grał w partię szachów lepiej niż człowiek, który napisał jego program.

Sztuczna inteligencja w latach sześćdziesiątych

Innowacje w dziedzinie sztucznej inteligencji szybko rosły w latach sześćdziesiątych. Tworzenie nowych języków programowania, robotów i automatów, badania naukowe i filmy przedstawiające sztucznie inteligentne istoty zyskały na popularności. To silnie podkreśliło znaczenie AI w drugiej połowie XX wieku.

1961: Unimate, robot przemysłowy wynaleziony przez George’a Devola w latach 50. XX wieku, jako pierwszy zaczął pracować na linii montażowej General Motors w New Jersey. Jego obowiązki obejmowały transport odlewów ciśnieniowych z linii montażowej i spawanie części do samochodów – zadanie uważane za niebezpieczne dla ludzi.

1961: James Slagle, informatyk i profesor, opracował SAINT (Symbolic Automatic INTegrator), heurystyczny program do rozwiązywania problemów, którego głównym celem była integracja symboliczna w świeżym rachunku.

1964: Daniel Bobrow, informatyk, stworzył STUDENT, wczesny program AI napisany w Lisp, który rozwiązywał problemy słowne algebry. Program STUDENT jest uważany za wczesny kamień milowy w dziedzinie przetwarzania języka naturalnego AI.

1965: Joseph Weizenbaum, informatyk i profesor, opracował ELIZA, interaktywny program komputerowy, który mógł funkcjonalnie rozmawiać w języku angielskim z człowiekiem. Celem Weizenbauma było zademonstrowanie, jak komunikacja między sztucznie inteligentnym umysłem a umysłem ludzkim była „powierzchowna”, ale odkrył, że wiele osób przypisało ELIZIE cechy antropomorficzne.

1966: Shakey the Robot, opracowany przez Charlesa Rosena z pomocą 11 innych osób, był pierwszym robotem mobilnym ogólnego przeznaczenia, znanym również jako „pierwszy elektroniczny człowiek”

1968: Na ekrany kin wchodzi film science-fiction 2001: Odyseja kosmiczna w reżyserii Stanleya Kubricka. Występuje w nim HAL (Heuristically programmed ALgorithmic computer), czujący komputer. HAL kontroluje systemy statku kosmicznego i wchodzi w interakcje z załogą statku, rozmawiając z nimi tak, jakby HAL był człowiekiem, dopóki awaria nie zmieni interakcji HAL-a w negatywny sposób.

1968: Terry Winograd, profesor informatyki, stworzył SHRDLU, wczesny program komputerowy języka naturalnego.

Sztuczna inteligencja w latach siedemdziesiątych

Podobnie jak lata sześćdziesiąte, lata siedemdziesiąte ustąpiły miejsca przyspieszonemu postępowi, szczególnie skupiającemu się na robotach i automatach. Jednak sztuczna inteligencja w latach 70. stanęła w obliczu wyzwań, takich jak zmniejszone wsparcie rządowe dla badań nad AI.

1970: WABOT-1, pierwszy antropomorficzny robot, został zbudowany w Japonii na Uniwersytecie Waseda. Jego cechy obejmowały ruchome kończyny, zdolność widzenia i zdolność konwersacji.

1973: James Lighthill, matematyk stosowany, zrelacjonował stan badań nad sztuczną inteligencją brytyjskiej Radzie Nauki, stwierdzając: „w żadnej części pola odkrycia dokonane do tej pory nie przyniosły poważnego wpływu, który był wtedy obiecany”, co doprowadziło do znacznie zmniejszonego wsparcia w badaniach nad AI przez rząd brytyjski.

1977: Film reżysera George’a Lucasa „Gwiezdne wojny” zostaje wydany. Film zawiera C-3PO, humanoidalny robot, który został zaprojektowany jako droid protokolarny i jest „biegły w ponad siedmiu milionach form komunikacji.” Jako towarzysz C-3PO, w filmie pojawia się również R2-D2 – mały droid astromech, który nie jest zdolny do ludzkiej mowy (odwrotnie niż C-3PO); zamiast tego, R2-D2 komunikuje się za pomocą elektronicznych sygnałów dźwiękowych. Jego funkcje obejmują drobne naprawy i współpilotowanie myśliwców gwiezdnych.

1979: The Stanford Cart, zdalnie sterowany, wyposażony w telewizor robot mobilny został stworzony przez ówczesnego absolwenta inżynierii mechanicznej Jamesa L. Adamsa w 1961 roku. W 1979 roku, „suwak” lub mechaniczny obrót, który przeniósł kamerę telewizyjną z boku na bok, został dodany przez Hansa Moravec, ówczesnego studenta PhD. Wózek z powodzeniem pokonał wypełniony krzesłami pokój bez ingerencji człowieka w ciągu około pięciu godzin, co czyni go jednym z najwcześniejszych przykładów autonomicznego pojazdu.

AI w latach 80-tych

Gwałtowny rozwój sztucznej inteligencji trwał przez lata 80-te. Pomimo postępów i ekscytacji związanej z AI, ostrożność otaczała nieuniknioną „zimę AI”, okres zmniejszonego finansowania i zainteresowania sztuczną inteligencją.

1980: WABOT-2 został zbudowany na Uniwersytecie Waseda. Ten początek WABOT-a pozwolił humanoidowi komunikować się z ludźmi, a także czytać partytury muzyczne i grać na elektronicznych organach.

1981: Japońskie Ministerstwo Handlu Międzynarodowego i Przemysłu przeznaczyło 850 milionów dolarów na projekt Fifth Generation Computer, którego celem było opracowanie komputerów, które mogłyby konwersować, tłumaczyć języki, interpretować obrazy i wyrażać rozumowanie podobne do ludzkiego.
1984: Film Electric Dreams, w reżyserii Steve Barron, jest zwolniony. Fabuła obraca się wokół trójkąta miłosnego między mężczyzną, kobietą i czującym komputerem osobistym o nazwie „Edgar.”

1984: W Association for the Advancement of Artificial Intelligence (AAAI), Roger Schank (teoretyk AI) i Marvin Minsky (kognitywista) ostrzegają przed zimą AI, pierwszą instancją, w której spadnie zainteresowanie i finansowanie badań nad sztuczną inteligencją. Ich ostrzeżenie spełniło się w ciągu trzech lat.

1986: Mercedes-Benz pod kierunkiem Ernsta Dickmannsa zbudował i wypuścił na rynek furgonetkę bez kierowcy wyposażoną w kamery i czujniki. Była ona w stanie jechać z prędkością do 55 mph na drodze bez innych przeszkód ani ludzkich kierowców.

1988: Informatyk i filozof Judea Pearl opublikował „Probabilistic Reasoning in Intelligent Systems”. Pearlowi przypisuje się również wynalezienie sieci bayesowskich, „probabilistycznego modelu graficznego”, który reprezentuje zbiory zmiennych i ich zależności za pomocą skierowanego grafu acyklicznego (DAG).

1988: Rollo Carpenter, programista i wynalazca dwóch chatbotów, Jabberwacky i Cleverbot (wydanych w latach 90.), opracował Jabberwacky, aby „symulować naturalny ludzki czat w interesujący, zabawny i humorystyczny sposób”. Jest to przykład AI za pośrednictwem chatbota komunikującego się z ludźmi.

AI w latach dziewięćdziesiątych

Koniec tysiąclecia był na horyzoncie, ale to oczekiwanie tylko pomogło sztucznej inteligencji w jej ciągłych etapach rozwoju.

1995: Informatyk Richard Wallace opracował chatbota A.L.I.C.E (Artificial Linguistic Internet Computer Entity), zainspirowanego ELIZĄ Weizenbauma. Tym, co odróżniało A.L.I.C.E. od ELIZA, było dodanie zbierania danych z próbek języka naturalnego.

1997: Informatycy Sepp Hochreiter i Jürgen Schmidhuber opracowali Long Short-Term Memory (LSTM), rodzaj architektury rekurencyjnej sieci neuronowej (RNN) wykorzystywanej do rozpoznawania pisma ręcznego i mowy.
1997: Deep Blue, komputer do gry w szachy opracowany przez IBM stał się pierwszym systemem, który wygrał partię szachów i mecz z panującym mistrzem świata.

1998: Dave Hampton i Caleb Chung wymyślili Furby’ego, pierwszego „zwierzęcego” robota-zabawkę dla dzieci.

1999: W ślad za Furby’m firma Sony wprowadziła AIBO (Artificial Intelligence RoBOt), psa-robota o wartości 2000 USD, stworzonego w celu „uczenia się” poprzez interakcję z otoczeniem, właścicielami i innymi AIBO. Jego funkcje obejmowały zdolność rozumienia i reagowania na ponad 100 poleceń głosowych oraz komunikowania się z ludzkim właścicielem.

AI od 2000-2010

Nowe tysiąclecie było w toku – i po tym, jak obawy związane z Y2K wygasły – AI nadal wykazywała tendencję wzrostową. Zgodnie z oczekiwaniami powstało więcej sztucznie inteligentnych istot, a także kreatywne media (zwłaszcza film) poświęcone koncepcji sztucznej inteligencji i temu, dokąd może ona zmierzać.

2000: Problem Y2K, znany również jako problem roku 2000, był klasą błędów komputerowych związanych z formatowaniem i przechowywaniem danych kalendarza elektronicznego począwszy od 01/01/2000. Biorąc pod uwagę, że całe oprogramowanie internetowe i programy zostały stworzone w 1900 roku, niektóre systemy miałyby problemy z przystosowaniem się do nowego formatu roku 2000 (i nie tylko). Wcześniej te zautomatyzowane systemy musiały zmienić tylko dwie ostatnie cyfry roku; teraz trzeba było przestawić wszystkie cztery cyfry – było to wyzwanie dla technologii i tych, którzy z niej korzystali.

2000: Profesor Cynthia Breazeal opracowała Kismet, robota, który mógł rozpoznawać i symulować emocje za pomocą swojej twarzy. Była ona zbudowana jak ludzka twarz z oczami, ustami, powiekami i brwiami.

2000: Honda wypuszcza ASIMO, sztucznie inteligentnego robota humanoidalnego.

2001: Na ekrany kin wchodzi film science-fiction A.I. Sztuczna inteligencja w reżyserii Stevena Spielberga. Film rozgrywa się w futurystycznym, dystopijnym społeczeństwie i podąża za Davidem, zaawansowanym humanoidalnym dzieckiem, które jest zaprogramowane z antropomorficznymi uczuciami, w tym zdolnością do kochania.

2002: i-Robot wypuszcza Roombę, autonomicznego robota próżniowego, który czyści, unikając przeszkód.

2004: Roboty NASA Spirit i Opportunity poruszają się po powierzchni Marsa bez interwencji człowieka.

2004: Film sci-fi I, Robot, w reżyserii Alexa Proyasa, zostaje wydany. Ustaw w roku 2035, humanoidalne roboty służyć ludzkości, podczas gdy jedna osoba jest zdecydowanie anty-robot, biorąc pod uwagę wynik osobistej tragedii (określone przez robota.)

2006: Oren Etzioni (profesor informatyki), Michele Banko i Michael Cafarella (informatycy), ukuli termin „czytanie maszynowe”, definiując je jako nienadzorowane autonomiczne rozumienie tekstu.

2007: Profesor informatyki Fei Fei Li i współpracownicy zmontowali ImageNet, bazę danych z adnotowanymi obrazami, której celem jest pomoc w badaniach nad oprogramowaniem do rozpoznawania obiektów.
2009: Google potajemnie opracował samochód bez kierowcy. W 2014 r. przeszedł on test samodzielnej jazdy w Nevadzie.

AI od 2010 r. do dziś

Bieżąca dekada była niezwykle ważna dla innowacji AI. Począwszy od 2010 r. sztuczna inteligencja stała się częścią naszej codziennej egzystencji. Używamy smartfonów z asystentami głosowymi i komputerów z funkcjami „inteligencji”, które większość z nas uważa za oczywiste. AI nie jest już mrzonką i nie była nią przez jakiś czas.

2010: ImageNet uruchomił ImageNet Large Scale Visual Recognition Challenge (ILSVRC), ich coroczny konkurs rozpoznawania obiektów AI.

2010: Microsoft wprowadził na rynek Kinect dla konsoli Xbox 360, pierwsze urządzenie do gier, które śledziło ruchy ludzkiego ciała za pomocą kamery 3D i detekcji w podczerwieni.

2011: Watson, komputer odpowiadający na pytania w języku naturalnym, stworzony przez IBM, pokonał w telewizyjnej grze dwóch byłych mistrzów Jeopardy!, Kena Jenningsa i Brada Ruttera.

2011: Firma Apple wydała Siri, wirtualnego asystenta w systemach operacyjnych Apple iOS. Siri wykorzystuje interfejs użytkownika języka naturalnego do wnioskowania, obserwowania, odpowiadania i polecania rzeczy swojemu użytkownikowi. Dostosowuje się do poleceń głosowych i projektuje „zindywidualizowane doświadczenie” dla każdego użytkownika.

2012: Jeff Dean i Andrew Ng (badacze Google) wyszkolili dużą sieć neuronową złożoną z 16 tys. procesorów do rozpoznawania obrazów kotów (mimo braku podania informacji o tle), pokazując jej 10 mln nieoznakowanych obrazów z filmów z YouTube.

2013: Zespół badawczy z Carnegie Mellon University wydał Never Ending Image Learner (NEIL), semantyczny system uczenia maszynowego, który mógł porównywać i analizować relacje obrazów.

2014: Microsoft wydał Cortanę, ich wersję wirtualnego asystenta podobnego do Siri na iOS.

2014: Amazon stworzył Amazon Alexa, asystenta domowego, który rozwinął się w inteligentne głośniki, które pełnią funkcję osobistych asystentów.

Related: Wyświetl 43 statystyki wyszukiwania głosowego, aby zobaczyć, jak popularna jest ta technologia.

2015: Elon Musk, Stephen Hawking i Steve Wozniak wśród 3000 innych osób podpisali list otwarty zakazujący rozwoju i stosowania broni autonomicznej (do celów wojennych.)

2015-2017: AlphaGo firmy Google DeepMind, program komputerowy grający w grę planszową Go, pokonał różnych (ludzkich) mistrzów.

2016: Humanoidalny robot o imieniu Sophia zostaje stworzony przez Hanson Robotics. Jest ona znana jako pierwszy „obywatel-robot”. To, co odróżnia Sophię od poprzednich humanoidów, to jej podobieństwo do rzeczywistego człowieka, z jej zdolnością widzenia (rozpoznawanie obrazu), robienia wyrazów twarzy i komunikowania się za pomocą AI.

2016: Google wydała Google Home, inteligentny głośnik, który wykorzystuje AI do działania jako „osobisty asystent”, aby pomóc użytkownikom w zapamiętywaniu zadań, tworzeniu terminów i wyszukiwaniu informacji za pomocą głosu.

2017: Laboratorium badawcze Facebooka zajmujące się sztuczną inteligencją wyszkoliło dwóch „agentów dialogowych” (chatboty) do komunikowania się ze sobą w celu nauczenia się, jak negocjować. Jednak w trakcie rozmowy chatboty odeszły od języka ludzkiego (zaprogramowanego w języku angielskim) i wymyśliły własny język do komunikacji między sobą – wykazując się w dużym stopniu sztuczną inteligencją.

2018: Alibaba (chińska grupa technologiczna) przetwarzanie języka AI prześcignęła ludzki intelekt w teście czytania i rozumienia w Stanford. Przetwarzanie języka Alibaby uzyskało wynik „82,44 wobec 82,30 na zestawie 100 000 pytań” – niewielka porażka, ale jednak porażka.

2018: Google opracował BERT, pierwszą „dwukierunkową, nienadzorowaną reprezentację językową, która może być stosowana w różnych zadaniach języka naturalnego przy użyciu uczenia się transferowego.”

2018: Samsung wprowadził Bixby, wirtualnego asystenta. Funkcje Bixby’ego obejmują Voice, gdzie użytkownik może mówić i zadawać pytania, rekomendacje i sugestie; Vision, gdzie zdolność „widzenia” Bixby’ego jest wbudowana w aplikację aparatu i może zobaczyć to, co widzi użytkownik (tj. identyfikacja obiektów, wyszukiwanie, zakupy, tłumaczenie, rozpoznawanie punktów orientacyjnych); oraz Home, gdzie Bixby wykorzystuje informacje z aplikacji, aby pomóc w wykorzystaniu i interakcji z użytkownikiem (np. aplikacje pogodowe i fitness.)

Czego oczekiwać od AI w 2019 roku i później?

Postępy sztucznej inteligencji następują w bezprecedensowym tempie. To powiedziawszy, możemy się spodziewać, że trendy z ostatniej dekady będą w nadchodzącym roku nadal piąć się w górę. Kilka rzeczy, na które warto zwrócić uwagę w 2019 roku, to między innymi:

  • Chatboty + wirtualni asystenci: Wzmocniona automatyzacja chatbotów i wirtualnych asystentów dla zwiększenia doświadczenia użytkownika
  • Przetwarzanie języka naturalnego (NLP): Zwiększone możliwości NLP dla sztucznie inteligentnych aplikacji, w tym (a zwłaszcza dla) chatbotów i wirtualnych asystentów
  • Uczenie maszynowe i zautomatyzowane uczenie maszynowe: ML przesunie się w kierunku algorytmów AutoML, aby umożliwić deweloperom i programistom rozwiązywanie problemów bez tworzenia konkretnych modeli
  • Autonomiczne pojazdy: Pomimo złej prasy wokół różnych wadliwych pojazdów samojezdnych, można bezpiecznie założyć, że będzie silniejszy nacisk na automatyzację procesu prowadzenia produktu z punktu A do punktu B, aby 1. zaoszczędzić na kosztach pracy ludzkiej, 2. zoptymalizować proces zakupu-wysyłki-dojazdu do konsumenta za pośrednictwem samojezdnych pojazdów, które – w istocie – nie będą się męczyć za kierownicą

Powiązane: Sprawdź najnowsze statystyki sztucznej inteligencji na rok 2019, aby być na bieżąco z najnowszymi informacjami na temat technologii AI.

Nasz cel? Dotrzymywanie kroku postępom w AI

Aby nadążyć za światem technologii, musimy dotrzymywać kroku innowacjom w sztucznej inteligencji. Od robotów humanoidalnych, takich jak Sophia, po asystentów głośników domowych, takich jak Alexa, AI rozwija się w przyspieszonym tempie. Pewnego dnia ludzie będą mieli sztucznie inteligentnych towarzyszy wykraczających poza zabawki takie jak AIBO czy Furby; pewnego dnia AI i ludzkość mogą współistnieć w sposób, w którym ludzie i humanoidy są od siebie nie do odróżnienia.

A someday?

Someday może być wcześniej niż myślimy.

Ciągle ciekawi Cię wszystko, co związane z AI? Zapoznaj się z trendami 2019 roku w sztucznej inteligencji lub dowiedz się więcej o różnych rodzajach AI, aby zdobyć więcej wiedzy w 2019 roku i później!

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.