Sztuczna inteligencja, SI, AI (ang. artificial intelligence) – inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.
Termin „sztuczna inteligencja” wymyślił John McCarthy w 1956 na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako „zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie”. Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.
Sztuczna inteligencja ma dwa podstawowe znaczenia:
jest to hipotetyczna inteligencja realizowana w procesie technicznym, a nie naturalnym;
jest to nazwa technologii i dziedzina badań naukowych informatyki i kognitywistyki czerpiąca także z osiągnięć psychologii, neurologii, matematyki i filozofii.
Głównym zadaniem badań nad sztuczną inteligencją w drugim znaczeniu jest konstruowanie maszyn i programów komputerowych zdolnych do realizacji wybranych funkcji umysłu i ludzkich zmysłów, niepoddających się numerycznej algorytmizacji. Problemy takie bywają nazywane AI-trudnymi i zalicza się do nich między innymi:
podejmowanie decyzji w warunkach braku wszystkich danych,
analiza i synteza języków naturalnych,
rozumowanie logiczne/racjonalne,
automatyczne dowodzenie twierdzeń,
komputerowe gry logiczne, np. szachy, go,
inteligentne roboty,
systemy eksperckie i diagnostyczne.
Sztuczna inteligencja jest powiązana z obszarami uczenia maszynowego, logiki rozmytej, widzenia komputerowego, obliczeń ewolucyjnych, sieci neuronowych, robotyki i sztucznego życia.
Algorytmy sztucznej inteligencji często określane są mianem czarnej skrzynki, z powodu trudności w zrozumieniu ich działania, gdy ilość danych i parametrów jest duża. W przypadku, gdy mamy mały model, zrozumienie zasady działania nie sprawia problemu. Jednak gdy ilość danych i parametrów się zwiększa, jest to praktycznie niemożliwe, aby zrozumieć, w jaki sposób te algorytmy podejmują decyzje. Były jednak próby opracowania matematycznej teorii, jak naprawdę działają te algorytmy (sieci neuronowe), z uwzględnieniem modelu GPT.
== Techniki ==
=== Sieci neuronowe ===
Sieć neuronowa opiera się na zbiorze połączeń, znanych również jako sztuczne neurony, które stanowią analogię neuronów w biologicznym mózgu. Jest ona trenowana do rozpoznawania wzorców, a po przeszkoleniu może rozpoznawać te wzorce w świeżych danych. W najprostszej postaci posiada wejście, co najmniej jedną ukrytą warstwę połączeń i wyjście. Każde połączenie posiada funkcję aktywacji, która pozwala na przesyłane informacji do następnej warstwy. Sieć jest zazwyczaj nazywana głęboką siecią neuronową, jeśli ma co najmniej 2 ukryte warstwy.
Jednokierunkowe sieci neuronowe pozwalają na przesył informacji tylko w jednym kierunku. Rekurencyjne sieci neuronowe łączy z sobą wyjście z wejściem, co pozwala na tworzenie pamięci krótkotrwałej, a najbardziej popularnym rodzajem tych sieci jest długa pamięć krótkotrwała. Konwolucyjne sieci neuronowe skupiają się na połączeniach pomiędzy neuronami, które są blisko siebie, co jest krytyczne w przetwarzaniu obrazów.
=== Uczenie głębokie ===
Uczenie głębokie używa wielu warstw sieci neuronowej, dzięki czemu możliwe jest operowanie na cechach wysokiego poziomu. Dla przykładu, w przetwarzaniu obrazu, niższe warstwy (bliżej wejścia) mogą wykrywać krawędzie natomiast wyższe warstwy (bliżej wyjścia) mogą przetwarzać koncepcje bliższe ludziom jak liczby, litery czy twarze.
=== Transformery ===
Architektura transformera, zaproponowana przez zespół Google w 2017 roku, opiera się na mechanizmie uwagi (ang. attention mechanism), który pozwala modelowi na jednoczesne przetwarzanie wszystkich elementów sekwencji wejściowej i dynamiczne ważenie ich wzajemnych relacji. W odróżnieniu od rekurencyjnych sieci neuronowych transformery przetwarzają dane równolegle, co umożliwia szkolenie na znacznie większych zbiorach danych. Architektura ta stała się podstawą zarówno dużych modeli językowych (GPT, Claude, Gemini), jak i modeli generujących obrazy (DALL-E, Stable Diffusion).
=== Duże modele językowe ===
Duże modele językowe (LLM) jak wstępnie przeszkolony transformator generatywny (GPT) generują tekst oparty na związkach semantycznych pomiędzy słowami i zdaniami. Tekstowe duże modele językowe bazują na dużym korpusie pobranym z różnych stron w Internecie. Wstępny trening polega na nauczeniu predykcji następnego tokena, po czym następuje docelowy trening mający na celu poprawę użyteczności, wiarygodności i bezpieczeństwa. Do tego celu stosowana jest technika RLHF. Według stanu na 2025 rok LLM-y są podatne na generowanie fałszywych informacji nazywanych halucynacjami, a sam problem potrafi się pogarszać w miarę używania tych modeli do rozumowania.
== Historia badań ==
W 1950 roku Alan Mathison Turing zaproponował, by możliwość udawania człowieka w zdalnej rozmowie uznać za test inteligencji maszyn (test Turinga). W latach 50. XX wieku zorganizowano pierwsze seminarium poświęcone SI (tzw. Warsztaty w Dartmouth), a także powstało pierwsze laboratorium AI na Carnegie Mellon University, założone przez Allena Newella i Herberta Simona i kilka lat później analogiczne laboratorium w Massachusetts Institute of Technology, założone przez Johna McCarthy’ego.
Termin „sztuczna inteligencja” został po raz pierwszy zaproponowany prawdopodobnie przez Johna McCarthy’ego, który w 1955 r. zdefiniował go w następujący sposób:
„konstruowanie maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawów inteligencji”.
Istnieją dwa podstawowe podejścia do pracy nad SI:
Pierwsze to tworzenie modeli matematyczno-logicznych analizowanych problemów i implementowanie ich w formie programów komputerowych, mających realizować konkretne funkcje uważane powszechnie za składowe inteligencji. W tej grupie, tzw. podejścia symbolicznego, są np. algorytmy genetyczne, metody logiki rozmytej i wnioskowania bazującego na doświadczeniu.
Drugie to podejście subsymboliczne, polegające na tworzeniu struktur i programów „samouczących się”, bazujących na modelach sieci neuronowej i sieci asocjacyjnych, oraz opracowywanie procedur „uczenia” takich programów, rozwiązywania postawionych im zadań i szukania odpowiedzi na wybrane klasy „pytań”.
W trakcie wieloletniej pracy laboratoriów i zespołów SI stosujących oba podejścia do problemu postęp okazywał się nierównomierny, z okresami szybkiego rozwoju i tzw. zimami AI. Często mimo niepowodzeń w osiąganiu pierwotnych celów, laboratoria te wypracowywały nowe techniki informatyczne, które okazywały się użyteczne do zupełnie innych celów. Przykładami takich technik są np. języki programowania LISP i Prolog. Laboratoria SI stały się też „rozsadnikiem” kultury hakerskiej.
W latach 80. XX wieku popularność zyskały systemy eksperckie, które wykorzystywały ręcznie kodowane reguły do rozwiązywania problemów w wąskich dziedzinach. Po okresie rozczarowania ich ograniczeniami (tzw. druga zima AI na przełomie lat 80. i 90.) badania przesunęły się w kierunku metod statystycznych i uczenia maszynowego.
Przełom nastąpił w 2012 roku, gdy sieć neuronowa AlexNet wygrała konkurs ImageNet Large Scale Visual Recognition Challenge z przewagą ponad 10 punktów procentowych nad metodami tradycyjnymi, co zapoczątkowało erę dominacji uczenia głębokiego. Za wkład w rozwój uczenia głębokiego Geoffrey Hinton, Yann LeCun i Yoshua Bengio otrzymali Nagrodę Turinga w 2018 roku. Kolejnymi kamieniami milowymi były: pokonanie mistrza świata w Go przez program AlphaGo (2016), opublikowanie architektury transformera (2017) oraz rozwój coraz większych dużych modeli językowych, takich jak GPT-3 (2020) i GPT-4 (2023).
Sztuczna inteligencja zyskała szeroką rozpoznawalność publiczną po uruchomieniu ChatGPT w listopadzie 2022 roku; w ciągu dwóch miesięcy serwis osiągnął 100 milionów użytkowników.
94 proc. polskich specjalistów i specjalistek IT o różnych poziomach doświadczenia wykorzystuje narzędzia SI w codziennej pracy, natomiast 28,7 proc. obawia się, że w ciągu najbliższych kilku lat sztuczna inteligencja zastąpi ich w pracy.
Od czasów powstania ChatGPT trwa intensywna rywalizacja między firmami technologicznymi o dominację na rynku dużych modeli językowych. Najnowsze rozwiązania związane z tymi modelami to agenty AI, które dają możliwość wykonywania czynności, zazwyczaj poprzez komunikację z aplikacjami internetowymi oraz protokół MCP stworzony przez firmę Anthropic, który ułatwia komunikację modeli językowych z zewnętrznymi systemami lub usługami.
== Zastosowania ==
Sztuczna inteligencja jest stosowana od dekad w różnych dziedzinach gospodarki. W 1980 rynek AI miał rozmiar liczony w setkach milionów dolarów, a w roku 1988 był szacowany na miliardy dolarów i głównie skupiał się na zastosowaniach systemów eksperckich. W latach 90. XX wieku znajdowano coraz więcej zastosowań dla AI w technologiach informacyjnych takich jak robotyka przemysłowa, aplikacje bankowe, diagnostyka medyczna, rozpoznawanie mowy czy wyszukiwarka Google. Kolejne dekady przyniosły dalsze zastosowania sztucznej inteligencji wraz z rosnącą mocą obliczeniową komputerów i wypracowaniem bardziej zaawansowanych technik. Lata dwudzieste XXI wieku przyniosły ekspansję AI .
W 2024 szacowano, że sztuczna inteligencja będzie miała wpływ na wzrost PKB w wysokości od 1,1 do 1,6% w przeciągu 10 lat. W 2024 roku w Polsce 5.9% przedsiębiorstw wykorzystywało AI, wskaźnik ten był
📊
Mapa Powiązań
Neural_Network // Co-Mentioned_Entities
📰
Najnowsze Wzmianki
Live_Feed // 1 artykułów
>_ inwestycje w AI
Organizacja // Entity_Profile
[DATA] Sztuczna inteligencja, SI, AI (ang. artificial intelligence) – inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna intelig
[METRICS] Encja posiada 1 wzmianek w bazie oraz 1 powiązanych artykułów. Trust Score: 50/100.
Wersja statyczna dla wyszukiwarek. Pełna wersja interaktywna z grafiką dostępna po włączeniu JavaScript.