
Data: 2025.01.31 | Kategoria: Blog | Tagi: AI , sztuczna inteligencja , SI , sieci neuronowe , glebokie uczenie , deep learning , LLM , test Turinga , chatGPT , Deepseek

Prace nad sieciami neuronowymi zaczÄĹy siÄ w latach 40. XX wieku od modeli teoretycznych, ale ich prawdziwy rozwój nastÄ piĹ dopiero w ostatnich dwóch dekadach dziÄki postÄpowi w mocy obliczeniowej, duĹźym zbiorom danych i algorytmom takim jak backpropagation. DziĹ sieci neuronowe sÄ sercem rewolucji AI, napÄdzajÄ c wszystko od autonomicznych samochodów po zaawansowane systemy jÄzykowe.
1943: Model McCullocha-Pittsa
Neurobiolog Warren McCulloch i matematyk Walter Pitts stworzyli pierwszy matematyczny model neuronu, inspirowany biologicznym ukĹadem nerwowym. ByĹ to fundament teoretyczny dla sieci neuronowych.
Neuron dziaĹaĹ na zasadzie binarnej: aktywowaĹ siÄ, gdy suma sygnaĹów wejĹciowych przekroczyĹa próg.
1949: ReguĹa Hebba
Donald Hebb zaproponowaĹ teoriÄ uczenia siÄ opartÄ
na wzmacnianiu poĹÄ
czeĹ miÄdzy neuronami ("komórki, które aktywujÄ
siÄ razem, ĹÄ
czÄ
siÄ razem").
1950: Test Turinga
Alan Turing w pracy "Computing Machinery and Intelligence" zasugerowaĹ, Ĺźe maszyny mogÄ
naĹladowaÄ ludzkÄ
inteligencjÄ. ZaproponowaĹ test Turinga jako sposób na jej ocenÄ.
1956: Dartmouth Conference
Termin "sztuczna inteligencja" zostaĹ oficjalnie uĹźyty podczas konferencji w Dartmouth College, zorganizowanej przez Johna McCarthy’ego, Marvina Minsky’ego i innych. To uznaje siÄ za poczÄ
tek AI jako dziedziny naukowej.
1957: Perceptron Rosenblatta
Frank Rosenblatt stworzyĹ perceptron – pierwszÄ
sieÄ neuronowÄ
zdolnÄ
do uczenia siÄ prostych zadaĹ klasyfikacji (np. rozpoznawania ksztaĹtów).
Perceptron wykorzystywaĹ reguĹÄ delta do aktualizacji wag.
W 1958 roku zademonstrowano Mark I Perceptron – maszynÄ analogowÄ do rozpoznawania obrazów.
1969: Krytyka perceptronu
Marvin Minsky i Seymour Papert w ksiÄ
Ĺźce "Perceptrons" udowodnili, Ĺźe jednowarstwowe perceptrony nie radzÄ
sobie z problemami nieliniowymi (np. funkcja XOR). To doprowadziĹo do pierwszej zimy AI – spadku finansowania badaĹ nad sieciami neuronowymi.
Lata 70.: Dominacja systemów ekspertowych
W tym czasie dominowaĹy symboliczne podejĹcia do AI (systemy ekspertowe, logika rozmyta), a sieci neuronowe zostaĹy zmarginalizowane.
1974: Algorytm backpropagation
Paul Werbos zaproponowaĹ propagacjÄ wstecznÄ
(backpropagation) – kluczowy algorytm treningu wielowarstwowych sieci neuronowych. Jednak jego praca nie zostaĹa poczÄ
tkowo doceniona.
1982: Sieci Hopfielda
John Hopfield zaprojektowaĹ sieÄ Hopfielda, która potrafiĹa przechowywaÄ i odtwarzaÄ wzorce (inspiracja dla pamiÄci asocjacyjnej).
1986: PrzeĹom w backpropagation
David Rumelhart, Geoffrey Hinton i Ronald Williams udoskonalili backpropagation, co umoĹźliwiĹo trening gĹÄbszych sieci. To odrodziĹo zainteresowanie sieciami neuronowymi.
1989: Uczenie gĹÄbokie
Yann LeCun wykorzystaĹ konwolucyjne sieci neuronowe (CNN) do rozpoznawania cyfr pisanych (system LeNet). ByĹ to kamieĹ milowy w gĹÄbokim uczeniu.
Lata 90.: Kryzys finansowania
Ponowne rozczarowanie wynikami AI (ograniczenia mocy obliczeniowej i danych) – druga zima AI.
1997: LSTM
Sepp Hochreiter i Jürgen Schmidhuber opracowali Long Short-Term Memory (LSTM) – rodzaj sieci rekurencyjnej (RNN) do przetwarzania sekwencji.
2006: GĹÄbokie uczenie siÄ
Geoffrey Hinton, Yoshua Bengio i Yann LeCun opublikowali przeĹomowe prace, udowadniajÄ
c, Ĺźe gĹÄbokie sieci neuronowe moĹźna skutecznie trenowaÄ, inicjujÄ
c erÄ deep learningu.
2012: AlexNet
ZespóĹ Hintona wygraĹ konkurs ImageNet z sieciÄ
AlexNet (CNN), osiÄ
gajÄ
c znacznie lepsze wyniki niĹź tradycyjne metody. To zapoczÄ
tkowaĹo boom na gĹÄbokie uczenie.
2014: Generative Adversarial Networks (GAN)
Ian Goodfellow wprowadziĹ GAN-y – sieci generatywne zdolne do tworzenia realistycznych obrazów.
2017: Transformers
Praca "Attention Is All You Need" Vaswaniego i innych wprowadziĹa architekturÄ Transformer, która zrewolucjonizowaĹa NLP (modele jak BERT, GPT).
2020–2023: Wielkoskalowe modele
Modele jÄzykowe jak GPT-3/4, PaLM czy DALL-E pokazaĹy moĹźliwoĹci AI w generowaniu tekstu, obrazów i kodu.
Etyka AI: Walka z biasem, dezinformacjÄ (np. deepfake’i) i kontrolÄ nad AGI (Artificial General Intelligence).
Obliczenia kwantowe: PotencjaĹ do przyspieszenia treningu sieci.
Neuromorficzne chipy: SprzÄt inspirowany mózgiem (np. projekty Intela i IBM).
Zapraszamy do współpracy