A neurális hálózatok ötlete sem mai, egészen 1943-ig kell visszautaznunk az időben. McCulloch és Walter Pitts matematikusok álmodták meg először a perceptront, ami egy neuronra emlékeztető logikai kapu.

1958-ban Frank Rosenblatt perceptron gépet épített -- fizikait, aminek csak "step function" volt az aktiváló függvénye. 20x20 fotocellás volt, ezek voltak hozzákötve 1-1 perceptronhoz és várták a csodát.

Abban az időben a New York Times írt arról, hogy hamarosan beszélő, járkáló gépeket látunk, de persze nem lett az egészből semmi.

Nem tett jót az AI területnek az sem, hogy 1969-ben megjelent egy könyv Marvin Minsky és Seymour Papert tollából, amelyet sokan félre értettek, vagy az írók szerették volna hogy félre legyen értve. Leírták, hogy egy darab perceptron, (illetve single layer) nem tudja az XOR logikai függvényt, azaz csak lineárisan szeparálható problémákat lehet vele megoldani. Ebből azt a következtetést vonták le az olvasók, hogy ez hatalmas limitáció ezért nem foglalkoztak vele (de ezt én nem tartom valószínűleg, ez a könyv nem annyira mainstream hogy az olvasói csak úgy félre értsék...)

De pl. többrétegű perceptronnal már meg lehet oldani a XOR-t és tulajdonképpen bármit, és a könyv is leírta... illetve McCulloch és Rosenblatt arra is adott példát annak idején még 1943-ban, hogyan lehet turing gépet építeni belőlük (egy matematikai model és egy kvázi bizonyítás arra, hogy bármilyen algoritmus elkészíthető vele)

Hogyan lett ebből modern deep learning? Kiderül a tanfolyamból!

  • Szükséges előismeretek!

    A tanfolyam nem épít semmilyen programozási vagy mesterséges intelligencia előismeretre.

  • Kinek ajánljuk?

    Aki szeretne megismerkedni a kor egyik legnagyobb vívmányával a deep learninggel és annak történetével.

  • Mit tanulsz meg?

    Megtudod honnan jöttek a neurális hálók és mi az a deep learning. Közben megtanulod a jelölés rendszert és az alapvető működését.

Témakörök

  1. 1
    • 1. Mi az a perceptron?

    • 2. Precízebb leirása

    • 3. Frank Rosenblatt és perceptron gép

    • 4. Másik jelölés bevezetése, Threshold helyett bias

    • 5. Bias átalakított ábrázolása

    • 6. Percepton algoritmus

    • 7. Kétrétegű hálózat

    • 8. AI winter

    • 9. Xor lineárisan nem szeparálható

    • 10. Több rétegű hálózatot nem lehet tanítani

    • 11. Backpropagation

    • 12. Alexnet és ReLU

Oktató

AI expert

Péter Litkei

Engem már teljesen besszipantott a mesterséges intelligencia, pontosabban a deep learning világa. 2012-től kezdődően a legtöbb szolgáltatás használ valamiféle neurális hálót, - kép és beszédfelismerők, google translate, önvezető autók és mire te ezt olvasod valószínűleg a barátod/barátnőd is :) - a jövő egyértelműen ez.