A2C (advantage actor-critic) - rodzaj algorytmu aktor-krytyk.
A3C (asynchronous advantage actor-critic) - rodzaj algorytmu aktor-krytyk.
ADALINE - neuron liniowy. Jego działanie polega na zsumowaniu wszystkich danych wejściowych przemnożonych przez odpowiednie wagi. Do wyniku dodawany jest także skalar zwany biasem.
Adam (adaptive moment estimation) - rodzaj optymalizatora sieci.
AGI (artificial general intelligence) - silna sztuczna inteligencja. Hipotetyczny model, którego założeniem jest stworzenie inteligencji szerokiego zastosowania, która przetwarzałaby dane w sposób podobny lub przewyższający możliwości człowieka.
aktor-krytyk - grupa algorytmów wykorzystująca uczenie ze wzmocnieniem (inaczej: uczenie z krytykiem).
augmentacja danych - technika pozwalająca na zwiększenie zbioru danych poprzez ich losowe zniekształcenia.
autoenkoder - architektura sieci skupiająca cechy przetwarzanych danych. Autoenkodery wykorzystuje się m.in. do tłumaczenia tekstów.
backpropagation - wsteczna propagacja błędów. Algorytm wykorzystywany do aktualizowania wag sieci w trakcie uczenia.
bias - skalar dodawany do odpowiedzi pojedynczych neuronów w celu ich normalizacji.
Boltzmann (maszyna Boltzmanna) - architektura sieci neuronowej służącej do tworzenia stanów ukrytych (tzn. abstrakcyjnych cech, które sieć tworzy w oparciu o dane wejściowe). Z tego względu składa się z dwóch warstw wejściowej i ukrytej. Neurony w obrębie każdej z nich są ze sobą wzajemnie połączone, przez co ten typ sieci jest trudny do zbudowania i trenowania.
CapsNet (Capsule Networks) - rodzaj sieci konwolucyjnych.
CNN (convolutional neural network) - konwolucyjna (inaczej: splotowa) sieć neuronowa. Oprócz połączonych ze sobą warstw neuronów wykorzystuje operację splotu do nakładania na sygnały (najczęściej obrazy) filtrów wyodrębniających ich cechy. Ze względu na swoje własności, sieci konwolucyjne są powszechnie stosowane do rozpoznawania obrazów.
Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/neural_networks/CNN/dogs_vs_cats.ipynb
CycleGAN - rodzaj sieci generatywnej. Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/neural_networks/GAN/cycle_gan.ipynb
D2GAN (Dual Discriminator GAN) - rodzaj sieci generatywnej, wykorzystujący dwa dyskryminatory.
DCGAN (Deep Convolutional GAN) - głęboka konwolucyjna sieć generatywna. Rodzaj sieci GAN, powszechnie stosowany do generowania obrazów.
Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/neural_networks/GAN/dcgan_digits.ipynb
drzewo decyzyjne - struktura klasyfikująca dane w oparciu o to jakie warunki spełniają.
Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/machine_learning/decision_trees/iris_decision_tree.ipynb
GAN (Generative Adversarial Network) - sieć generatywna, tzn. służąca do generowania obrazów, tekstów lub dźwięków o określonych własnościach. W swoim podstawowym wariancie składa się z dwóch sieci konwolucyjnych: generatora i dyskryminatora.
Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/neural_networks/GAN/dcgan_digits.ipynb
GRU (gated recurrent unit) - rodzaj komórki wykorzystywanej w sieciach rekurencyjnych.
Keras - przejęta przez Tensorflow biblioteka uczenia maszynowego.
Kohonen (sieci Kohonena) - patrz: SOM.
las losowy - algorytm oparty o wiele drzew losowych. Wybiera rozwiązanie na drodze losowania najlepszego wśród nich. Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/machine_learning/ensemble_learning/iris_random_forest.ipynb
LSM (liquid state machine) - architektura sieci.
LSTM (long short-term memory) - komórka pamięci krótkotrwałej. Posiada własność zapominania informacji w zależności od czasu. Z tego względu często lepiej sprawdza się w problemach generowania i rozpoznawania tekstu niż prosta komórka rekurencyjna.
MLP (multilayer perceptron) - perceptron wielowarstwowy. Wczesna architektura sieci składająca się co najmniej z trzech warstw: wejściowej, ukrytej i wyjściowej. Jest w stanie rozwiązać problemy klasyfikacji na podstawie specjalnie wyselekcjonowanych danych lub małych obrazów. Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/neural_networks/MLP/digit_recognition.ipynb
Monte Carlo (MC) - zbiór metod probabilistycznych wykorzystywany w algorytmach aktor-krytyk.
OpenCV - popularna biblioteka widzenia maszynowego.
RBM (Restricted Boltzmann Machine) - restrykcyjna maszyna Boltzmanna. Architektura sieci, będąca uproszczeniem maszyny Boltzmanna. Tak jak ona składa się z dwóch warstw: wejściowej i ukrytej, natomiast neurony nie są połączone wewnątrz tych warstw, co przekłada się na praktyczność.
RNN (recurrent neural network) - rekurencyjna sieć neuronowa. Wykorzystuje komórki rekurencyjne, w których odpowiedź nierzadko trafia z powrotem na wejście. Są stosowane do analizy danych, których znaczącą rolę odgrywa przebieg czasu.
Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/neural_networks/RNN/review_classifier.ipynb
RRU (rated recurrent unit) - rodzaj komórki wykorzystywanej w sieciach rekurencyjnych.
SOM (self-organizing map) - mapa samoorganizująca się, inaczej sieć Kohonena. Struktura sieci charatekryzująca się tym, że jeden neuron jest połączony ze wszystkimi innymi.
SRU (simple recurrent unit) - podstawowa komórka rekurencyjna.
SVM (support vector machine) - maszyna wektorów nośnych.
Tensorflow - biblioteka uczenia maszynowego.
Transfer Learning - przeniesienie wyuczonych wag pomiędzy dwiema sieciami.
Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/computer_vision/tensorflow_hub/tf_hub.ipynb
YOLO (You only look once) - skuteczny algorytm szeroko wykorzystywany w rozpoznawaniu obrazu. Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/computer_vision/yolo/yolo_darknet.ipynb
A3C (asynchronous advantage actor-critic) - rodzaj algorytmu aktor-krytyk.
ADALINE - neuron liniowy. Jego działanie polega na zsumowaniu wszystkich danych wejściowych przemnożonych przez odpowiednie wagi. Do wyniku dodawany jest także skalar zwany biasem.
Adam (adaptive moment estimation) - rodzaj optymalizatora sieci.
AGI (artificial general intelligence) - silna sztuczna inteligencja. Hipotetyczny model, którego założeniem jest stworzenie inteligencji szerokiego zastosowania, która przetwarzałaby dane w sposób podobny lub przewyższający możliwości człowieka.
aktor-krytyk - grupa algorytmów wykorzystująca uczenie ze wzmocnieniem (inaczej: uczenie z krytykiem).
augmentacja danych - technika pozwalająca na zwiększenie zbioru danych poprzez ich losowe zniekształcenia.
autoenkoder - architektura sieci skupiająca cechy przetwarzanych danych. Autoenkodery wykorzystuje się m.in. do tłumaczenia tekstów.
backpropagation - wsteczna propagacja błędów. Algorytm wykorzystywany do aktualizowania wag sieci w trakcie uczenia.
bias - skalar dodawany do odpowiedzi pojedynczych neuronów w celu ich normalizacji.
Boltzmann (maszyna Boltzmanna) - architektura sieci neuronowej służącej do tworzenia stanów ukrytych (tzn. abstrakcyjnych cech, które sieć tworzy w oparciu o dane wejściowe). Z tego względu składa się z dwóch warstw wejściowej i ukrytej. Neurony w obrębie każdej z nich są ze sobą wzajemnie połączone, przez co ten typ sieci jest trudny do zbudowania i trenowania.
CapsNet (Capsule Networks) - rodzaj sieci konwolucyjnych.
CNN (convolutional neural network) - konwolucyjna (inaczej: splotowa) sieć neuronowa. Oprócz połączonych ze sobą warstw neuronów wykorzystuje operację splotu do nakładania na sygnały (najczęściej obrazy) filtrów wyodrębniających ich cechy. Ze względu na swoje własności, sieci konwolucyjne są powszechnie stosowane do rozpoznawania obrazów.
Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/neural_networks/CNN/dogs_vs_cats.ipynb
CycleGAN - rodzaj sieci generatywnej. Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/neural_networks/GAN/cycle_gan.ipynb
D2GAN (Dual Discriminator GAN) - rodzaj sieci generatywnej, wykorzystujący dwa dyskryminatory.
DCGAN (Deep Convolutional GAN) - głęboka konwolucyjna sieć generatywna. Rodzaj sieci GAN, powszechnie stosowany do generowania obrazów.
Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/neural_networks/GAN/dcgan_digits.ipynb
drzewo decyzyjne - struktura klasyfikująca dane w oparciu o to jakie warunki spełniają.
Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/machine_learning/decision_trees/iris_decision_tree.ipynb
GAN (Generative Adversarial Network) - sieć generatywna, tzn. służąca do generowania obrazów, tekstów lub dźwięków o określonych własnościach. W swoim podstawowym wariancie składa się z dwóch sieci konwolucyjnych: generatora i dyskryminatora.
Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/neural_networks/GAN/dcgan_digits.ipynb
GRU (gated recurrent unit) - rodzaj komórki wykorzystywanej w sieciach rekurencyjnych.
Keras - przejęta przez Tensorflow biblioteka uczenia maszynowego.
Kohonen (sieci Kohonena) - patrz: SOM.
las losowy - algorytm oparty o wiele drzew losowych. Wybiera rozwiązanie na drodze losowania najlepszego wśród nich. Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/machine_learning/ensemble_learning/iris_random_forest.ipynb
LSM (liquid state machine) - architektura sieci.
LSTM (long short-term memory) - komórka pamięci krótkotrwałej. Posiada własność zapominania informacji w zależności od czasu. Z tego względu często lepiej sprawdza się w problemach generowania i rozpoznawania tekstu niż prosta komórka rekurencyjna.
MLP (multilayer perceptron) - perceptron wielowarstwowy. Wczesna architektura sieci składająca się co najmniej z trzech warstw: wejściowej, ukrytej i wyjściowej. Jest w stanie rozwiązać problemy klasyfikacji na podstawie specjalnie wyselekcjonowanych danych lub małych obrazów. Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/neural_networks/MLP/digit_recognition.ipynb
Monte Carlo (MC) - zbiór metod probabilistycznych wykorzystywany w algorytmach aktor-krytyk.
OpenCV - popularna biblioteka widzenia maszynowego.
RBM (Restricted Boltzmann Machine) - restrykcyjna maszyna Boltzmanna. Architektura sieci, będąca uproszczeniem maszyny Boltzmanna. Tak jak ona składa się z dwóch warstw: wejściowej i ukrytej, natomiast neurony nie są połączone wewnątrz tych warstw, co przekłada się na praktyczność.
RNN (recurrent neural network) - rekurencyjna sieć neuronowa. Wykorzystuje komórki rekurencyjne, w których odpowiedź nierzadko trafia z powrotem na wejście. Są stosowane do analizy danych, których znaczącą rolę odgrywa przebieg czasu.
Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/neural_networks/RNN/review_classifier.ipynb
RRU (rated recurrent unit) - rodzaj komórki wykorzystywanej w sieciach rekurencyjnych.
SOM (self-organizing map) - mapa samoorganizująca się, inaczej sieć Kohonena. Struktura sieci charatekryzująca się tym, że jeden neuron jest połączony ze wszystkimi innymi.
SRU (simple recurrent unit) - podstawowa komórka rekurencyjna.
SVM (support vector machine) - maszyna wektorów nośnych.
Tensorflow - biblioteka uczenia maszynowego.
Transfer Learning - przeniesienie wyuczonych wag pomiędzy dwiema sieciami.
Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/computer_vision/tensorflow_hub/tf_hub.ipynb
YOLO (You only look once) - skuteczny algorytm szeroko wykorzystywany w rozpoznawaniu obrazu. Zobacz przykład: https://github.com/PsorTheDoctor/Sekcja-SI/blob/master/computer_vision/yolo/yolo_darknet.ipynb
Komentarze
Prześlij komentarz