Trwa ładowanie...
Zaloguj
Notowania
Przejdź na

Samouczące maszyny i systemy, czyli machine learning i deep learning

0
Podziel się:

W analityce dokonuje się zmiana warty - pojęcie big data, które stało się popularne około 2010 roku, zaczyna ustępować pola nowemu, modnemu trendowi - uczeniu maszynowemu.

Samouczące maszyny i systemy, czyli machine learning i deep learning
(remazteredstudio//pixabay)

Rozwiązania machine learning, stanowiące podstawę sztucznej inteligencji, wykorzystują automatykę do rozpoznawania i uczenia się współzależności, szczególnie w zakresie analityki predykcyjnej i normatywnej (predictive and prescriptive analytics). Uczeniu maszynowemu towarzyszy kilka innych pojęć. Najważniejsze to: sieci neuronowe, deep learning i cognitive computing.

Technologie te stosowane razem nie tylko umożliwią automatyczną i precyzyjną predyktywną analizę gargantuicznej ilości danych, ale w niektórych przypadkach, np. obrotów giełdowych, pozwolą wręcz kreować wydarzenia. Według IDC, w 2020 r. wartość rynku inteligentnych aplikacji przekroczy 40 mld. dol.

Machine learning - silne wsparcie analityki predyktywnej

Uczenie maszynowe jest techniką z obszaru informatyki i modelowania statystycznego, która pozwala aplikacji komputerowej na podstawie samodzielnej analizy - bez konieczności jej zaprogramowania - przewidzenie rezultatu lub podjęcie decyzji.

Technika uczenia maszynowego, która stanowi podstawę sztucznej inteligencji (AI - _ artificial intelligence ), jest ściśle powiązana z analityką danych i programowaniem eksploracji danych ( data mining _). Uczenie maszynowe to działania automatyzujące procesy analityczne, do samouczenia wykorzystujące komputery. Machine learning może być używane do opisowych i diagnostycznych analiz, zwykle jest stosowane z algorytmami predyktywnymi i normatywnymi.

Zarówno machine learning, jak i data mining stosują algorytmy matematyczne do przeszukiwania danych i wyszukiwania wzorców. Uczenie maszynowe wykorzystuje algorytmy do wykrywania wzorców w zbiorach danych i odpowiednio dostosowuje do nich działanie programu. Predykcyjne usługi analityczne oparte na big data i chmurze pomagają programistom i badaczom danych wykorzystywać uczenie maszynowe w nowy sposób.

Procesory Intel są obecnie wykorzystywane w ponad 97% serwerów przetwarzających obciążenia związane z uczeniem maszynowym. Procesor Intel® Xeon® z rodziny E5 to najczęściej używany procesor do obsługi uczenia głębokiego, a niedawno wprowadzony na rynek procesor Intel® Xeon® PhiTM zapewnia skalowalną wydajność potrzebną do _ deep learning _. Intel dostarcza też platformę Nervana, dedykowaną sztucznej inteligencji, zapewniającą wydajną infrastrukturę dla uczenia maszynowego, uczenia głębokiego oraz do przeprowadzania symulacji na potrzeby projektów związanych z autonomicznymi pojazdami.

Deep learning - algorytmy używające sieci neuronowe

Deep learning to jedna z odmian sztucznej inteligencji, podkategoria uczenia maszynowego. Technologia ta polega na tworzeniu sieci neuronowych, których głównym zadaniem jest doskonalenie metod rozpoznawania głosu i przetwarzania naturalnego języka. Upraszczając, głębokie uczenie można potraktować jako sposób na zautomatyzowanie analiz predykcyjnych. Zastosowania deep learning obejmują wszystkie rodzaje aplikacji analitycznych big data, a w szczególności: te skoncentrowane na przetwarzaniu języka naturalnego (NLP - _ natural language processing _), tłumaczeniu języków obcych, diagnostyce medycznej, transakcjach giełdowych, bezpieczeństwie sieci czy rozpoznawaniu obrazów.

Podczas gdy tradycyjne algorytmy uczenia maszynowego mają charakter linearny, algorytmy uczenia głębokiego są ułożone hierarchicznie wedle rosnącej złożoności i abstrakcji. Dane muszą przejść przez kilka warstw przetwarzania, co zadecydowało o użyciu określenia "głębokie" uczenie.

W przypadku tradycyjnego uczenia maszynowego, potrzebne jest wspomaganie programisty, który musi bardzo precyzyjnie określić komputerowi, jakich cech powinien szukać przy rozpoznawaniu danego obiektu. Jest to pracochłonny proces, a sukces komputera zależy od dokładnego zdefiniowania przez programistę zestawu cech dla określonego obiektu. Przewaga głębokiego uczenia polega na tym, że program samodzielnie buduje zestaw cech do rozpoznania. Nie tylko robi to szybciej, ale zazwyczaj bardziej dokładnie.

Auta prowadzone przez algorytmy

W zastosowaniach deep learnig, takich jak samoprowadzące samochody, kluczową rolę odgrywają złożone algorytmy. Google twierdzi, że wypuścił swoje samojezdne auta na publiczne drogi po ponad 1,5 mln mil jazd testowych. I nie chodziło tylko o testowanie. Przejechanie tylu mil miało przede wszystkim na celu doskonalenie algorytmów uczenia maszynowego, które leżą u podstaw decyzji, które potem samodzielnie podejmuje auto. Im więcej kilometrów samochód przejedzie sam, tym więcej doświadczenia zyska. Algorytmy gromadzą dane na temat wszystkiego, w tym warunków pogodowych, działań ludzkich i przedmiotów otaczających samochody. Wykorzystują te dane, aby móc przewidzieć, co zrobi obiekt i zadecydować, jak zareagować. Im więcej danych, tym lepiej.

Czy możemy zatem polegać na algorytmach, wsiadając do pojazdów bez kierownicy, pedałów hamulca i gazu? Wprowadzanie takich samochodów na rynek zapowiedziały m.in. koncerny Forda, General Motors oraz Tesla. Uber od września ub.r. oferuje testowe przejazdy autonomicznymi samochodami w Pittsburghu. Z czasem przekonamy się, czy opinia publiczna zaufa algorytmom. Warto przy tym pamiętać, że pewne rodzaje algorytmów już odgrywają niemałą rolę w naszym codziennym życiu, jak choćby silniki rekomendacji Amazon, które są oparte na mechanizmach uczenia maszynowego.

- Systemy monitorujące zdarzenia na drodze i analizujące natężenie ruchu potrzebują ogromnej ilości danych. Systemy samouczące się pozwolą je interpretować. Przykładem jest rozwiązanie Intel GO, które dzięki wykorzystaniu sztucznej inteligencji pomaga koordynować pracę licznych sensorów i układów odpowiadających za pracę autonomicznego samochodu. W tym roku w system ten zostanie wyposażonych 40 autonomicznych samochodów wyprodukowanych przez BMW – komentuje Aleksandra Bojanowska, PR Manager Poland, Intel.

Słowniczek pojęć

Uczenie maszynowe (_ machine learning _) - zautomatyzowane systemy analityczne, które uczą się wraz z upływem czasu i pozyskiwaniem danych. Często stosują bardziej skomplikowane algorytmy (predykcyjne i normatywne).

Głębokie uczenie (_ deep learning _) - algorytmy związane ze sztuczną inteligencją, wykorzystywane w autonomicznych samochodach, do rozpoznawania obrazów i przy przetwarzaniu języka naturalnego. Zazwyczaj używają sieci neuronowych i innych skomplikowanych algorytmów. Pamięć (np. co działo się wcześniej), argumentacja (jeśli to, wtedy) oraz dbałość o bieżące i przewidywane dane - stanowią ich kluczowe atrybuty.

Systemy kognitywne (_ cognitive computing ) - zazwyczaj samouczące systemy ( self-learning systems _), które wykorzystują zestawy złożonych algorytmów, aby naśladować procesy zachodzące w ludzkim mózgu.

Sztuczna inteligencja (_ artificial intelligence _) - obejmuje takie metody przetwarzania, jak: zaawansowana analiza danych, widzenie komputerowe, przetwarzanie języka naturalnego i uczenie maszynowe; przekształca funkcjonowanie przedsiębiorstw oraz sposób, w jaki ludzie komunikują się ze światem. Uczenie maszynowe, w tym uczenie głębokie (jeden z jego rodzajów), to kluczowa metoda rozszerzenia obszaru zastosowań sztucznej inteligencji.

Szukasz porady? Skontaktuj się z ekspertem z Asseco:
+48 22 574 88 23; e-mail: piotr.fabjaniak@assecods.pl

analityka
intel
Oceń jakość naszego artykułu:
Twoja opinia pozwala nam tworzyć lepsze treści.
KOMENTARZE
(0)