568678
Książka
W koszyku
Metody i techniki sztucznej inteligencji / Leszek Rutkowski. - Wydanie 2 zmienione - 3 dodruk - Warszawa : Wydawnictwo Naukowe PWN, 2012. - 451 stron : ilustracje ; 24 cm.
(Informatyka - Zastosowania)
Nowe rozszerzone kompendium wiedzy o systemach inteligentnych!Podręcznik prezentuje nowoczesne podejście do obliczeń inteligentnych. Przedstawiono w nim rys historyczny rozwoju sztucznej inteligencji, jej zastosowania w życiu codziennym człowieka oraz prognozę dalszego jej rozwoju.Omawia szeroki zakres inteligentnych struktur decyzyjnych i algorytmów uczenia maszynowego - przedstawia metody wnioskowania wykorzystujące zbiory przybliżone, zbiory rozmyte, sieci neuronowe oraz algorytmy uczenia propagacji wstecznej, najmniejszych kwadratów, ewolucyjne oraz algorytmy grupowania danych. Autorowi udało się optymalnie wyważyć treść książki uzyskując doskonałą proporcję pomiędzy wysokim poziomem teoretycznym opisu, a łatwością przyswojenia prezentowanych metod. Książka jest napisana przystępnie i klarownie. Zrozumienie i przyswojenie treści znacznie ułatwia wiele przykładów ilustrujących wprowadzane koncepcje teoretyczne.dr hab. inż. Wojciech Jędruch, Politechnika GdańskaWalorem dydaktycznym drugiego wydania są dodane przez Autora po każdym rozdziale zadania do samodzielnego rozwiązania.
Wstęp 1 * 2. Wybrane zagadnienia sztucznej inteligencji 5 * 2.1. Wprowadzenie 5 * 2.2. Rys historyczny sztucznej inteligencji 5 * 2.3. Systemy ekspertowe 7 * 2.4. Robotyka 8 * 2.5. Przetwarzanie mowy i języka naturalnego 10 * 2.6. Heurystyki i strategie poszukiwań 12 * 2.7. Kognitywistyka 13 * 2.8. Inteligencja mrówek 14 * 2.9. Sztuczne życie 15 * 2.10. Boty 17 * 2.11. Perspektywy rozwoju sztucznej inteligencji 18 * 2.12. Uwagi 19 * 3. Metody reprezentacji wiedzy z wykorzystaniem zbiorów przybliżonych 20 * 3.1. Wprowadzenie 20 * 3.2. Pojęcia podstawowe 21 * 3.3. Aproksymacja zbioru 28 * 3.4. Aproksymacja rodziny zbiorów 36 * 3.5. Analiza tablic decyzyjnych 38 * 3.6. Zastosowanie programu LERS 45 * 3.7. Uwagi 50 * Zadania 52 * 4. Metody reprezentacji wiedzy z wykorzystaniem zbiorów rozmytych typu 1 54 * 4.1. Wprowadzenie 54 * 4.2. Podstawowe pojęcia i definicje teorii zbiorów rozmytych 54 * 4.3. Operacje na zbiorach rozmytych 65 * 4.4. Zasada rozszerzania 71 * 4.5. Liczby rozmyte 74 * 4.6. Normy trójkątne i negacje 81 * 4.7. Relacje rozmyte i ich właściwości 92 * 4.8. Przybliżone wnioskowanie 96 * 4.8.1. Podstawowe reguły wnioskowania w logice dwuwartościowej 96 * 4.8.2. Podstawowe reguły wnioskowania w logice rozmytej 97 * 4.8.3. Reguły wnioskowania dla modelu Mamdaniego 101 * 4.8.4. Reguły wnioskowania dla modelu logicznego 102 * 4.9. Rozmyte systemy wnioskujące 105 * 4.9.1. Baza reguł 106 * 4.9.2. Blok rozmywania 107 * 4.9.3. Blok wnioskowania 107 * 4.9.4. Blok wyostrzania 114 * 4.10. Zastosowania zbiorów rozmytych 116 * 4.10.1. Rozmyta metoda Delphi 116 * 4.10.2. Ważona rozmyta metoda Delphi 119 * 4.10.3. Rozmyta metoda PERT 120 * 4.10.4. Podejmowanie decyzji w otoczeniu rozmytym 123 * 4.11. Uwagi 133 * Zadania 133 * 5. Metody reprezentacji wiedzy z wykorzystaniem zbiorów rozmytych typu 2 137 * 5.1. Wprowadzenie 137 * 5.2. Podstawowe definicje 138 * 5.3. Ślad niepewności 141 * 5.4. Osadzone zbiory rozmyte 142 * 5.5. Podstawowe operacje na zbiorach rozmytych typu 2 144 * 5.6. Relacje rozmyte typu 2 149 * 5.7. Redukcja typu 151 * 5.8. Rozmyte systemy wnioskujące typu 156 * 5.8.1. Blok rozmywania 156 * 5.8.2. Baza reguł 158 * 5.8.3. Blok wnioskowania 158 * 5.9. Uwagi 163 * Zadania 163 * 6. Sieci neuronowe i algorytmy ich uczenia 166 * 6.1. Wprowadzenie 166 * 6.2. Neuron i jego modele 166 * 6.2.1. Budowa i działanie pojedynczego neuronu 166 * 6.2.2. Perceptron 168 * 6.2.3. Model Adaline 174 * 6.2.4. Model neuronu sigmoidalnego 179 * 6.2.5. Model neuronu Hebba 184 * 6.3. Sieci jednokierunkowe wielowarstwowe 185 * 6.3.1. Budowa i działanie sieci 185 * 6.3.2. Algorytm wstecznej propagacji błędów 187 * 6.3.3. Algorytm wstecznej propagacji błędów z członem momentum 194 * 6.3.4. Algorytm zmiennej metryki 195 * 6.3.5. Algorytm Levenberga–Marquardta 196 * 6.3.6. Rekurencyjna metoda najmniejszych kwadratów 198 * 6.3.7. Dobór architektury sieci 200 * 6.4. Sieci rekurencyjne 206 * 6.4.1. Sieć Hopfielda 207 * 6.4.2. Sieć Hamminga 210 * 6.4.3. Sieci wielowarstwowe ze sprzężeniem zwrotnym 212 * 6.4.4. Sieć BAM 212 * 6.5. Sieci samoorganizujące się z konkurencją 213 * 6.5.1. Sieci typu WTA 214 * 6.5.2. Sieci typu WTM 219 * 6.6. Sieci typu ART 223 * 6.7. Sieci radialne 227 * 6.8. Probabilistyczne sieci neuronowe 232 * 6.9. Uwagi 234 * Zadania 235 * 7. Algorytmy ewolucyjne 237 * 7.1. Wprowadzenie 237 * 7.2. Problemy optymalizacji a algorytmy ewolucyjne 238 * 7.3. Rodzaje algorytmow zaliczanych do algorytmow ewolucyjnych 239 * 7.3.1. Klasyczny algorytm genetyczny 240 * 7.3.2. Strategie ewolucyjne 258 * 7.3.3. Programowanie ewolucyjne 274 * 7.3.4. Programowanie genetyczne 274 * 7.4. Zaawansowane techniki w algorytmach ewolucyjnych 277 * 7.4.1. Eksploracja i eksploatacja 277 * 7.4.2. Metody selekcji 277 * 7.4.3. Skalowanie funkcji przystosowania 280 * 7.4.4. Szczegolne procedury reprodukcji 281 * 7.4.5. Metody kodowania 282 * 7.4.6. Rodzaje krzyżowań 285 * 7.4.7. Rodzaje mutacji 286 * 7.4.8. Inwersja 287 * 7.5. Algorytmy ewolucyjne w projektowaniu sieci neuronowych 288 * 7.5.1. Algorytmy ewolucyjne do uczenia wag sieci neuronowych 288 * 7.5.2. Algorytmy ewolucyjne do określania topologii sieci neuronowej 291 * 7.5.3. Algorytmy ewolucyjne do uczenia wag i określania topologii sieci neuronowej 293 * 7.6. Algorytmy ewolucyjne a systemy rozmyte 296 * 7.6.1. Systemy rozmyte do kontroli ewolucji 296 * 7.6.2. Ewolucja systemów rozmytych 298 * 7.7. Uwagi 305 * Zadania 307 * 8. Metody grupowania danych 311 * 8.1. Wprowadzenie 311 * 8.2. Podziały ostre i rozmyte 312 * 8.3. Miary odległości 316 * 8.4. Algorytm HCM 318 * 8.5. Algorytm FCM 319 * 8.6. Algorytm PCM 321 * 8.7. Algorytm Gustafsona–Kessela 322 * 8.8. Algorytm FMLE 324 * 8.9. Kryteria jakości grupowania 325 * 8.10. Ilustracja działania algorytmow grupowania danych 327 * 8.11. Uwagi 328 * Zadania 329 * 9. Systemy neuronowo-rozmyte typu Mamdaniego, logicznego i Takagi–Sugeno 332 * 9.1. Wprowadzenie 332 * 9.2. Opis wykorzystywanych problemów symulacyjnych 333 * 9.2.1. Polimeryzacja 333 * 9.2.2. Modelowanie statycznej funkcji nieliniowej 334 * 9.2.3. Modelowanie nieliniowego obiektu dynamicznego 334 * 9.2.4. Modelowanie smaku ryżu 334 * 9.2.5. Rozpoznawanie gatunku wina 335 * 9.2.6. Klasyfikacja kwiatu irysa 335 * 9.3. Systemy neuronowo-rozmyte typu Mamdaniego 336 * 9.3.1. Systemy typu A 336 * 9.3.2. Systemy typu B 338 * 9.3.3. Systemy typu Mamdaniego w zadaniach modelowania 339 * 9.4. Systemy neuronowo-rozmyte typu logicznego 349 * 9.4.1. Systemy typu M1 350 * 9.4.2. Systemy typu M2 356 * 9.4.3. Systemy typu M3 361 * 9.5. Systemy neuronowo-rozmyte typu Takagi–Sugeno 366 * 9.5.1. Systemy typu M1 367 * 9.5.2. Systemy typu M2 369 * 9.5.3. Systemy typu M3 370 * 9.6. Algorytmy uczenia systemow neuronowo-rozmytych 372 * 9.7. Ocena działania systemow neuronowo-rozmytych 387 * 9.7.1. Kryteria oceny modeli z uwzględnieniem ich złożoności 388 * 9.7.2. Metoda linii izokryterialnych 390 * 9.8. Uwagi 395 * Zadania 396 * 10. Elastyczne systemy neuronowo-rozmyte 398 * 10.1. Wprowadzenie 398 * 10.2. Miękkie normy trójkątne 398 * 10.3. Parametryzowane normy trójkątne 401 * 10.4. Przełączane normy trójkątne 404 * 10.5. Systemy elastyczne 409 * 10.6. Algorytmy uczenia 410 * 10.6.1. Operatory podstawowe 416 * 10.6.2. Funkcje przynależności 417 * 10.6.3. Funkcje zakresowe 418 * 10.6.4. H-funkcje 419 * 10.7. Przykłady symulacyjne 422 * 10.7.1. Polimeryzacja 423 * 10.7.2. Modelowanie smaku ryżu 425 * 10.7.3. Klasyfikacja kwiatu irysa 427 * 10.7.4. Rozpoznawanie gatunku wina 429 * 10.8. Uwagi 431 * Zadania 432 * Literatura 433 *
Status dostępności:
Są egzemplarze dostępne do wypożyczenia: sygn. 20020 (1 egz.)
Strefa uwag:
Uwaga dotycząca bibliografii
Bibliografia na stronach 433-448. Indeks.
Recenzje:
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej