Weryfikacja, Klucz do AI

Original: http://webdocs.cs.ualberta.ca/~sutton/IncIdeas/KeytoAI.html

Richard S. Sutton
15.11.2001

To trochę nieprzyzwoite dla badacz AI zastrzeżenia mieć szczególny wgląd lub planu, jak jego pole powinno postępować. Jeśli ma takie, dlaczego nie po prostu realizować je, a jeśli on ma rację, wykazują swoje specjalne owoce? Bez wątpliwości, że wciąż istnieje rola oceny i analizy pola jako całości, do diagnozowania dolegliwości, które wielokrotnie plagą go, i zaproponowanie rozwiązań ogólnych.

Wgląd, że będę twierdzić, że jest to, że kluczem do sukcesu jest to, że AI może powiedzieć o sobie, czy to działa prawidłowo. Na jednym poziomie jest to pragmatyczne problem. Jeśli AI nie może powiedzieć o sobie, czy to działa prawidłowo, a następnie niektórych osoba musi dokonać takiej oceny i dokonać niezbędnych modyfikacji.AI ocenia się, że może być w stanie samodzielnie dokonać modyfikacji.

Weryfikacja Zasada:
System AI mogą tworzyć i utrzymywać wiedzę tylko w zakresie, który może zweryfikować tę samą wiedzę.

Udane weryfikacji występuje we wszystkich systemach opartych AI wyszukiwania, takie jak gry-planistów, graczy, nawet algorytmów genetycznych. Ciemnoniebieskie, na przykład, wytwarza wynik dla każdego z możliwych ruchów poprzez liczne wyszukiwania. Jego przekonanie, że ruch ten jest szczególnie dobry jest weryfikowana przez drzewa wyszukiwania, który pokazuje jej nieuchronny produkcję dobrej pozycji. Systemy te nie muszą być poinformowani, co do wyboru; mogą powiedzieć o sobie. Obraz próbuje zaprogramować maszynę w szachy, mówiąc to, jakie rodzaje ruchów, aby w każdym rodzaju pozycji. Wiele wczesnych programy szachowe zostały skonstruowane w ten sposób. Problem, oczywiście, było to, że istnieje wiele różnych rodzajów pozycji szachowych. I więcej porad i zasady wyboru ruchu podane przez programistów, bardziej złożony system stał się bardziej i nie było nieoczekiwane interakcje między przepisami. Programy stały się kruche i niepewne, wymagające stałej maintainence i wkrótce całe to podejście przegrał z “brute force” poszukiwaczy.

Chociaż planiści oparte wyszukiwania na poziomie sprawdzenia doboru ruch, zazwyczaj nie może sprawdzić na innych poziomach. Na przykład, często podejmują swoją funkcję punktacji oceny przez państwo, jak podano. Nawet Deep Blue nie może szukać do końca gry i opiera się na funkcji pozycja-punktowym człowieka dostrojone, że nie oceny, na własną rękę.Głównym siłą programu backgammon championów, TD-Gammon, jest to, że ma ocenić i poprawić swoją funkcję punktacji.

Kolejnym ważnym poziomem, na którym oparte wyszukiwania planiści prawie nigdy nie są przedmiotem weryfikacji jest to, co określa wyniki ruchów, działań lub operatorów. W grach takich jak szachy z ograniczonej liczby ruchów prawnych, możemy łatwo wyobrazić sobie programowanie w konsekwencji wszystkie z nich dokładnie. Ale jeśli wyobrazimy sobie planuje w szerszym kontekście AI, to wiele z dozwolonych akcji nie będzie miał ich wyniki całkowicie znane. Jeśli wezmę bajgiel biurze Leslie, ona będzie tam? Jak długo potrwa do jazdy do pracy? Zakończę ten raport dzisiaj? Tak wiele decyzji, które podejmujemy na co dzień mają skutki niepewne i zmieniające się. Niemniej jednak nowoczesne systemy AI prawie nigdy nie wziąć to pod uwagę. Zakładają one, że wszystkie modele działania zostaną wprowadzone dokładnie ręcznie, choć może to być większość wiedzy lub kiedykolwiek wyprodukowane przez system.

Wreszcie, niech nam się ten sam punkt o wiedzy w ogóle. Rozważmy dowolny system AI i wiedzę, że ma. Może to być system ekspercki lub duże bazy danych takie jak CYC. Lub może być robota z wiedzą układ danego budynku, lub wiedzy o tym, jak reagować w różnych sytuacjach. We wszystkich tych przypadkach możemy zapytać, czy system AI może zweryfikować swoją wiedzę, czy też wymaga to ludzi do interwencji w celu wykrycia błędów i nieprzewidzianych interakcji i dokonać korekt. Tak długo, jak drugim przypadku nigdy nie będziemy w stanie zbudować bardzo dużych systemów wiedzy. Zawsze będą kruche i niepewne, i ograniczona wielkością do tego, co ludzie mogą monitorować i zrozumieć siebie.
“Nigdy nie zaprogramować coś większego niż głową”

A jednak jest to zdecydowanie sprawa, że dzisiejsze systemy AI nie są w stanie zweryfikować swoją wiedzę. Duże ontologie i bazy wiedzy, które są wbudowane są całkowicie uzależnione od budowy ludzkiego i maintainence. “Ptaki mają skrzydła”, mówią, ale oczywiście nie mają możliwości zweryfikowania tego.

Comments are closed.