Veröffentlicht inScience

Google-Forscher wollen Computer-Abnutzung stoppen

Alte Computer stoßen bei neuer Software schnell an ihre Leistungsgrenze. Um das Problem zu lösen, arbeitet Google derzeit an einer künstlichen Intelligenz, die auch den eingestaubtesten Rechenschieber wieder fit machen soll.

Ein simulierter Mensch aus Nervensträngen rennt
Durch künstliche Intelligenz sollen Computer in Zukunft in der Lage sein

Das Phänomen, dass Computer immer langsamer werden, je älter sie sind, kennt wohl jeder, der sie benutzt. Manch einer mag dies als normale Alterserscheinung betrachten, frei nach dem Motto: Alles hat ein Ende. Forscher bei Google wollen das aber nicht hinnehmen. Sie sind der Meinung, dass es möglich sein kann, Computer zu entwickeln, die mitlernen.

Computer stoßen bei immer neuer Software an ihre Grenzen

Statt wie bisher von neuer Software irgendwann überfordert zu sein, sollen diese neuen Computer mithilfe einer speziellen Technologie in der Lage sein, mitzulernen und so immer besser und schneller zu werden statt langsamer. Die Forscher sind dafür ein wiederkehrendes Problem im Entwickeln von Computern angegangen, das sogenannte „prefetching“.

Mit „prefetching“ ist gemeint, dass die Computer Informationen viel schneller verarbeiten als sie sie eigentlich aus ihrem Gedächtnis herholen können. Um trotzdem Daten verarbeiten zu können, greifen die Computer deshalb vor, indem sie berechnen, welche Informationen am wahrscheinlichsten gebraucht werden. Je fortgeschrittener ein System aber wird, desto schwieriger wird dieses Vorweggreifen.

Mitlernen durch künstliche Intelligenz

Mit der Deep Learning-Methode wollen die Google Forscher dieses Problem nun lösen. Bei dieser Methode gebraucht eine künstliche Intelligenz ein simuliertes selbstlernendes Netzwerk, um das „prefetching“ intelligenter zu gestalten. Heiner Litz von der University of California in Santa Cruz glaubt, dass es möglich sein sollte, maschinelles Lernen in jeden Teil des Computers zu integrieren, von dem niedrigen Betriebsystem bis hin zur Software, mit der die Nutzer interagieren.

Eine neue Entwicklung in Sachen Computer, Software und Chips wird dringend gebraucht. Das sogenannte Moorsche Gesetz, das seit circa 50 Jahren präzise vorausgesagt hatte, dass Computerchips eine Lebenserwartung von um die zwei Jahren haben, bevor ein besserer und kleinerer Chip entwickelt werden wird, ist langsam nicht mehr gültig. In den letzten Jahren hat sich der Aufbau eines Computerchips nicht mehr grundlegend verändert.

Weg von allgemeinen Systemen hin zu individuellen

Tim Kraska vom Massachussetts Institute of Technology (MIT) sagt ebenfalls, dass wir bisher zwar Systeme und Hardware für den allgemeinen Gebrauch gebaut hätten, dass in Zukunft aber umgedacht werden sollte. „Maschinelles Lernen macht es möglich, dass das System sich automatisch anpasst, in seinem Kern und auch, was spezifische Daten und Verhaltensmuster des Nutzers angeht.“

————-

Das könnte auch interessant sein:

————-

Maschinelles Lernen in Computern ist teuer

Darüber hinaus könnten Computer mit künstlicher Intelligenz auch komplexere Algorithmen anwenden. Dann könnte das System beispielsweise basierend auf Daten aus sozialen Netzwerken lernen, wie sie mit finanziellen Daten umzugehen hat und dazu eine Datenbank anlegen. Oder eine bestimmte Applikation könnte lernen, sich noch genauer an einen bestimmten Nutzer anzupassen.

Kraska betont aber, dass das maschinelle Lernen nach wie vor teuer und rechenintensiv sei. Sollten die Menschen diese Hürden überwinden, sei es aber möglich, dass die Art, in der wir diese Systeme bauen, sich in der Zukunft fundamental ändere. Heiner Litz meint sogar: „Das große Ziel ist ein System, das sich konstant selbst überwacht und dazulernt. Das ist wirlich der Beginn von etwas Großem.“

Du willst mehr von uns lesen? Folge uns auf Google News.