Weltweit explodiert das Datenvolumen. So überschritt das Digitale Universum, also die Gesamtheit aller digital gespeicherten Daten, nach Angaben des Marktforschungsunternehmens International Data Corporation (IDC) im Jahr 2010 weltweit erstmals die Zettabyte-Grenze (1021 Byte, ZB). Bis 2020 rechnet IDC mit 35 ZB. Das entspricht zwei Stapeln von DVDs, die von der Erde bis zum Mond reichen. Hierbei gehören Metadaten, also größere Datensammlungen, wie etwa Bücher oder Datenbanken, sowie unstrukturierte Daten – etwa beliebige Texte oder Graphiken mit undefinierter Struktur – zu den am schnellsten wachsenden Datenkategorien. Derzeit besteht das Digitale Universum zu knapp einem Drittel aus hochwertigen Informationen. Das sind Daten und Inhalte, die Sicherheits-, Compliance- und Aufbewahrungspflichten unterliegen. Bis 2020 dürfte nach IDC dieser Anteil nahezu 50 Prozent erreichen.
Diese wachsende Datenmenge und –komplexität muss effizient bearbeitet werden. Ohne Computer, die helfen, Daten zu ordnen, zu analysieren, zusammenzufassen und für den Menschen aufzubereiten, geht das nicht. Besonders hilfreich sind lernfähige Systeme. Solche Systeme lernen aus Beispielen, erkennen Gesetzmäßigkeiten in den Daten und sind anschließend auch in der Lage, künftige Entwicklungen zu prognostizieren. Die Anwendungen sind extrem vielfältig. Sie reichen von Marktanalysen über die vorausschauende Wartung von Industrieanlagen bis zu Diagnoseverfahren in der Medizintechnik. Oft stehen Technologien wie die Sprach-, Schrift- und Bildmustererkennung im Vordergrund.
Spracherkennungssysteme werden unter anderem eingesetzt bei der Bedienung von Fahrzeugen, der maschinellen Telefonvermittlung, der Steuerung von Gebäude- oder Bürotechnik, der industriellen Qualitätskontrolle oder der Erstellung von medizinischen Befunden. Die Marktforscher von Datamonitor erwarten auf einigen Feldern hohe Wachstumsraten. So soll sich etwa der Markt für fortgeschrittene mobile Spracherkennung in Handsets von 2009 bis 2015 von 32,7 auf rund 100 Millionen US-Dollar verdreifachen. In Fahrzeugen rechnen die Marktexperten mit einem Anstieg der mobilen Spracherkennung im gleichen Zeitraum von 64,3 auf 208,2 Millionen US-Dollar.
Grundsätzlich ist das Thema Spracherkennung nicht neu. Gemäß einem Bericht des Marktforschungsunternehmen Gartner von 2011 gehörten Spracherkennungstechnologien bereits 1995 zum sogenannten Hype Cycle, also zu technologisch relevanten Trends. Sie sind heute immer noch nicht ausgereift, da insbesondere die Erkennung von Alltagssprache zu den schwierigsten Aufgaben von Computern gehört – der Hauptgrund ist, dass sie ein breites Weltwissen erfordert, um wirklich zu verstehen, was der Sprecher gemeint hat.
Lernende Systeme können auch bei der Bild- und Videoanalyse zum Einsatz kommen. Hiervon profitiert beispielsweise die industrielle Bildverarbeitung. So erwartet die European Machine Vision Association (EMVA) in Europa für 2011 ein Wachstum von 20 Prozent, nach 11 Prozent in 2010. Inspektion und Qualitätskontrolle bleiben die häufigsten Anwendungsfelder von industrieller Bildverarbeitung, doch es kommen auch neue Technologien, etwa in der Robotik und dem 3D-Sehen, hinzu. Das reicht von Videosystemen für die Fahrzeugtechnik bis zu Sicherheitslösungen. In der Medizintechnik gewinnt die Mustererkennung zunehmend an Bedeutung (Pictures of the Future, Frühjahr 2011, „Völlig neue Einblicke“ S.70). Bei modernen digitalen Bildgebungsverfahren wie Computer- und Magnetresonanz- Tomographie oder Ultraschall wird gemäß dem Beratungsunternehmen Frost & Sullivan lernende Software, die für die Ärzte die wichtigen Informationen herausfiltert und nutzbar macht, immer wichtiger. Zum Einsatz kommen diese Systeme unter anderem in der Mammographie, bei Lungen-, Bauchspeicheldrüsen sowie bei Darmkrebs.