Nachrichten, Gerüchte, Meldungen und Berichte aus der IT-Szene
Redaktion: Heinz Schmitz
Big Data im Alltag effizient verarbeiten
Mit neuen mobilen Technologien wie Smartphones oder Tablet-PCs ist in den vergangenen Jahren die Verbreitung von Computersystemen rapide angestiegen. Dadurch entstehen immer mehr Daten mit unterschiedlichen Strukturen. Häufig fehlen allerdings passende Programme, um sie zu verarbeiten. „Für viele Problemstellungen sind die bisher bekannten Algorithmen nicht auf die Verarbeitung großer Datenmengen ausgelegt. Daher suchen wir im neuen Schwerpunktprogramm nach theoretisch fundierten Verfahren, die sich dabei in der Praxis bewähren“, erklärt Juniorprofessor Henning Meyerhenke vom KIT.
Bislang standen bei der Forschung zu großen Datenmengen wissenschaftliche Anwendungen wie computergestützte Simulationen für die Wettervorhersage im Fokus. Die Wissenschaftler des KIT widmen sich dagegen alltagstauglichen Lösungen zur Effizienzsteigerung von Rechenvorgängen, wie sie etwa bei Suchanfragen im Internet oder bei der strukturellen Analyse von sozialen Netzwerken auftreten.
Das Schwerpunktprogramm „Algorithms for Big Data“, welches die DFG für sechs Jahre fördert, teilt sich in mehrere Projekte aus ganz Deutschland auf. Darunter sind vier Projekte aus dem Institut für Theoretische Informatik am KIT. Das Projekt „Schnelle inexakte kombinatorische und algebraische Löser für große Netzwerke“ von Juniorprofessor Henning Meyerhenke widmet sich einer Reihe von komplexen Problemstellungen, die sich in großen Netzwerken ergeben. Die zu lösenden Aufgaben sind durch biologische Anwendungen motiviert. Beispielsweise lassen sich Individuen einer Spezies anhand der Ähnlichkeit ihres Erbguts vernetzen und dann klassifizieren. Die neuen Verfahren helfen dabei, die anfallenden Daten mit reduziertem Rechenaufwand in gleichartige Klassen einzuteilen. Diese Einteilung macht es wiederum für Biologen einfacher, neue Erkenntnisse abzuleiten.
Im Projekt „Scalable Cryptography“ von Juniorprofessor Dennis Hofheinz (KIT) und Professor Eike Klitz (Ruhr-Universität Bochum) dreht sich alles um die Sicherheit bei Big Data. Kryptographische Verfahren, wie Verschlüsselung oder digitale Signaturen, können auch bei großen Datenmengen eine sinnvolle Sicherheitsgarantie geben. Bestehende Verfahren lassen sich aber nur bedingt anpassen: So ist etwa der Schutz durch das in gängigen Internetbrowsern verwendete Verschlüsselungsverfahren RSA-OAEP bei riesigen Datenmengen nur unzureichend geklärt. „Wir suchen nach einer Lösung, deren Sicherheitsgarantien auch bei einer steigenden Anzahl an Zugriffen und Benutzern stabil bleiben“, so Juniorprofessor Dennis Hofheinz von der Arbeitsgruppe Kryptographie und Sicherheit am KIT.
Eine immense Ansammlung von Daten bilden die immer weiter wachsenden sozialen Netzwerke wie Facebook oder Twitter. Gleichzeitig zeichnet sich hierbei ein großer wirtschaftlicher und politischer Wert ab. Das Projekt „Clustering in sozialen Online-Netzwerken“ von Professorin Dorothea Wagner (KIT) und Professor Ulrik Brandes (Universität Konstanz) setzt an diesen Netzwerken an. Neue Algorithmen sollen es möglich machen, die Entwicklung von Onlinegemeinschaften in sozialen Netzwerken nachzuvollziehen.
Um eine große Menge an Daten wie zum Beispiel im Internet zu durchsuchen, ist ein funktionsfähiges Werkzeug, etwa eine gute Suchmaschine, unerlässlich. „Doch die heute verwendeten Suchmaschinen lassen sich mit effizienteren Algorithmen noch weiter verbessern“, sagt Professor Peter Sanders, der ebenfalls am Institut für Theoretische Informatik forscht. Mit seinem Projekt „Textindizierung für große Datenmengen“ sucht Sanders gemeinsam mit Professor Johannes Fischer von der Technischen Universität Dortmund nach Optimierungsmöglichkeiten. Insbesondere sollen viele Prozessoren gleichzeitig eingesetzt werden und die Daten sollen in stark komprimierter Form trotzdem durchsuchbar bleiben.