Der ORF hat einen Artikel zur von mir vorgestern erwähnten Ö1-Sendung nachgeworfen, offenbar als Vorschau auf die heutige Sendung „Matrix“ um 22.30h, in der es ebenfalls um Computer Vision bzw. maschinelles Sehen geht. Die Autoren erwähnen dabei auch die Möglichkeit, dass die Community für korrekt annotierte Trainingsdaten sorgt, die dann den Machine Learning-Algorithmen zur Verfügung stehen – eine Sache, die mich auch beruflich beschäftigt. Bin gespannt, wie sich das alles weiterentwickelt.
Es ist immer spannend, wenn das, womit man sich (z.B. beruflich) einhergehend beschäftigt, beginnt, sich allmählich in der Gesellschaft niederzuschlagen, vor allem wenn die Entwicklung zuvor von der Öffentlichkeit unbeobachtet in „Elfenbeintürmen“ (Labors, Forschungs- & Entwicklungsabteilungen, Uni-Instituten udgl.) stattgefunden hat. Es ist nämlich damit zu rechnen, dass Anwendersoftware bald in der Lage ist, Bild- und Videoinhalte tatsächlich auch zu sehen. So wäre etwa zu erwarten, dass in jüngerer Zukunft nach dem Hochladen eines Bildes in einem einschlägigen Webportal vorgeschlagen wird, das Bild z.B. mit den Schlagworten „Auto“, „rot“, „Straße“ oder „Strand“, „Meer“, „Küste“ zu versehen, sofern eine einschlägige Szene abgebildet ist.
Was bereits Realität ist, sind lernfähige Gesichtserkennungsfunktionen in aktuellen Digitalkameras und Bildverwaltungsanwendungen. Mit den technischen Hintergründen dieser nun Alltag gewordenen Funktion beschäftigte sich die gestrige Ö1-Sendung „Digital.Leben“.
Maschinelles Sehen
[...] Wir Menschen können Gesichter ganz gut anhand von winzigen Details unterscheiden, wie aber macht das ein Computer? Die Antwort weiß Horst Bischof, Professor für maschinelles Sehen an der Technischen Universität Graz.
Ich erlaube mir, hier eine Kopie des Podcasts zur Verfügung zu stellen: