Es ist immer spannend, wenn das, womit man sich (z.B. beruflich) einhergehend beschäftigt, beginnt, sich allmählich in der Gesellschaft niederzuschlagen, vor allem wenn die Entwicklung zuvor von der Öffentlichkeit unbeobachtet in „Elfenbeintürmen“ (Labors, Forschungs- & Entwicklungsabteilungen, Uni-Instituten udgl.) stattgefunden hat. Es ist nämlich damit zu rechnen, dass Anwendersoftware bald in der Lage ist, Bild- und Videoinhalte tatsächlich auch zu sehen. So wäre etwa zu erwarten, dass in jüngerer Zukunft nach dem Hochladen eines Bildes in einem einschlägigen Webportal vorgeschlagen wird, das Bild z.B. mit den Schlagworten „Auto“, „rot“, „Straße“ oder „Strand“, „Meer“, „Küste“ zu versehen, sofern eine einschlägige Szene abgebildet ist.
Was bereits Realität ist, sind lernfähige Gesichtserkennungsfunktionen in aktuellen Digitalkameras und Bildverwaltungsanwendungen. Mit den technischen Hintergründen dieser nun Alltag gewordenen Funktion beschäftigte sich die gestrige Ö1-Sendung „Digital.Leben“.
Maschinelles Sehen
[...] Wir Menschen können Gesichter ganz gut anhand von winzigen Details unterscheiden, wie aber macht das ein Computer? Die Antwort weiß Horst Bischof, Professor für maschinelles Sehen an der Technischen Universität Graz.
Ich erlaube mir, hier eine Kopie des Podcasts zur Verfügung zu stellen: