Dr. Thomas K├╝bler

Eberhard-Karls-Universit├Ąt T├╝bingen
Wilhelm-Schickard Institut f├╝r Informatik
Lehrstuhl Technische Informatik
Sand 14, C216
72076 T├╝bingen

Telefon: +49 (7071) 29-78996

E-Mail: kueblert

Sprechstunde: nach Vereinbarung

Kontakt-Formular

Forschungsinteressen

  • Computational models of human gaze behavior
  • Algorithms for the comparison of exploratory scanning patterns
  • Eye-tracking data quality in real-world scenarios
  • Gaze-aware driving assistance systems
  • Algorithms for the analysis and visualization of eye-tracking data

Lehrveranstaltungen

Publikationen

 Alle Publikationen im BibTex-Format

    2017

      Juli 2017
      • Masterthesis by M. Niederfeld (Preprint)
          Learning discriminative scanpath encodings by saccade transition bundling
        University of Tuebingen
      Mai 2017
      • W. Fuhl, T. C. K├╝bler, D. Hospach, O. Bringmann, W. Rosenstiel, E. Kasneci
          Ways of improving the precision of eye tracking data: Controlling the influence of dirt and dust on pupil detection
        Journal of Eye Movement Research, 10 (3)
      M├Ąrz 2017
      • E. Kasneci, T.C. K├╝bler, K. Broelemann, G. Kasneci
          Aggregating physiological and eye tracking signals to predict perception in the absence of ground truth
        Computers in Human Behavior, Elsevier, 68, p.450ÔÇô455
      • G. Dambros, J. Ungewiss, T. K├╝bler, E. Kasneci, M. Sp├╝ler
          Monitoring Response Quality During Campimetry Via Eye-Tracking
        Proceedings of the 22st International Conference on Intelligent User Interfaces, IUI 2017, ACM
      Februar 2017
      • T. C. K├╝bler
           Algorithms for the comparison of visual scan patterns
        University of T├╝bingen
      • W. Fuhl, T. Santini, D. Geisler, T. K├╝bler, E. Kasneci
          EyeLad: Remote Eye Tracking Image Labeling Tool
        12th Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications (VISIGRAPP 2017)

      2016

        Oktober 2016
        • T.C. K├╝bler, W. Fuhl, R. Rosenberg, W. Rosenstiel, E. Kasneci
            Novel methods for analysis and visualization of saccade trajectories
          ECCV Workshop VISART 2016
        September 2016
        • W. Fuhl, T. Santini, D. Geisler, T. K├╝bler, W. Rosenstiel, E. Kasneci
            Eyes Wide Open? Eyelid Location and Eye Aperture Estimation for Pervasive Eye Tracking in Real-World Scenarios
          ACM International Joint Conference on Pervasive and Ubiquitous Computing: Adjunct publication -- PETMEI 2016
        Juli 2016
        • T.C. K├╝bler, C. Rothe, U. Schiefer, W. Rosenstiel, E. Kasneci
            SubsMatch 2.0: Scanpath comparison and classification based on subsequence frequencies
          Behavior Research Methods, online first, p.1-17
        M├Ąrz 2016
        • T. Santini, W. Fuhl, T. K├╝bler, E. Kasneci
            Bayesian Identification of Fixations, Saccades, and Smooth Pursuits
          Proceedings of the Ninth Biennial ACM Symposium on Eye Tracking Research & Applications (ETRA), p.163--170
        • W. Fuhl, T. Santini, T. K├╝bler, E. Kasneci
            ElSe: Ellipse Selection for Robust Pupil Detection in Real-World Environments
          Proceedings of the Ninth Biennial ACM Symposium on Eye Tracking Research & Applications (ETRA), p.123--130
        • T.C. K├╝bler, T. Rittig, J. Ungewiss, C. Krauss, E. Kasneci [Clear vision award for the best short paper]
            Rendering refraction and reflection of eyeglasses for synthetic eye tracker images
          ACM Symposium on Eye Tracking Research and Applications, ETRA 2016
        Februar 2016
        • T. Santini, W. Fuhl, T. C. K├╝bler, E. Kasneci
            EyeRec: An Open-source Data Acquisition Software for Head-mounted Eye-tracking
          Proceedings of the 11th Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications (VISIGRAPP), Vol.3: VISAPP, p.386--391

        2015

          Dezember 2015
          • T.C. K├╝bler, E. Kasneci, W. Rosenstiel, K. Aehling, M. Heister, K. Nagel, U. Schiefer, E. Papageorgiou
               Driving with Homonymous Visual Field Defects: Driving Performance and Compensatory Gaze Movements
            Journal of Eye Movement Research, 8 (5), p.1-11
          November 2015
          Oktober 2015
          • T.C. K├╝bler, S. Eivazi, E. Kasneci
              Automated Visual Scanpath Analysis Reveals the Expertise Level of Micro-neurosurgeons
            MICCAIÔÇÖ15 Workshop on Interventional Microscopy
          September 2015
          • T. C. K├╝bler, E. Kasneci
              Automated Comparison of Scanpaths in Dynamic Scenes
            Pfeiffer, Thies ; Essig, Kai (Hrsg.): Proceedings of the 2nd International Workshop on Solutions for Automatic Gaze Data Analysis 2015 (SAGA 2015)
          • W. Fuhl, T. C. K├╝bler, K. Sippel, W. Rosenstiel, E. Kasneci
              ExCuSe: Robust Pupil Detection in Real-World Scenarios
            16th International Conference on Computer Analysis of Images and Patterns (CAIP 2015)
          August 2015
          • W. Fuhl, T. C. K├╝bler, K. Sippel, W. Rosenstiel, E. Kasneci
             Arbitrarily shaped areas of interest based on gaze density gradient
            European Conference on Eye Movements, ECEM 2015
          M├Ąrz 2015
          • E. Kasneci, T.C. K├╝bler, C. Braunagel, W. Fuhl, W. Stolzmann, W. Rosenstiel
              Exploiting the potential of eye movements analysis in the driving context
            15. Internationales Stuttgarter Symposium Automobil- und Motorentechnik, Springer Fachmedien Wiesbaden
          Januar 2015
          • K. Sippel, T.C. K├╝bler, W. Fuhl, G. Schievelbein, R. Rosenberg, W. Rosenstiel [Best paper award]
              Eyetrace2014: Eyetracking Data Analysis Tool
            8th International Conference on Health Informatics, Healthinf 2015
          Publikationen ohne Monatsangabe 2015
          • T. C. K├╝bler, K. Sippel, W. Fuhl, G. Schievelbein, J. Aufreiter, R. Rosenberg, W. Rosenstiel, E. Kasneci
               Analysis of eye movements with Eyetrace
            Biomedical Engineering Systems and Technologies. Communications in Computer and Information Science (CCIS). Springer International Publishing
          • E. Kasneci, G. Kasneci, T. K├╝bler, W. Rosenstiel
               Online Recognition of Fixations, Saccades, and Smooth Pursuits for Automated Analysis of Traffic Hazard Perception
            Artificial Neural Networks - Springer Series in Bio-/Neuroinformatics (Ed. Petia Koprinkova-Hristova, Valeri Mladenov, Nikola K. Kasabov), Springer International Publishing
          • J. Ungewiss, T. C. K├╝bler, D. R. Bukenberger, E. Kasneci, U. Schiefer
             Towards Automated Scan Pattern Analysis for Dynamic Scenes
            The Eye, The Brain And The Auto 2015

          2014

            Dezember 2014
            • T. C. K├╝bler, D. R. Bukenberger, J. Ungewiss, A. W├Ârner, C. Rothe, U. Schiefer, W. Rosenstiel, E. Kasneci
                Towards automated comparison of eye-tracking recordings in dynamic scenes
              EUVIP 2014
            Mai 2014
            • T. C. K├╝bler, E. Kasneci, W. Rosenstiel, U. Schiefer, K. Nagel, E. Papageorgiou
               Stress-indicators and exploratory gaze for the analysis of hazard perception in patients with visual field loss
              Transportation Research Part F: Traffic Psychology and Behaviour, 24, p.231 - 243
            M├Ąrz 2014
            • T. C. K├╝bler, E. Kasneci, W. Rosenstiel
               Gaze guidance for the visually impaired
              Proceedings of the 8th Symposium on Eye Tracking Research and Applications, ETRA 2014, p.383-384
            • T. C. K├╝bler, E. Kasneci, W. Rosenstiel
               SubsMatch: Scanpath Similarity in Dynamic Scenes based on Subsequence Frequencies
              Proceedings of the 8th Symposium on Eye Tracking Research and Applications, ETRA 2014, p.319-322
            • E. Kasneci, G. Kasneci, T. C. K├╝bler, W. Rosenstiel
                The Applicability of Probabilistic Methods to the Online Recognition of Fixations and Saccades in Dynamic Scenes
              Proceedings of the 8th Symposium on Eye Tracking Research and Applications, ETRA 2014, p.323-326

            2013

              September 2013
              • U. Schiefer, T. C. K├╝bler, M. Heister, K. Aehling, K. Sippel, E. Papageorgiou, W. Rosenstiel, E. Tafaj
                 Auswirkungen des visuellen Explorationsverhaltens von Patienten mit binokularen Gesichtsfelddefekten auf alltagsrelevante T├Ątigkeiten ÔÇô Ergebnisse der TUTOR-Studie
                111. DOG-Kongress
              • E. Tafaj, T. C. K├╝bler, G. Kasneci, W. Rosenstiel, M. Bogdan
                 Online Classification of Eye Tracking Data for Automated Analysis of Traffic Hazard Perception
                Artificial Neural Networks and Machine Learning (ICANN 2013)

              2011

                Juni 2011
                • E. Tafaj, T. C. K├╝bler, J. Peter, U. Schiefer, M. Bogdan and W. Rosenstiel
                   Vishnoo - An Open-Source Software for Vision Research
                  24th IEEE International Symposium on Computer-Based Medical Systems (CBMS 2011), Bristol, UK

                Offene studentische Arbeiten

                1. Automatisierter Scanpath Vergleich
                2. Saccade Bundles
                3. Crowd attention tracking
                4. Ein Dashboard f├╝r Eyetrace
                5. Gaze Counter
                6. Vein extraction and eye rotation determination
                7. EyeTrace CUDA extesion
                8. 3D Eyeball generation based on vein motion

                Automatisierter Scanpath Vergleich

                Beschreibung:
                Menschen k├Ânnen ihre Aufmerksamkeit gezielt lenken. Eine Methode diese Aufmerksamkeitszuweisung aufzuzeichnen sind Eye-Tracking Aufnahmen: Objekte, die momentan interessant sind, werden mit den Augen fixiert. Oftmals ist es nicht nur interessant, wohin einzelne Individuen ihre Aufmerksamkeit lenken, sondern auch ein Vergleich zwischen Individuen oder verschiedenen Zeitpunkten. Hierzu werden diese auf einfache Elemente reduziert: Fixationen und Sakkaden (schnelle Augenbewegungen). Die zeitliche Abfolge und r├Ąumliche Position von Fixationen und Sakkaden nennt man Scanpath. Aktuelle Vergleichsmetoden basieren auf zwei verschiedenen Ans├Ątzen:

                • Umwandlung des Scanpaths in eine String-Repr├Ąsentation und Anwenden bioinformatischer String-Alignment Techniken.
                • Vergleich der Scanpaths als Vektorpfad.

                Beide Methoden zeichne sich durch massive Einschr├Ąnkungen und sehr begrenzte Anwendbarkeit aus: Sie funktionieren generell nur bei einfachen Scanpaths und unbewegtem Betrachter gut. Deshalb ist die Analyse von Hand noch immer sehr verbreitet, obwohl hierdurch Objektivit├Ąt verloren geht und viel Zeit n├Âtig ist.

                Aufgabenstellung:
                Ziel dieser Arbeit ist die Verbesserung bestehender Scanpath Vergleichsmethoden. Dies beinhaltet zum einen das Finden geeigneter Distanzmetriken, zum anderen die Anwendung von Pattern-Recognition Verfahren. Das Erkennen und Wiederfinden kurzer Wiederholter Muster (Schulterblick oder Blick in den R├╝ckspiegel beim Autofahren) k├Ânnte die momentane Verfahren deutlich verbessern.

                Saccade Bundles

                This project is about applying (and probably adjusting) a linear time clustering algorithm for brain fiber activity to work with saccadic trajectories. The result will be a clustering of saccades (= saccade bundle).

                The algorithm will be applied to eye-tracking data recorded while viewing fine art and while driving. These bundles could give insight into the perception of art (e.g. do saccades follow composition lines) and can be used to quantify saccadic distributions and traversals towards different interesting areas for driving (e.g. control gaze towards the rear mirror). The algorithm will be included in our eye-tracking data analysis software EyeTrace.

                Crowd attention tracking

                We want to be able to track eye and head movements of a crowd of people, such as a whole classroom. Thereby we can infer measures about current attentional focus, e.g. whether students pay attention to the lecture material and when attention decreases. Therefore we will record high resolution videos of multiple persons in a naturalistic setting, including a variety of head poses and eye positions.

                 

                This work can be subdivided into (1) finding faces in the video stream, (2) determining face orientation, (3) extracting the eye region, (4) applying calibration free gaze direction calculations.

                Ein Dashboard f├╝r Eyetrace

                Die Eyetrace Software bietet eine Vielzahl an Visualisierungsm├Âglchkeiten f├╝r Eye-Tracking Daten. In diesem Projekt soll eine grafisch ansprechende ├ťbersicht ├╝ber die momentan ins Programm geladenen Daten erzeugt werden.

                 

                Aufgabenstellung:

                Entwicklung eines Plugins f├╝r die Eyetrace Software in C++/Qt. Es soll ein Dashboard mit einer ├ťbersicht der aktuellen ausgew├Ąhlten Daten erstellt werden. Diese werden grafisch dargestellt, sodass beispielsweise die Anzahl der Aufnahmen pro Probandengruppe, die durchschnittliche Anzahl an Fixationen pro Aufnahme, der Zeitverlauf ├╝ber die Aufnahmedauer und weitere wichtige Kennwerte auf einen Blick einsehbar sind.

                Gaze Counter

                W├Ąhrend in der Online-Werbebranche die Erfolgskontrolle f├╝r eine bestimmte Werbeanzeige z.B. durch die Anzahl der Klicks oder eine Klick/Kauf-Rate relativ einfach durchgef├╝hrt werden kann, ist dies f├╝r Offline-Medien nicht immer ganz so einfach: Wie oft wird beispielsweise ein bestimmtes Plakat pro Tag betrachtet? Erregt ein Design mehr Aufmerksamkeit, als ein anderes? Ist ein h├Âherer Preis f├╝r einen bestimmten Plakatstandort gerechtfertigt? Das Blickverhalten ist in der Werbebranche ein g├Ąngiger Indikator. Eye-Tracking Studien sind aber teuer und aufw├Ąndig auszuwerten.

                Aufgabestellung:

                In diesem Projekt soll ein sogenannter ÔÇŁGaze CounterÔÇŁ erstellt werden: Eine kamerabasierte Messvorrichtung, die das Blickverhalten von Passanten automatisch auswerten kann und dabei bestimmt, ob ein Objekt in seiner N├Ąhe (z.B. ein Werbeplakat, auf das der Gaze Counter aufgesetzt wurde) betrachtet wurde. So kann mit wenig Aufwand gemessen werden, wann wie viele Personen f├╝r wie lange auf ein Objekt geschaut haben.

                Vein extraction and eye rotation determination

                The first step is setting up an recording environment with fixed subject position. This
                environment is used for data acquisition with predefined head rotations of the subjects. Based on this data an algorithm has to be developed measuring the eyeball rotation of the subject. The resulting angle is then compared and validated based on the head rotation.

                EyeTrace CUDA extesion

                EyeTrace is a software for gaze data visualization and analysis. Due to the increasing amount of data these visualizations need more computation time. In this thesis existing visualizations should be implemented using CUDA for GPU computations. Additionally this includes a data storage model making it possible to shift the data between the GPU and the host computer.
                Due to the fact that nowadays not all computers have a CUDA capable card the modul should also allow CPU computations. This should be determined automatically by the module.

                3D Eyeball generation based on vein motion

                The first step is robust feature extraction. This can be done using SURF, SIFT, BRISK
                or MSER features if sufficient. Those features have to be mapped on features found in
                consecutive images. Based on the displacement a 3D model has to be computed. This model is used afterwards for gaze position estimation.