TrackingMaster - Automatische Verfolgung und Aufzeichnung des Dozenten

TrackingMaster im Detail

Der TrackingMaster dient zur automatischen Verfolgung von Dozenten in Vorlesungen. Dazu wird eine PTZ-Kamera anhand von Daten externer Sensoren automatisch bewegt, um den Dozenten ständig im Bild zu halten.

Die zuverlässige Positionserkennung des TrackingMasters basiert auf dem Einsatz von 2D-Laserscannern. Durch die Montage der Sensoren im Tafelbereich wird eine Beeinflussung der Kamerabewegung durch Studenten im Auditorium, großflächige Projektionen hinter dem Dozenten und eine Vielzahl weiterer Störeinflüsse vermieden. Ebenso wird so eine Erkennung von Personen ermöglicht, die zur Tafel blicken oder nicht direkt zur PTZ-Kamera schauen.

Die TrackingMaster-Software wertet die Daten in Echtzeit aus und filtert die für die Kameraverfolgung relevanten Positionen heraus. Der Tracking-PC kann durch die Netzwerkanbindung in einem separaten Raum betrieben werden. Aufgrund der erkannten Positionen wird die Ansteuerung der Tracking-PTZ-Kamera vorgenommen.

Das genaue Verhalten des Systems kann in Absprache mit den Anwendern abgestimmt werden. So ist unter anderem das Verhalten der Kamera bestimmbar für den Fall, dass sich kein Dozent im Erkennungsbereich aufhält.

Gerne präsentieren wir Ihnen die Funktionsweise des innovativen TrackingMasters in unserem Showroom.

Unser Produktvideo: Humorvoll! Informativ! Spannend! - Sehen Sie selbst!

Vorteile des TrackingMasters

  • Der TrackingMaster zeichnet sich durch hohe Zuverlässigkeit und individuelle Konfigurationsmöglichkeiten aus, um das Thema hybride Lehre bestmöglich in den Hochschulbetrieb zu integrieren.
  • Gegenüber optischen Systemen ist der TrackingMaster überlegen, da nicht das Bild (z.B. runtergerechneter JPG-Stream) ausgewertet wird, sondern die per Laser genau erkannte Position. Störungen durch gestreifte Sakkos, schlechtes Licht, Spiegelungen durch Glasscheiben, etc. gehören daher der Vergangenheit an.
  • Audio-basierte Systeme sind nur in Räumen ohne Bewegung (z.B. Konferenzraum) zuverlässig und stellen keine sichere Erkennung bzw. Nachverfolgung in Hörsälen sicher. Bei der bereits hohen Arbeitslast vieler Medientechnik-Teams bedarf es eines Systems, das keiner Aufmerksamkeit bedarf, so wie es beim TrackingMaster der Fall ist.
Vorteile für Hochschulen
  • Zuverlässige Positionsbestimmung der Professor*in, sodass diese und bei Bedarf der Tafelanschrieb als Vollbild dargestellt wird und somit die Hochschuldidaktik im Kontext Hybride Lehre optimiert wird.

  • Hohe Zuverlässigkeit des Systems: Kein weiteres Personal für Bedienung oder Überwachung des Trackings nötig.

  • Individuelle Einstellmöglichkeiten u.a. durch Konfig-Frontend und Tiefenerkennung für unterschiedliche Anforderungen (z.B. feste Presets am Tafelbereich, wenn Professor*in vor der Tafel steht oder Definition von höherwertigen Trackingzonen, um z.B. den Raum verlassenden Studierenden zu ignorieren, wenn die Professor*in vor der Tafel erfasst wird)

  • Kompletter Workflow von der Aufnahme bis zur Ablage (Lösungs-unabhängig, z.B. OpenCast) automatisiert und flexibel gestaltbar. Wir stellen die relevante Schnittstelle und den benötigten Code für die gängigen Lösungen zur Verfügung.

  • Kleine Einheit (neben den Lasersensoren bedarf es nur einer kleinen mitgelieferten Rechnereinheit), die im Hörsaal oder im Serverraum integriert werden kann.

  • Regelmäßige Sicherheits- und Funktionsupdates verfügbar. Mit einem Entwicklungs-Team in Deutschland können wir auf Anforderungen aus dem Markt zeitnah reagieren.

  • Das System funktioniert unabhängig vom Kamera-Hersteller.

Vorteile für Systemhäuser
  • Erstklassiger Support und kontinuierliche Weiterentwicklung des Systems: Ansprechpartner & Support sowie Software-Entwicklung in Deutschland.

  • Auf Kundenwünsche und besondere Gegebenheiten individuell konfigurierbares System.

  • Schulung ihres Teams und gut dokumentierter Installationsguide vorhanden.

  • Partnerkonzept vorhanden, mit Vorteilen wie z.B. gemeinsame Aktionen, Produkt-Demos, Ausstattung eines Showrooms und attraktive Konditionen.

  • TrackingMaster ist DSGVO-konform.

Automatische Kameraverfolgung, um professionellen Content von z.B. Lehrveranstaltungen für Streaming oder On-Demand zur Verfügung stellen zu können.

Der TrackingMaster erkennt Sprecher mit innovativen Lidar-Lasersensoren. Wir setzen state-of-the-art Docker Technologie ein, diese ermöglicht Feature- und Sicherheitsupdates.

Das System ist über eine Mediensteuerung mit einem Klick startbar, mit einem Code ist die Aufnahme ebenso schnell einer Vorlesung in OpenCast zuordenbar.

Die Einrichtung über das Frontend und auch das Setzen von Parametern und Tracking-Zones ist intuitiv konfigurierbar.

Das TrackingMaster-System besteht aus der Software inkl. Rechnereinheit und Lasersensoren. Ergänzt wird diesen dann durch die Systemintegratoren mit einer PTZ-Kamera, Kamera- und Sensorhalterung.

Der TrackingMaster auf einen Blick

Einsatzgebiete des TrackingMasters
  • Aufnahme von Vorlesungen an Universitäten und Hochschulen
  • Aufnahme von Veranstaltungen bei Messen
  • Aufnahme von Key Notes
  • Aufnahme von Gottesdiensten
Für Systemintegratoren
  • Zugang zu Produktschulungen inkl. Installations- und Einrichtungsguide
  • Einfache Einrichtung der Komponenten und Tracking-Zones über Frontend
  • Parameter-Set und Tracking-Zones individuell, entsprechend der Bedürfnisse der Kunden konfigurierbar
  • Support Mo – Freitag von 8:00 – 18:00 Uhr – Supportstandort: Deutschland
  • Kontinuierliche Weiterentwicklung der Plattform anhand der Anforderungen unserer Kunden
  • System läuft auf eigenem Rechnermodul beim Kunden, ist fernwartbar und updatefähig
  • Mit gängigen Mediensteuerungen wie Crestron und Extron kombinierbar – Neu: (Wir liefern den Code zur Anbindung der Mediensteuerung).
Von uns erhalten Sie
  • Unterstützung bei der Konzeption/ Planung
  • Software inkl. Rechnereinheit und Lidar-Lasersensoren
  • In Thüringen planen und installieren wir die Lösung selbst, außerhalb Thüringens arbeiten wir mit Systemintegratoren vor Ort zusammen

Features – What’s new?

Die bisher unerreichte Zuverlässigkeit wurde weiter optimiert, was in Verbindung mit den Workflows nicht nur die Medientechniker*innen entlastet, sondern auch die Dozierenden davon befreit, sich mit der Medientechnik beschäftigen zu müssen. Damit kann das Auto-Tracking nun in jeden Hörsaal einziehen mit orts- und zeitunabhängiger Lehre und hochwertigem Content die Studierenden glücklich machen.

Highlights

NEW: Workflows – Automatisches Umschalten zwischen Bildquellen und Ausgängen wie Visualizern, Kameras, Mikrofonen oder Lautsprechern. Festlegung von individuellen Szenarien.

NEW Set-Up – Deutlich vereinfachte Einrichtung des TrackingMasters.

NEW Noch zuverlässiger – Danke Machine Learning und einer Filter-basierten Rule Engine ist der TrackingMaster noch zuverlässiger als er das auch bisher schon ist.

NEW Wir hören zu – Wir haben eine Reihe von Kund*innenwünschen umgesetzt, die Sie uns mitgeteilt haben, wie z.B. eine natürlicherer Wechsel der Kameraführung bei Wechsel zwischen Pre-Sets und Trackingzonen.

NEW Performance – Wir sind nie zufrieden. Sei es die Fehleranalyse, die bessere Überwachung des Netzwerks oder die Erkennung von Objekten. Uns ist kein Edge-Case zu selten, als dass wir nicht daran arbeiten. Denn jede Kund*in möchte das Beste für seine Dozierenden und Studierenden rausholen und hat daher individuelle Anforderungen, um das zu ermöglichen. Wir sind ihr Partner.

weitere Details

  • In Version 1.4 haben wir das Kameramodul grundhaft neu aufgebaut. Eine nie dagewesene, automatisierte und gleichmäßige Kameraführung gibt der Zuschauer*in das Gefühl, als würde ein Mensch die Kamera führen.
  • Wir sind unabhängig vom Kamera-Hersteller. Wir haben weitere Kameras integriert. Infos finden Sie hier: Kompatibilitätsliste downloaden

Ihr Ansprechpartner

Interessiert? Dann schicken Sie uns gern eine Nachricht!

Details Version 1.5.1 Ruby

  • Winkeleingabe für Sensoren in Grad: Erleichterung der Sensorkonfiguration durch Eingabe der jeweiligen Sensorwinkel in Grad statt Radianten
  • Berücksichtigung Sensorinvertierung bei der Konfiguration: Erleichterte Einrichtung der Sensoren, da die einzugebenden Parameter bei der Konfiguration unabhängig von der Installation der Sensoren (Sensorkopf oben oder unten) sind
  • Sensorkonfigurationsanpassungen bei eingeschaltetem Tracking: Optimierung der Einrichtung des TrackingMasters durch Ermöglichen von Änderungen an den Konfigurationen der hinterlegten Sensoren während der Tracking-Modus aktiviert ist
  • Verbesserung Visualisierung der Sensoren im „Zone Edit“: Die aktuelle Sensorausrichtung im Verhältnis zum zentralen Nullpunkt ist in der Ansicht „Zone Edit“ ersichtlich
  • Konfiguration Position der Sensoren im „Zone Edit“: Anpassungsmöglichkeit der Sensorposition einschließlich des Winkels direkt in der Ansicht „Zone Edit“ analog der Einrichtung von Zonen
  • Erhöhung Fehlerresistenz bei Netzwerkkommunikation mit Sensoren: TrackingMaster kann besser mit kleineren Netzwerkproblemen umgehen und es werden, beispielsweise bei einer Verzögerung in der Netzwerkkommunikation, nur die jeweils letzten Sensormesswerte berücksichtigt
  • Verdreifachung der ausgewerteten Sensormesswerte: Deaktivierung des in die Sensoren integrierten Medianfilters für eine erhöhte Messwertdichte und dahingehende Anpassung der generellen Sensordatenverarbeitung, wodurch eine zuverlässigere Erkennung von Personen insbesondere bei höheren Distanzen möglich ist
  • Erweiterung der Zoomstufen im „Zone Edit“: In der Ansicht „Zone Edit“ steht ein größeren Zoombereich zur Verfügung
  • Visualisierung verbleibende Messwerte für Personenerkennung: In der Ansicht „Zone Edit“ werden alle Messpunkte, die nach den Vorfilterungen für die Personenerkennung verbleiben, separat als magentafarbene Punkte hervorgehoben
  • Fehlerbehebung Anlage Trackingzonen: Es wurde ein Fehler behoben, der bei der gehäuften Anlage von Trackingzonen in bestimmten Konstellationen auftreten konnte und ein Neuladen der Seite erforderte
  • Globale Berücksichtigung von Zonenprioritäten: Bei der Auswertung der Sensordaten werden die Zonenprioritäten global und nicht mehr individuell pro Sensor berücksichtigt
  • Verbesserung der Auswertung der Tracking-Ziele: Die Zuordnung von erkannten Beinen zu Tracking-Zielen wurde grundsätzlich überarbeitet. Ebenso erfolgten Optimierungen bei der Unterscheidung zwischen aktiven und nicht aktiven Zielen in Abhängigkeit zur Priorität unterliegender Zonen.
  • Zusammenführung mehrfach erkannter Tracking-Ziele: Im seltenen Fall, dass einer Person mehrere Tracking-Ziele zugeordnet werden, versucht die neue als „Quick deletion“ benannte Funktion diese Ziele zusammenzuführen, um einem Timeout unnötiger verwaister Ziele vorzubeugen
  • Optimierung Timeout von Presetzonen: Timeouts von Presetzonen lassen sich feingranularer als Bruchteile von Sekunden definieren. In diesem Rahmen wurde auch ein Mindesttimeout hinterlegt, um ein stabileres Verhalten bei der Deaktivierung von Presetzonen zu bewirken
  • Eigener Medianfilter für Sensormesswerte: Bei der Vorverarbeitung der Sensordaten wurde zur Glättung von Messwertungenauigkeiten ein individueller Medianfilter realisiert, der nicht zur Reduktion der generellen Messwertdichte führt. Durch unterschiedliche Objekt- bzw. Materialbeschaffenheiten kommt es zu Schwankungen der Sensormessungen. Zur Verringerung dieser Schwankungen erfolgt eine Glättung durch die Berechnung des Medians über Messwertgruppen
  • Gauß-Filter für Sensormesswerte: Als Alternative zum standardmäßig aktivierten Medianfilter wurden zur Glättung der Messwertungenauigkeiten zwei Varianten des Gauß-Filters integriert. Durch unterschiedliche Objekt- bzw. Materialbeschaffenheiten kommt es zu Schwankungen der Sensormessungen. Zur Verringerung dieser Schwankungen erfolgt eine Glättung in Anlehnung an eine Gauß-Verteilung. In den meisten Situationen ist der Medianfilter die bessere Option und sollte daher bevorzugt verwendet werden.
  • Eigener Partikelfilter für Sensormesswerte: Ersetzung des integrierten Partikelfilters der Sensoren, welcher mit einer Verzögerung der Messwerte verbunden ist, durch einen eigenen Partikelfilter, der nur bei der Neudetektion eines potenziellen Ziels Messwerte selektiv verzögert, um Partikel wie Staubkörner herauszufiltern
  • Filterung Extremwerte der Sensormesswerte: Messwerte, die auf Basis ihres Werts auf Fehlmessungen der Sensoren hindeuten, werden von der Analyse ausgeschlossen
  • Filterung statischer Objektpositionen: Objekte mit einer festen Position werden erlernt und können dadurch bei der Analyse der Sensormesswerte ignoriert werden, um Fehlerkennungen vorzubeugen. Durch die Schwankungen der Messwerte insbesondere an Kanten akzeptiert das Lernverfahren auch gewisse Toleranzen.
  • Filter Einzelaktivierung: Bei diesem neuen Filter handelt es sich um eine zusätzliche Logik zum Herausfiltern von einzelnen Messfehlern der Sensoren in von Zonen abgedeckten Bereichen. Es werden einmalig auftretende erhebliche Messwertabweichungen ignoriert, insofern diese nicht mit einer Objektbewegung assoziiert werden können.
  • Filter Mindestanzahl an Messwerten für Bein-Clustering: In Abhängigkeit der Distanz von Zielen ist eine Mindestanzahl an korrekten Sensormesswerten erforderlich
  • Vorbereitung einer optimierten Zielnachverfolgung unter Einsatz eines Kalman-Filters: Die Zuordnung von Beinerkennungen zu Tracking-Zielen soll unter Vorhersage der nächsten Position bestehender Ziele anhand deren Bewegungsprofil weiter verbessert werden. Für diese Vorhersage ist eine Variante des Kalman-Filters integriert, die aufgrund fortlaufender Optimierungen standardmäßig deaktiviert ist. Sollte nur eine Person getrackt werden, kann der Filter testweise verwendet werden.
  • Deaktivierung einzelner Filter: Zum Aktivieren und Deaktivieren der Filter wurde eine separate Konfigurationsseite „Filters“ bereitgestellt
  • Detailkonfigurationen Filter und Sensordatenverarbeitung: Für einzelne Schritte der Sensordatenverarbeitung und die diversen Filter stehen auf der neuen Seite „Filters“ mehr als 40 Parameter zur individuellen Konfiguration des TrackingMasters zur Verfügung, wodurch eine bessere Anpassung des Verhaltens an unterschiedliche Situationen möglich ist. Die Parameter sind grundsätzlich auf sinnvolle Wertebereiche begrenzt, sollten aber trotzdem nur mit äußerster Sorgfalt angepasst werden.
  • Resetfunktion Filterkonfigurationen: Sämtliche Modifikationen an den unter der Konfigurationsseite „Filters“ zur Verfügung stehenden Parametern können mittels einer Resetfunktion auf die Standardwerte zurückgesetzt werden
  • Optimierte Geschwindigkeitsfunktionen für den Zoom von Canon-PTZ-Kameras: Die Basiskurven zur Ansteuerung des Zooms bei Canon-PTZ-Kameras wurden ersetzt, wodurch eine schnellere Zoomadaption von „Ist“ zu „Soll“ erzielt wird
  • Berücksichtigung Kamerainvertierung bei der Konfiguration: Erleichterte Einrichtung der PTZ-Kamera, indem das System die eventuelle Invertierung der Kamera bei den Einstellungen in der Ansicht „PTZ Viewer“ berücksichtigt
  • Konfiguration weiterer Bildquellen: Neben der PTZ-Kamera können weitere externe statische Bildquellen im TrackingMaster hinterlegt werden
  • Konfiguration Bildausgänge: Funktion zur optionalen Definition von verfügbaren Bildsenken in der AV-Anlage, wobei frei definierbare Schlüssel hinterlegt werden können, um neben den physischen auch logische Bildausgänge adressieren zu können, die mit einer bestimmten Konfiguration in Verbindung mit Bildmischern versehen sind (z.B. für verschiedene PIP-Konstellationen)
  • Konfiguration Equipmentszenarien: Es können sogenannte Equipmentszenarien hinterlegt werden, die über frei definierbare Schlüssel Befehle zur Ansteuerung weiterer Geräte in der AV-Anlage für eine Mediensteuerung bereitstellen (z.B.: Spot_light_center_brighter, Microphone_lectern_mute_off)
  • Definition aktive Bildquellen für Zonen: Jeder Preset- und Trackingzone können Kombinationen aus Bildquellen und -senken im „Zone Edit“ zugewiesen werden, um in Verbindung mit einer Mediensteuerung und Bildmischern einen automatischen Wechsel zwischen unterschiedlichen Bildeingängen und -ausgängen in Abhängigkeit der Positionen von Tracking-Zielen zu ermöglichen
  • Definition aktive Equipmentszenarien für Zonen: Jeder Preset- und Trackingzone können Equipmentszenarien zugewiesen werden, wodurch unter Einsatz einer Mediensteuerung in Abhängigkeit zur aktuellen Tracking-Konstellation Geräte in der AV-Anlage gesteuert werden können (z.B. Hebe die Stummschaltung des Mikrofons am Rednerpult auf, sobald sich eine Person in einem festgelegten Umfeld des Rednerpults befindet)
  • Endpunkt „activetriggers“ der TrackingMaster-API: Es steht ein neuer API-Endpunkt zur Verfügung, der speziell auf die Verarbeitung von Steuerungsbefehlen des TrackingMasters durch eine Mediensteuerung o.ä. optimiert wurde. Neben den jeweils aktuell zu verwendenden Bildquellen in Verbindung mit Bildsenken und den aktiven Equipmentszenarien stellt die Schnittstelle Informationen zu den Positionen der relevanten Ziele und der aktuellen Tracking-Konstellation bereit
  • Weitere funktionale Erweiterungen der TrackingMaster-API: Mehrere kleine Anpassungen sowie Integration von Endpunkten für Bildquellen, Bildausgängen und Equipmentszenarien
  • Überarbeitung der Dokumentation der TrackingMaster-API: Fehlerbehebungen, Erklärungstexte optimiert, Funktionalitäten zum Testen der API angepasst
  • TrackingMaster-API-Dokumentation Verfügbarkeit: Öffentliche Bereitstellung der TrackingMaster-API-Dokumentation auf https://docu.trackingmaster.io/ unabhängig von der lokalen Erreichbarkeit eines TrackingMasters, wobei jedoch die „Tryout“-Funktionalität nicht verwendbar ist
  • Verbesserte Anzeige Updateinformationen: Alphabetische Sortierung der Updatestände nach den einzelnen Modulen
  • Optimierung des Loggings: Das Logging des TrackingMasters wurde verbessert und die Maximalmenge der gesammelten Loggingdaten erhöht
  • Aufzeichnungsfunktion für Sensormesswerte: Rohe Sensormesswerte können aufgezeichnet werden, um eine leichtere Analyse zu ermöglichen und wiederholt Konstellationen nachvollziehen zu können
  • Diverse Performance-Optimierungen: Interne Laufzeitperfomance-Optimierungen, um trotz der neuen teils rechenintensiven Funktionen eine identische bzw. teilweise sogar geringere Laufzeit und Systemlast zu erzielen