1.5.1 #
- Winkeleingabe für Sensoren in Grad: Erleichterung der Sensorkonfiguration durch Eingabe der jeweiligen Sensorwinkel in Grad statt Radianten
- Berücksichtigung Sensorinvertierung bei der Konfiguration: Erleichterte Einrichtung der Sen-soren, da die einzugebenden Parameter bei der Konfiguration unabhängig von der Installa-tion der Sensoren (Sensorkopf oben oder unten) sind
- Sensorkonfigurationsanpassungen bei eingeschaltetem Tracking: Optimierung der Einrich-tung des TrackingMasters durch Ermöglichen von Änderungen an den Konfigurationen der hinterlegten Sensoren während der Tracking-Modus aktiviert ist
- Verbesserung Visualisierung der Sensoren im „Zone Edit“: Die aktuelle Sensorausrichtung im Verhältnis zum zentralen Nullpunkt ist in der Ansicht „Zone Edit“ ersichtlich
- Konfiguration Position der Sensoren im „Zone Edit“: Anpassungsmöglichkeit der Sensorposi-tion einschließlich des Winkels direkt in der Ansicht „Zone Edit“ analog der Einrichtung von Zonen
- Erhöhung Fehlerresistenz bei Netzwerkkommunikation mit Sensoren: TrackingMaster kann besser mit kleineren Netzwerkproblemen umgehen und es werden, beispielsweise bei einer Verzögerung in der Netzwerkkommunikation, nur die jeweils letzten Sensormesswerte be-rücksichtigt
- Verdreifachung der ausgewerteten Sensormesswerte: Deaktivierung des in die Sensoren in-tegrierten Medianfilters für eine erhöhte Messwertdichte und dahingehende Anpassung der generellen Sensordatenverarbeitung, wodurch eine zuverlässigere Erkennung von Personen insbesondere bei höheren Distanzen möglich ist
- Erweiterung der Zoomstufen im „Zone Edit“: In der Ansicht „Zone Edit“ steht ein größeren Zoombereich zur Verfügung
- Visualisierung verbleibende Messwerte für Personenerkennung: In der Ansicht „Zone Edit“ werden alle Messpunkte, die nach den Vorfilterungen für die Personenerkennung verbleiben, separat als magentafarbene Punkte hervorgehoben
- Fehlerbehebung Anlage Trackingzonen: Es wurde ein Fehler behoben, der bei der gehäuften Anlage von Trackingzonen in bestimmten Konstellationen auftreten konnte und ein Neula-den der Seite erforderte
- Globale Berücksichtigung von Zonenprioritäten: Bei der Auswertung der Sensordaten werden die Zonenprioritäten global und nicht mehr individuell pro Sensor berücksichtigt
- Verbesserung der Auswertung der Tracking-Ziele: Die Zuordnung von erkannten Beinen zu Tracking-Zielen wurde grundsätzlich überarbeitet. Ebenso erfolgten Optimierungen bei der Unterscheidung zwischen aktiven und nicht aktiven Zielen in Abhängigkeit zur Priorität unter-liegender Zonen.
- Zusammenführung mehrfach erkannter Tracking-Ziele: Im seltenen Fall, dass einer Person mehrere Tracking-Ziele zugeordnet werden, versucht die neue als „Quick deletion“ benannte Funktion diese Ziele zusammenzuführen, um einem Timeout unnötiger verwaister Ziele vor-zubeugen
- Optimierung Timeout von Presetzonen: Timeouts von Presetzonen lassen sich feingranularer als Bruchteile von Sekunden definieren. In diesem Rahmen wurde auch ein Mindesttimeout hinterlegt, um ein stabileres Verhalten bei der Deaktivierung von Presetzonen zu bewirken
- Eigener Medianfilter für Sensormesswerte: Bei der Vorverarbeitung der Sensordaten wurde zur Glättung von Messwertungenauigkeiten ein individueller Medianfilter realisiert, der nicht zur Reduktion der generellen Messwertdichte führt. Durch unterschiedliche Objekt- bzw. Ma-terialbeschaffenheiten kommt es zu Schwankungen der Sensormessungen. Zur Verringerung dieser Schwankungen erfolgt eine Glättung durch die Berechnung des Medians über Mess-wertgruppen
- Gauß-Filter für Sensormesswerte: Als Alternative zum standardmäßig aktivierten Medianfil-ter wurden zur Glättung der Messwertungenauigkeiten zwei Varianten des Gauß-Filters inte-griert. Durch unterschiedliche Objekt- bzw. Materialbeschaffenheiten kommt es zu Schwan-kungen der Sensormessungen. Zur Verringerung dieser Schwankungen erfolgt eine Glättung in Anlehnung an eine Gauß-Verteilung. In den meisten Situationen ist der Medianfilter die bessere Option und sollte daher bevorzugt verwendet werden.
- Eigener Partikelfilter für Sensormesswerte: Ersetzung des integrierten Partikelfilters der Sen-soren, welcher mit einer Verzögerung der Messwerte verbunden ist, durch einen eigenen Partikelfilter, der nur bei der Neudetektion eines potenziellen Ziels Messwerte selektiv verzö-gert, um Partikel wie Staubkörner herauszufiltern
- Filterung Extremwerte der Sensormesswerte: Messwerte, die auf Basis ihres Werts auf Fehl-messungen der Sensoren hindeuten, werden von der Analyse ausgeschlossen
- Filterung statischer Objektpositionen: Objekte mit einer festen Position werden erlernt und können dadurch bei der Analyse der Sensormesswerte ignoriert werden, um Fehlerkennun-gen vorzubeugen. Durch die Schwankungen der Messwerte insbesondere an Kanten akzep-tiert das Lernverfahren auch gewisse Toleranzen.
- Filter Einzelaktivierung: Bei diesem neuen Filter handelt es sich um eine zusätzliche Logik zum Herausfiltern von einzelnen Messfehlern der Sensoren in von Zonen abgedeckten Berei-chen. Es werden einmalig auftretende erhebliche Messwertabweichungen ignoriert, insofern diese nicht mit einer Objektbewegung assoziiert werden können.
- Filter Mindestanzahl an Messwerten für Bein-Clustering: In Abhängigkeit der Distanz von Zie-len ist eine Mindestanzahl an korrekten Sensormesswerten erforderlich
- Vorbereitung einer optimierten Zielnachverfolgung unter Einsatz eines Kalman-Filters: Die Zuordnung von Beinerkennungen zu Tracking-Zielen soll unter Vorhersage der nächsten Posi-tion bestehender Ziele anhand deren Bewegungsprofil weiter verbessert werden. Für diese Vorhersage ist eine Variante des Kalman-Filters integriert, die aufgrund fortlaufender Opti-mierungen standardmäßig deaktiviert ist. Sollte nur eine Person getrackt werden, kann der Filter testweise verwendet werden.
- Deaktivierung einzelner Filter: Zum Aktivieren und Deaktivieren der Filter wurde eine sepa-rate Konfigurationsseite „Filters“ bereitgestellt
- Detailkonfigurationen Filter und Sensordatenverarbeitung: Für einzelne Schritte der Sensor-datenverarbeitung und die diversen Filter stehen auf der neuen Seite „Filters“ mehr als 40 Parameter zur individuellen Konfiguration des TrackingMasters zur Verfügung, wodurch eine bessere Anpassung des Verhaltens an unterschiedliche Situationen möglich ist. Die Parame-ter sind grundsätzlich auf sinnvolle Wertebereiche begrenzt, sollten aber trotzdem nur mit äußerster Sorgfalt angepasst werden.
- Resetfunktion Filterkonfigurationen: Sämtliche Modifikationen an den unter der Konfigurati-onsseite „Filters“ zur Verfügung stehenden Parametern können mittels einer Resetfunktion auf die Standardwerte zurückgesetzt werden
- Optimierte Geschwindigkeitsfunktionen für den Zoom von Canon-PTZ-Kameras: Die Basiskur-ven zur Ansteuerung des Zooms bei Canon-PTZ-Kameras wurden ersetzt, wodurch eine schnellere Zoomadaption von „Ist“ zu „Soll“ erzielt wird
- Berücksichtigung Kamerainvertierung bei der Konfiguration: Erleichterte Einrichtung der PTZ-Kamera, indem das System die eventuelle Invertierung der Kamera bei den Einstellungen in der Ansicht „PTZ Viewer“ berücksichtigt
- Konfiguration weiterer Bildquellen: Neben der PTZ-Kamera können weitere externe statische Bildquellen im TrackingMaster hinterlegt werden
- Konfiguration Bildausgänge: Funktion zur optionalen Definition von verfügbaren Bildsenken in der AV-Anlage, wobei frei definierbare Schlüssel hinterlegt werden können, um neben den physischen auch logische Bildausgänge adressieren zu können, die mit einer bestimmten Konfiguration in Verbindung mit Bildmischern versehen sind (z.B. für verschiedene PIP-Kons-tellationen)
- Konfiguration Equipmentszenarien: Es können sogenannte Equipmentszenarien hinterlegt werden, die über frei definierbare Schlüssel Befehle zur Ansteuerung weiterer Geräte in der AV-Anlage für eine Mediensteuerung bereitstellen (z.B.: Spot_light_center_brighter, Micro-phone_lectern_mute_off)
- Definition aktive Bildquellen für Zonen: Jeder Preset- und Trackingzone können Kombinatio-nen aus Bildquellen und -senken im „Zone Edit“ zugewiesen werden, um in Verbindung mit einer Mediensteuerung und Bildmischern einen automatischen Wechsel zwischen unter-schiedlichen Bildeingängen und -ausgängen in Abhängigkeit der Positionen von Tracking-Zie-len zu ermöglichen
- Definition aktive Equipmentszenarien für Zonen: Jeder Preset- und Trackingzone können Equipmentszenarien zugewiesen werden, wodurch unter Einsatz einer Mediensteuerung in Abhängigkeit zur aktuellen Tracking-Konstellation Geräte in der AV-Anlage gesteuert werden können (z.B. Hebe die Stummschaltung des Mikrofons am Rednerpult auf, sobald sich eine Person in einem festgelegten Umfeld des Rednerpults befindet)
- Endpunkt „activetriggers“ der TrackingMaster-API: Es steht ein neuer API-Endpunkt zur Ver-fügung, der speziell auf die Verarbeitung von Steuerungsbefehlen des TrackingMasters durch eine Mediensteuerung o.ä. optimiert wurde. Neben den jeweils aktuell zu verwendenden Bildquellen in Verbindung mit Bildsenken und den aktiven Equipmentszenarien stellt die Schnittstelle Informationen zu den Positionen der relevanten Ziele und der aktuellen Tra-cking-Konstellation bereit
- Weitere funktionale Erweiterungen der TrackingMaster-API: Mehrere kleine Anpassungen sowie Integration von Endpunkten für Bildquellen, Bildausgängen und Equipmentszenarien
- Überarbeitung der Dokumentation der TrackingMaster-API: Fehlerbehebungen, Erklä-rungstexte optimiert, Funktionalitäten zum Testen der API angepasst
- TrackingMaster-API-Dokumentation Verfügbarkeit: Öffentliche Bereitstellung der Tracking-Master-API-Dokumentation auf https://docu.trackingmaster.io/ unabhängig von der lokalen Erreichbarkeit eines TrackingMasters, wobei jedoch die „Tryout“-Funktionalität nicht ver-wendbar ist
- Verbesserte Anzeige Updateinformationen: Alphabetische Sortierung der Updatestände nach den einzelnen Modulen
- Optimierung des Loggings: Das Logging des TrackingMasters wurde verbessert und die Maxi-malmenge der gesammelten Loggingdaten erhöht
- Aufzeichnungsfunktion für Sensormesswerte: Rohe Sensormesswerte können aufgezeichnet werden, um eine leichtere Analyse zu ermöglichen und wiederholt Konstellationen nachvoll-ziehen zu können
- Diverse Performance-Optimierungen: Interne Laufzeitperfomance-Optimierungen, um trotz der neuen teils rechenintensiven Funktionen eine identische bzw. teilweise sogar geringere Laufzeit und Systemlast zu erzielen
1.5.2 #
- Umbenennung des „Ghostmode“ zu „Pause Tracking“: Vereinheitlichung der Bezeichnung im Webinterface und der API.
- Fehlerbehebung TXT-API: Es wurde ein Fehler behoben, durch den während des Abschaltens des Systems kurzzeitig ein falscher Powerstatus ausgegeben wurde.
- Verbesserung „Zone Edit“: Je Sensor können die zugehörigen Messpunkte ausgeblendet oder beliebig eingefärbt werden.
- Unterstützung Canon N700: Kameras vom Typ Canon N700 werden unterstützt und
können bei der Einrichtung ausgewählt werden. - Fehlerbehebung Kameraneigungskorrektur: Es wurde ein Fehler der Kameraansteuerung behoben, der auftreten konnte, wenn die Kamera nicht mittig im Raum platziert
wurde und die Neigungskorrektur aktiv war.
1.5.3 #
- Unterstützung Canon CR-N100: Kameras vom Typ Canon CR-N100 werden unterstützt und
können bei der Einrichtung ausgewählt werden. - Messwert-Abschnitte von Sensoren können von der Auswertung ausgeschlossen werden: Zur
Reduzierung der negativen Effekte von Spiegelungen an hoch-glänzenden Objekten können
Bereiche der Messdaten gänzlich von der Auswertung ausgeschlossen werden. - Automatische Deaktivierung von „Pausetracking“ beim Einschalten des Systems: Zur Vermeidung von Fehlern wird beim Einschalten des Systems sichergestellt, dass „Pausetracking“ inaktiv ist und somit eine automatische Kameraansteuerung erfolgen kann.
- Erweiterung API: Über die API kann die normalisierte Kameraposition unabhängig vom Kameramodell abgefragt werden.