Haben Sie sich jemals gefragt, wie Sie mit auf und ab hüpfendem Kopf gehen oder joggen können, während Sie sich immer noch auf ein Objekt in der Nähe oder in der Ferne konzentrieren? Haben Sie bemerkt, wie Sie das Gleiche tun und Entfernung, Geschwindigkeit des Objekts und kleinste Details dieses Objekts schnell und genau beurteilen können? Nun, der Grund, warum Sie dies so gut tun können, ist, wie der Verstand mithilfe von Frame-Bursts von Bildern aus Ihrem Gedächtnis und Netzhautjitter hilft, die Details schnell auszufüllen, während Ihr visueller Kortex die Lücken ausfüllt – all dies geschieht in Mikro- Sekunden mit einem Gehirn, das kaum 20 Watt Leistung verbraucht. Wow, sprechen Sie über ein hochmodernes organisches Design und Technologie – beeindruckend, mein Mitmensch.

Natürlich machen einige Tiere und Vögel dies noch besser als wir, mit viel kleineren Gehirnen. Überlegen Sie, ob Sie eine Eule, ein Falke oder ein Weißkopfseeadler sind. Die Phrase „Eagle Eyes“ ist hier apropos, denken Sie darüber nach. Mithilfe von Biomimikry-Strategien können wir möglicherweise unser UAV (unbemanntes Luftfahrzeug) oder unsere Drohnenvideobildgebung leistungsfähiger und akuter machen – und dabei für einen Moment die Anzahl der Anwendungen berücksichtigen, die davon betroffen sind? Wie machen wir das bisher mit diesen Konzepten? Nun, 3-Achsen-Kardanringe sind bei kleinen Drohnenbesitzern am gefragtesten, aber warum sollten Sie eine 3-Achsen-Kardanstütze verwenden, wenn Sie eine 4,5- oder 6-Achsen-Kreiselstabilisierungskardanringe für eine bessere Videoauflösung und Genauigkeit herstellen können? Dies würde sicherlich zur Stabilisierung der Videokamera beitragen, ebenso wie Quad-Copter-Designs, die selbst bei mäßigen Turbulenzen recht stabil sind.

Lassen Sie uns einen Moment über Strategien sprechen – um zu der Fähigkeit des Adlerauges zu gelangen, die wir in der Natur sehen. In einem Patent, „Vorrichtung und Verfahren zur Stabilisierung und Schwingungsreduzierung“, US 9277130 B2, heißt es ordnungsgemäß: „Derzeit gibt es hauptsächlich vier Verfahren zur Schwingungsdämpfung, die üblicherweise in der Fotografie und Videografie eingesetzt werden, um die Auswirkungen von Schwingungen auf das Bild zu verringern: Softwarestabilisierung , Objektivstabilisierung, Sensorstabilisierung und Stabilisierung der gesamten Aufnahmegeräte. „

Was ist, wenn wir auch mit visuellen Erkennungssystemen für das Platzen von Frames arbeiten und uns nur auf Dinge konzentrieren, die unsere Missionskriterien erfüllen? „ODER“ sind vollständige Anomalien (fehl am Platz). In einem menschlichen Geist lösen Dinge, die nicht am richtigen Ort sind, häufig die N400-Gehirnwelle aus und rufen Neugier, Nuancen oder Interesse hervor. Wir können dasselbe mit Algorithmen programmieren, für die die Videokamera erforderlich ist. untersuchen, identifizieren und handeln. Oder, wie Colonel Boyds „OODA-Schleifenstrategie“ vorschlägt: Beobachten, orientieren, entscheiden und handeln. Und der Kampfpilot, der das am schnellsten kann, sollte den Luftkampf gewinnen, vorausgesetzt, er nutzt seine Energie und Luftgeschwindigkeit gut aus. Guter Rat, auch wenn wir ihn ausleihen, um zu besprechen, wie ein UAS (unbemanntes Flugsystem) am besten programmiert werden kann, um eine Aufgabe oder Mission zu erfüllen.

In einem Artikel „Modellbasierte Videostabilisierung für Kleinstflugzeuge in Echtzeit“ heißt es in der Zusammenfassung; „Die aufstrebende Branche der Micro Aerial Vehicles (MAVs) hat ein großes Interesse an ihren Navigationsfähigkeiten in Innenräumen geweckt, benötigt jedoch ein hochqualitatives Video für ferngesteuerte oder autonome Aufgaben. Ein häufiges Problem der Videoqualität an Bord ist der Effekt von unerwünschte Bewegungen, und es gibt verschiedene Ansätze, um sie mit mechanischen Stabilisatoren oder Videostabilisatorsoftware zu lösen. Nur sehr wenige Videostabilisatorsoftware können in Echtzeit angewendet werden, und ihre Algorithmen berücksichtigen keine absichtlichen Bewegungen des Teleoperators. „

In der Tat ist dies das Problem, und es ist ein echtes Problem, wenn wir jemals hoffen, Drohnen für autonome Missionen auszusenden, sei es für die Lieferung eines Pakets oder für die Arbeit als fliegender Sicherheitsbeamter für beispielsweise eine kommerzielle Baustelle.

In diesem Artikel wird ein Weg vorgeschlagen, um einige dieser Herausforderungen zu lösen: „Es wird eine neuartige Technik zur Echtzeit-Videostabilisierung mit geringem Rechenaufwand eingeführt, ohne falsche Bewegungen zu erzeugen oder die Leistung zu verringern. Unser Vorschlag verwendet eine Kombination aus geometrischen Elementen Transformationen und Ausreißer-Zurückweisung, um eine robuste Bewegungsschätzung zwischen Rahmen und einen Kalman-Filter zu erhalten, der auf einem dynamischen Modell basiert. „

Nun, obwohl es Leute gibt, die an diesen Dingen arbeiten, ist es offensichtlich, dass wir den Wunsch, Drohnen zu erlauben, autonom auf sichere und effiziente Weise zu arbeiten, bis die Sensoren, Bildgebung und Ausrüstung bei solchen Aufgaben besser werden, nicht erfüllen werden Vorteile, die wir in Zukunft von diesen Technologien erwarten. Ich hoffe, Sie werden meine Gedanken hier und einige meiner Empfehlungen berücksichtigen, Strategien aus der Natur auszuleihen, um solche Ziele zu erreichen.

Zitiert:

A.) „Vision-Based Detection and Distance Estimation of Micro Unmanned Aerial Vehicles“ von Fatih Gokce, Gokturk Ucoluk, Erol Sahin und Sinan Kalkan. Sensors 2015, 15 (9), 23805 & ndash; 23846; doi: 10.3390 / s150923805

B.) These: „Beschleunigte Objektverfolgung mit lokalen binären Merkmalen“ von Breton Lawrence Minnehan von der Rochester School of Technology; Juli 2014.

C.) „Modellbasierte Videostabilisierung für Kleinstflugzeuge in Echtzeit“ von Wilbert G. Aguilar und Cecilio Angulo.

D.) „Echtzeit-Megapixel-Multispektral-Bioimaging“ von Jason M. Eichenholz, Nick Barnetta, Yishung Juanga, Dave Fishb, Steve Spanoc, Erik Lindsleyd und Daniel L. Farkasd.

E.) „Verbessertes Verfolgungssystem basierend auf einer Mikroträgheitsmesseinheit zur Messung sensomotorischer Reaktionen bei Tauben“ von Noor Aldoumani, Turgut Meydan, Christopher M. Dillingham und Jonathan T. Erichsen.



Source by Lance Winslow

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.