Auto Annotation

Magic annotation hilft Ihnen, Bounding Boxes automatisch mit AI-Modellen zu erzeugen, damit Sie Datensätze viel schneller annotieren können.

Es ist auf einen praktischen Workflow ausgelegt:

  1. Konfigurieren Sie das Modell und die Prompts einmal

  2. Auto-annotieren Sie ein Bild, um die Qualität zu prüfen

  3. Batch-Auto-annotieren Sie den ganzen Datensatz

  4. Überprüfen und korrigieren Sie alles, was falsch ist


Voraussetzungen

Magic annotation läuft am schnellsten mit einer NVIDIA GPU.

  • Sie benötigen einen Computer mit einer NVIDIA GPU

  • Installieren Sie CUDA und cuDNN

  • Laden Sie die benötigten AI-Module über das Module Downloader-Fenster herunter


Erster Blick

Magic annotation entry point in the Classes panel

(Öffnen Sie Magic annotation mit der ✨-Schaltfläche oder drücken Sie T.)

Sie können Magic annotation auf zwei Arten öffnen:

  • Drücken Sie die Taste T, um das aktuelle Bild automatisch zu annotieren (verwendet Ihre gespeicherten Einstellungen)

  • Klicken Sie in der Classes-Panel auf die ✨-Schaltfläche, um den Magic annotation-Einstellungsdialog zu öffnen

Beim ersten Gebrauch von Magic annotation bittet AugeLab Studio Sie, Ihre Einstellungen zu konfigurieren. Diese Einstellungen werden gespeichert und können jederzeit durch Klicken auf die ✨-Schaltfläche geändert werden.


Bevor Sie anfangen (empfohlen)

Magic annotation benötigt einen Datensatz und eine Klassenliste.

  1. Laden Sie Ihren Dataset-Ordner im Image Annotation Window

  2. Laden (oder erstellen) Sie Ihre classes.names-Datei

Wenn Sie das Annotation Window noch nicht verwendet haben, folgen Sie zuerst dem Haupt-Leitfaden zum Labeln.


Öffnen des Magic annotation-Dialogs

  1. Öffnen Sie AI ToolsImage Annotation

  2. Laden Sie Ihren Datensatz und die Klassen-Datei

  3. Klicken Sie im Classes-Panel auf die ✨-Schaltfläche

Dadurch öffnet sich der Magic annotation Settings-Dialog.

Magic annotation settings dialog

Schritt 1 — Modell wählen

Wählen Sie in Model Selection eines der unterstützten Detektoren.

Text-prompt Modelle (empfohlen für benutzerdefinierte Klassen)

Diese Modelle erkennen Objekte mithilfe Ihrer Klassendefinitionen (Text-Prompts):

  • Grounding DINO Tiny: guter Standard, schneller

  • Grounding DINO Base: genauer, schwerer (GPU dringend empfohlen)

  • OWLv2 Base Ensemble: gutes allgemeines Modell

  • OWLv2 Large Ensemble: genauer, schwerer (GPU dringend empfohlen)

Verwenden Sie diese, wenn Ihre Klassen keine Standard-COCO-Klassen sind oder wenn Sie das Objekt in natürlicher Sprache beschreiben möchten.

YOLO-Modelle (schnell, aber Class-Matching ist wichtig)

YOLO-Modelle werden angezeigt, wenn die YOLO/OpenCV DNN-Funktion verfügbar ist:

  • YOLOv4 (COCO)

  • YOLOv4 Tiny (COCO)

Diese verwenden keine Textbeschreibungen. Sie arbeiten mit COCO-Klassennamen.

Custom YOLOv4 Model

Wenn Sie ein eigenes YOLOv4-Modell haben, wählen Sie Custom YOLOv4 Model und geben folgende Dateien an:

  • Weights-Datei (.weights)

  • Config-Datei (.cfg)

  • Names-Datei (.names)


Schritt 2 — Schwellenwerte einstellen

Confidence Threshold

Steuert, wie sicher eine Erkennung sein muss, um als Label übernommen zu werden.

  • Höhere Werte → weniger Boxen, aber in der Regel sauberere Ergebnisse

  • Niedrigere Werte → mehr Boxen, aber mehr False Positives

Ein guter Startwert ist 30%.

Grounding DINO: Box Threshold und Text Threshold

Diese erscheinen nur bei Grounding DINO-Modellen:

  • Box Threshold: wie streng die Box-Confidence sein soll

  • Text Threshold: wie streng die Zuordnung zwischen Text und Objekt sein soll

Empfehlungen:

  • Bei zu vielen falschen Boxen → zuerst Text Threshold erhöhen

  • Wenn Boxen schlampig oder zu weit sind → Box Threshold erhöhen

  • Wenn keine Erkennungen auftauchen → Schwellenwerte langsam senken


Schritt 3 — Bessere Klassendefinitionen schreiben (bei Text-Prompt-Modellen)

Wenn Sie ein Text-Prompt-Modell gewählt haben, sehen Sie eine Class Descriptions-Tabelle.

Class descriptions table

(Die Class Descriptions-Tabelle wird als Prompt verwendet.)

Warum das wichtig ist: Die Beschreibung ist der Prompt, den das Modell verwendet, um Ihre Objekte zu finden.

Gute Beschreibungen sind:

  • Visuell und spezifisch (Farbe, Form, Material)

  • An Ihre echten Bilder angepasst (Hintergrund, Beleuchtung, Blickwinkel)

Beispiele:

  • Statt boltsilver bolt on a black conveyor belt

  • Statt cupwhite paper cup, top view

  • Statt labelrectangular sticker label on a cardboard box

Sie können auch verwenden:

  • Use Class Names, um Prompts auf die Klassennamen zurückzusetzen

  • Clear All, um neu zu beginnen

Tipp: Wenn zwei Klassen ähnlich aussehen, heben Sie in der Beschreibung das hervor, was sie unterscheidet. Beispiel: scratch on metal surface vs oil stain on metal surface.


Schritt 4 — Annotation Mode wählen (wichtig)

Magic annotation unterstützt drei Modi für den Umgang mit bereits vorhandenen Annotationen:

  • Override: ersetzt bestehende Annotationsdateien

  • Add: fügt neue Erkennungen zu bestehenden Annotationen hinzu

  • Skip: verarbeitet keine Bilder, die bereits Annotationen haben

Empfehlungen:

  • Wählen Sie Override, wenn Sie neu anfangen oder alles neu labeln möchten

  • Wählen Sie Add, wenn Sie vorhandene Labels ergänzen wollen

  • Wählen Sie Skip, wenn Sie einen teilweise gelabelten Datensatz verfeinern und nichts überschreiben möchten


Magic annotation ausführen

Annotate Current (ein Bild)

Verwenden Sie zuerst Annotate Current.

Das ist die sicherste Methode, um zu überprüfen, ob:

  • Ihre Prompts passen

  • die Schwellenwerte sinnvoll sind

  • die Boxen korrekt aussehen

Wenn die Ergebnisse nicht gut sind, passen Sie Prompts/Schwellenwerte an und testen erneut.

Batch Annotate All (ganzer Datensatz)

Wenn das aktuelle Bild gut aussieht, klicken Sie auf Batch Annotate All.

Ein Fortschrittsdialog zeigt:

  • aktuellen Status (model loading / processing)

  • Fortschrittsbalken

  • geschätzte verbleibende Zeit (ETA)

Sie können jederzeit abbrechen.

Batch Magic annotation progress dialog

(Fortschritt von Batch Magic annotation mit ETA.)


Ergebnisse überprüfen und korrigieren

Magic annotation soll das Labeln beschleunigen, ersetzt aber nicht die manuelle Überprüfung.

Nach dem Auto-Labeling:

  1. Überfliegen Sie die Bilder schnell, um offensichtliche Fehler zu finden

  2. Korrigieren Sie falsche Boxen (falsche Klasse, falsche Größe)

  3. Entfernen Sie False Positives

  4. Fügen Sie verpasste Objekte manuell hinzu

Wenn Sie wiederholte Fehler sehen, stoppen Sie, passen Sie Prompts/Schwellenwerte an und führen Sie den Prozess erneut aus.


Wenn Ihre AI-Modelle sich nicht wie erwartet verhalten, helfen diese Schnelllösungen beim Tuning.

🚫 "Es annotiert nichts" (Null Erkennungen)

Wenn die AI zu zurückhaltend ist, liegt das meist an Schwellenwerten oder Beschreibungen.

  • Confidence senken: Verringern Sie den Confidence Threshold leicht (z. B. von 30% runter).

  • Text-Sensitivität: Bei Grounding DINO den Text Threshold verringern, damit die Wort-Zuordnung weniger strikt ist.

  • Seien Sie spezifisch: Statt „part“ lieber „silver metal bolt“ oder „red plastic cap“. Beschreibungen sollten visuell sein.

  • Listen prüfen: Stellen Sie sicher, dass Ihre Klassenliste im Node-Setting geladen ist und nicht leer ist.

📦 "Zu viele falsche Boxen" (Ghost Detections)

Wenn der Bildschirm mit False Positives überfüllt ist, müssen Sie die Strenge erhöhen.

  • Confidence erhöhen: Erhöhen Sie den Confidence Threshold, um unsichere Vorhersagen herauszufiltern.

  • Text-Strictness: Erhöhen Sie den Text Threshold, damit die Übereinstimmung zwischen Bild und Prompt strenger wird.

  • Ambiguität entfernen: Vermeiden Sie allgemeine Prompts wie „object“ oder „item“. Beschreiben Sie eindeutige Farben/Strukturen.

❓ "YOLO model erkennt meine Klasse nicht"

Standard-YOLO-Modelle wurden auf bestimmten Datensätzen vortrainiert.

  • COCO-Standard: Basis-YOLO-Modelle erkennen nur die 80 COCO-Kategorien. Ihre Labels müssen exakt übereinstimmen (z. B. person, cell phone, chair, bottle).

  • Spezielle Fälle: Wenn Sie etwas Spezielles erkennen müssen (z. B. „scratched circuit board“), wechseln Sie zu einem Text-Prompt-Modell (z. B. Grounding DINO) oder trainieren Sie ein Custom YOLO-Modell.

🐌 "Verarbeitung ist langsam oder ruckelt"

Vision-Modelle sind rechenintensiv.

  • Erstlauf-Verzögerung: Es ist normal, dass der erste Lauf langsam ist, während Modelle heruntergeladen und initialisiert werden.

  • Modellgröße: Grounding DINO Base und OWLv2 Large sind hochpräzise, aber „schwer“. Probieren Sie eine „Tiny“- oder „Small“-Variante für mehr Geschwindigkeit.

  • Hardware: Stellen Sie sicher, dass AugeLab Ihre GPU nutzt. Große AI-Modelle auf einer CPU laufen deutlich langsamer.


💡 Noch Fragen?

Probieren Sie den AI Assistant in AugeLab Studio. Beschreiben Sie Ihre Kameraperspektive und wie die Boxen aktuell aussehen; er kann oft genaue Dezimalwerte für Ihre Schwellenwerte vorschlagen.

Möchten Sie, dass ich ein "Threshold Cheat Sheet" erstelle, das genau erklärt, was Confidence- vs. Text-Threshold bewirken?


Hinweise

  • Magic annotation-Einstellungen werden gespeichert und wiederverwendet, wenn Sie T drücken.

  • Wenn Ihr Plan/Lizenz Limits für Offline Magic annotation hat, verhindert das Tool Batch-Verarbeitung nach Erreichen des Limits.

Zuletzt aktualisiert

War das hilfreich?