TRAINIEREN EINES KI-MODELLS ZUR KATEGORISIERUNG VON SPIELEBEWERTUNGEN
Kundenprofil:
Branche: Unterhaltungsmedien
Land: Kanada
Unternehmensgröße: 1.001-5.000 Mitarbeiter
Beschreibung des Kunden:
Der Kunde unseres Partners ist in mehr als 30 Ländern tätig und hat es sich zur Aufgabe gemacht, originelle und unvergessliche Erlebnisse für Gamer zu entwickeln. Ihre inkonischen Franchises sind weltweit bekannt und faszinieren Millionen Menschen.
Art der Annotation:
Beschreibung des Projekts
Wir arbeiteten indirekt über unseren Partner mit dem Kunden zusammen. Der Kunde unseres Partners hatte ein KI-Modell entwickelt, das Bewertungen von Gamern prüft, die ihre Spiele spielen. Die Bewertungen sollten dabei in „positiv“, „neutral“, „negativ“ und „unklar“ kategorisiert werden. Die Ergebnisse der Auswertungen sollten genutzt werden, um die Zufriedenheit der Gamer mit den Spielen weiter zu verbessern.
Ausgangslage
Das bestehende KI-Modell konnte Bewertungen bereits verarbeiten. Es musste aber besser trainiert werden, um tiefere Erkenntnisse aus den Bewertungen der Spieler erlangen zu können. Hierfür besaß der Kunde unseres Partners einen großen Trainingsdatensatz bestehend aus 19 Teilen mit 900 Dateien. Alle Bewertungen mussten als „positiv“, „neutral“, „negativ“ oder „unklar“ annotiert werden. Für eine bessere Genauigkeit des KI-Modells musste die Kategorisierung durch unsere Data Annotatoren sehr genau ausfallen.
Warum Mindy Support
Mindy Support pflegte zu diesem Zeitpunkt bereits eine langjährige Beziehung zu dem Partner des Kunden. Da wir uns als zuverlässiger Data Annotation Dienstleister erwiesen hatten, wurden wir dem Kunden ohne groß nachzudenken vorgestellt und an der Text Annotation beteiligt.
Bereitgestellte Data Annotation Lösung
Mindy Support stellte ein Data Annotation Team aus drei Annotatoren zusammen, die zunächst einige Beispiele erstellten, wie die Daten annotiert werden könnten. Dies geschah im Vorfeld, da die Menge an Daten, die annotiert werden sollten, sehr umfangreich war. Jeder Data Annotator erhielt 17.100 Dateien, die annotiert werden mussten. Dank unserer langjährigen Erfahrung und Professionalität gelang dies in wenigen Monaten. Insgesamt verbrachten wir mehr als 900 Stunden an dem Projekt und erreichten dabei einen Konsensanteil von 90%. Es wurden auch neu erstellte Daten annotiert. Zu den verwendeten Methoden zählten Entity Annotation, Entity Linking, Sentiment Analyse und viele andere.
Ergebnisse
- 17.100 pro Data Annotator annotierte Dateien
- Projektumfang von 900 Stunden
- Konsensanteil von 90%