Mithilfe einer Vielzahl generativer KI-Tools, die direkt in die Plattform integriert sind, ist es jetzt einfacher als je zuvor, Smartcat für höhere Qualität und Durchsatz zu optimieren.
➡️ Gehen Sie durch die Kernfunktionen der KI, die jetzt auf der Smartcat-KI-Plattform verfügbar sind
➡️ Tauchen Sie tief in die Grundlagen der Optimierung von Smartcat für verschiedene Szenarien ein
➡️ Beantworten Sie Fragen und geben Sie detaillierte Anleitungen, damit Sie diese KI-Tools mit Ihren eigenen Inhalten nutzen können.
➡️ Teilen Sie die Beispiele für OpenAI-Eingabeaufforderungen für Smartcat
F: Ist dies nur mit dem Unite-Abonnement verfügbar?
A: Ich würde vorschlagen, dass Sie Ihren Kundenerfolgskontakt kontaktieren und nach Ihrem Abonnement fragen.
F: Wenn Sie eine XLIFF-Datei übersetzen möchten, ist die Verwendung der KI-Eingabeaufforderung ein Mehrwert? Oder sollten wir beim aktuellen Modell bleiben?
A: Es könnte ein Mehrwert sein, wie Andy gezeigt hat, wenn Sie eine sehr spezifische Terminologie oder einen sehr spezifischen Stil generieren möchten. Was sonst noch möglich ist, zeigen wir Ihnen gleich.
F: Gibt es eine Liste der verfügbaren Domänen?
A: LLMs decken die meisten Bereiche ab. Sie werden anhand von Milliarden von Dokumenten trainiert.
F: Wird es irgendwann möglich sein, die Glossar-Eingabeaufforderung mit bestimmten Glossaren zu verknüpfen, anstatt mit allen in einem bestimmten Projekt verfügbaren Glossaren? Mein Ziel besteht darin, die Anzahl falscher Positivmeldungen zu verringern, indem ich das Modell auffordere, ein bestimmtes Glossar zu verwenden. Im Editor bleiben jedoch weiterhin Referenzglossare für Posting-Bearbeiter verfügbar, damit diese andere Terminologie überprüfen können, z. B. polysemische Begriffe, allgemeine Begriffe, Synonyme usw., die das Modell nicht in allen Fällen für die Übersetzung verwenden soll.
A: Gute Frage. Derzeit verwenden wir mit dem Projekt verknüpfte Glossare. Eine Möglichkeit für Sie könnte beispielsweise sein, mithilfe Ihrer Daten eine Feinabstimmung des Motors vorzunehmen. Aber wir können Ihren Vorschlag prüfen.
F: Gibt es eine Begrenzung hinsichtlich der Länge der Eingabeaufforderung, falls ich hinsichtlich Stil, Terminologie, Standardsätzen usw. sehr spezifisch sein möchte?
A: Technisch nicht. Dies könnte jedoch den Übersetzungsprozess verlangsamen. Wenn Sie die Gesamtleistung beeinflussen möchten, ist die Feinabstimmung einer Engine möglicherweise besser geeignet.
F: Können wir parallele Texte als Referenzen hinzufügen, sodass die KI den Stil daraus auswählt?
A: Sie können eine Engine feinabstimmen, indem Sie Satzpaare als Referenz angeben und die Engine versucht, Ihren Stil anzupassen.
F: Wenn wir eine Übersetzung mithilfe einer Eingabeaufforderung/des LLM ausführen, wird dann die Anzahl der Wörter in unserem Abonnement verwendet? Oder wie funktioniert das?
A: Ja, Wörter, die mithilfe einer Eingabeaufforderung des LLM generiert werden, verbrauchen Smartwords.
F: Können Sie die Bedeutung der Verwendung geschweifter Klammern erklären? Handelt es sich hierbei um Systembegriffe, die nur funktionieren, wenn man das Wort genau so eingibt, wie es angezeigt wird?
A: Wie Jean-Luc mitgeteilt hat, verfügen wir über eine kleine Bibliothek mit vorkonfigurierten Eingabeaufforderungen, die Sie auf der rechten Seite der Benutzeroberfläche zur Eingabeaufforderungsgenerierung finden.
F: Derzeit funktioniert die GPT-Vorgabe mit Eingabeaufforderungen in unseren Projekten nicht für Zeichenfolgen mit Tags (gelbe Tags für Markierungen, wenn die Quelle eine Formatierung enthält). In diesen Fällen wird bei der Voreinstellung automatisch auf eine andere Übersetzungsmaschine zurückgegriffen. Kennen Sie einen Workaround und wissen Sie, wie die GPT-Voreinstellung auch bei Zeichenfolgen mit Tags funktioniert?
A: Wie von Jean-Luc mitgeteilt, schauen wir uns einige spezifische Beispiele der Tags an und prüfen, ob wir die Eingabeaufforderung verfeinern können, um Tags in Zeichenfolgen zu ignorieren.
F: Funktioniert es auch, wenn wir mit Sprachen mit Fällen arbeiten?
A: Ja. Es gibt also sogenannte Low-Resource-Sprachen. Also die Modelle, normalerweise die Modelle, wenn sie versuchen, die Daten zu erfassen, und offensichtlich die meisten. Der überwiegende Teil der Daten sind englische Daten. Aus diesem Grund zeigen die Sprachmodelle von llam die besten Ergebnisse in Englisch. Aber probieren Sie verschiedene andere Sprachen aus. Sie werden feststellen, dass die Qualität nachlässt, je seltener die zu übersetzenden Sprachen sind. Das schlechteste Ergebnis wäre wahrscheinlich, dass die Sprachen mit Groß-/Kleinschreibung nicht unbedingt die Sprachen mit geringen Ressourcen sind. Also ja, es funktioniert gut. Aber wenn Sie über eine der ressourcenarmen Sprachen sprechen, wäre die Armenische Sprache zu nennen, eine der komplexesten Sprachen überhaupt. Das würden Sie. Möglicherweise werden Sie einige unerwartete Ergebnisse sehen. Aber das würden Sie normalerweise tun. Sie würden in diesen Fällen gute Ergebnisse sehen.