Immergetevi nei miti e nelle realtà della stima e della garanzia della qualità della traduzione percepita attraverso la lente della metodologia MQM (Multidimensional Quality Metrics). MQM è un sistema completo progettato per valutare e monitorare la qualità dei contenuti tradotti. MQM funge da quadro standardizzato per la garanzia della qualità linguistica (LQA) per valutare la qualità della traduzione in varie categorie. La valutazione delle traduzioni nell'ambito del framework MQM può aiutare a identificare i punti di forza del processo di localizzazione e le opportunità di miglioramento.
In questa chiacchierata al caminetto, esploriamo gli errori più comuni e le migliori pratiche utilizzate per garantire una qualità linguistica di alto livello. Scopra come la metodologia MQM può consentire ai responsabili della localizzazione e ai linguisti di ridurre al minimo gli errori, eliminare la soggettività e migliorare i risultati di traduzione.
I nostri esperti per questa sessione sono:
- Olga Beregovaya - Italia | Vicepresidente dell'intelligenza artificiale e della traduzione automatica
- Valerie Dehant | Direttore senior, Servizi linguistici
- Alex Yanishevsky | Direttore delle implementazioni di intelligenza artificiale e traduzione automatica
Qualità della traduzione: comprendere la metodologia MQM
Il settore della traduzione, come qualsiasi altro, prospera grazie alla qualità. Ma come valuta la qualità delle traduzioni? Il settimo episodio di «Reality Series» di Smartling ha fornito informazioni preziose sulla qualità della traduzione. Per far luce su questo problema complesso vengono utilizzati aspetti essenziali che vanno dalla traduzione automatica (MT), alla traduzione umana (HT) e al framework MQM (Multidimensional Quality Metrics).
Mito: un madrelingua può valutare la qualità I relatori hanno iniziato sfatando il mito persistente che qualsiasi madrelingua possa valutare la qualità della traduzione. La misurazione della "qualità della traduzione" è infatti molto più complessa. In effetti, la valutazione della qualità è piuttosto soggettiva e richiede una profonda comprensione del contesto e delle sfumature sia della lingua di partenza che di quella di destinazione.
Quadro MQM L'argomento principale della sessione è stata l'introduzione del framework MQM (multidimensional quality metrics). Questo modello si allontana dalle tradizionali valutazioni di adeguatezza e fluidità, fornendo un metodo più oggettivo per valutare la qualità della traduzione. Tiene conto di fattori come l'adeguatezza, la fluidità e l'attuabilità, incoraggiando al contempo la valutazione alla cieca. I relatori hanno sottolineato l'importanza della valutazione cieca nel MQM, in cui i valutatori rimangono inconsapevoli del fatto che la traduzione sia stata condotta da un essere umano o da una macchina. Hanno sottolineato il ruolo vitale di questa tecnica nell'eliminare qualsiasi distorsione dalla valutazione.
In che modo MQM differisce dai metodi convenzionali? Olga Beregovaya ha affermato che è tutta una questione di classificazione e quantificazione degli "errori di traduzione". Nel modello MQM, gli errori vengono classificati e vengono assegnati pesi di gravità per calcolare un punteggio di qualità complessivo. Questa metodologia ci permette di quantificare il concetto di qualità della traduzione, trasformandolo in un valore numerico che può essere utilizzato per il miglioramento.
I relatori hanno toccato altre metriche di valutazione del settore come BLEU, TER e stima della qualità con modelli linguistici di grandi dimensioni (LLM). Questi strumenti, combinati con la sperimentazione in corso con gli LLM per la stima della qualità e la valutazione semantica, migliorano significativamente la nostra comprensione del comportamento del motore.
Olga Beregovaya ha messo in luce la differenza tra punteggio testuale e semantico. Il punteggio testuale considera principalmente la differenza di caratteri o parole necessarie per apportare una modifica, mentre il punteggio semantico indaga le associazioni tra parole e concetti nelle frasi. Ha anche sottolineato l'importanza del coinvolgimento umano nell'identificazione dei valori anomali e delle eccezioni statistiche.
Alex Yanishevsky ha sollevato la questione della qualità dei dati nel contesto dell'implementazione di modelli linguistici di grandi dimensioni (LLM). Ha affermato che i dati di alta qualità sono fondamentali e ha sottolineato la necessità di catturare le allucinazioni quando il modello si discosta significativamente dal significato effettivo.
Arbitrato e KPI Valérie Dehant ha sottolineato il ruolo dell'arbitrato nella risoluzione dei disaccordi tra linguisti e nel raggiungimento di un'etichettatura coerente degli errori. Ha evidenziato il ruolo centrale della metodologia MQM nel facilitare l'arbitrato in scenari in cui le etichette contrastanti delle categorie di errore danneggiano l'apprendimento del modello. L'esclusiva capacità di arbitrato del MQM offre una chiara distinzione tra gli errori, consentendo un processo di addestramento del modello senza soluzione di continuità.
Alex Yanishevsky ha osservato che gli indicatori chiave di prestazione (KPI) per la traduzione automatica e la traduzione umana sono specifici per i contenuti. Ha suscitato interesse citando il coinvolgimento emotivo, la soddisfazione degli utenti, le conversioni e la risoluzione dei ticket di assistenza come potenziali KPI a seconda del tipo di contenuto e del modo in cui è stato fornito (MT o HT).
Valérie Dehant ha presentato il toolkit di Smartling che semplifica la creazione di schemi, la registrazione degli errori e la promozione della collaborazione tra i valutatori attraverso una dashboard, dotata di punteggi MQM, che fornisce informazioni dettagliate sugli errori e sulle potenziali aree di miglioramento. Questa analisi granulare degli errori facilita l'elaborazione di piani d'azione per il miglioramento della qualità.
Il verdetto Comprendendo la scienza alla base della qualità della traduzione e implementando il framework MQM, possiamo affrontare la valutazione della qualità con un metodo standardizzato e affidabile. Inoltre, il settimo episodio rafforza il fatto che la combinazione di automazione e analisi umana è essenziale per migliorare i modelli, identificare le anomalie e far progredire la scalabilità del processo di valutazione. Guarda l'episodio per intero qui sopra!