Imaginez que vous venez d'arriver dans un autre pays, que vous ne parlez pas la langue et que vous tombez sur une zone de construction. L’air est épais de poussière. Vous êtes fatigué. Tu pues toujours l'avion. Vous essayez d’ignorer les marteaux-piqueurs pour déchiffrer ce que disent les panneaux : devez-vous traverser la rue, monter un autre pâté de maisons ou faire demi-tour ?
j'étais dedans exactement une telle situation cette semaine, mais je suis venu préparé. J'avais pris l'avion pour Montréal pour passer deux jours à tester la nouvelle fonctionnalité de traduction IA sur les lunettes de soleil intelligentes Ray-Ban de Meta. Moins de 10 minutes après avoir commencé ma première promenade, je suis tombé sur un barrage de panneaux de détour orange déroutants.
La fonction de traduction IA est destinée à offrir aux utilisateurs un moyen rapide et mains libres de comprendre du texte écrit dans des langues étrangères. Je n'aurais donc pas pu concevoir un meilleur quiz pop sur son fonctionnement en temps réel.
Alors qu'une excavatrice grondait, j'ai regardé un panneau et j'ai commencé à demander à mes lunettes de soleil de me dire ce qu'il disait. Avant que j'aie pu terminer, un ouvrier du bâtiment québécois inquiet a commencé à me crier dessus et à me pointer du doigt le nord, et j'ai traversé la rue en courant.
Dès le début de mon aventure en IA, je me suis heurté à la plus grande limitation de ce logiciel de traduction : il ne vous dit pas, pour le moment, ce que les gens disent. Il ne peut analyser que le mot écrit.
Je savais déjà que la fonctionnalité était uniquement en écriture pour le moment, ce n'était donc pas une surprise. Mais bientôt, je me suis heurté à ses autres contraintes moins évidentes. Au cours des 48 heures suivantes, j'ai testé la traduction de l'IA sur une variété de panneaux de signalisation, de panneaux commerciaux, de publicités, de plaques historiques, de littérature religieuse, de livres pour enfants, de brochures touristiques et de menus, avec des résultats extrêmement variés.
Parfois, il était compétent, comme lorsqu'il me disait que le livre que j'avais acheté pour mon fils, Trois Beaux Bébés, il y avait environ trois beaux bébés. (C’est exact.) Il m’a répété à plusieurs reprises que ouvert signifiait « ouvert », ce que, pour être franc, je connaissais déjà, mais je voulais lui faire quelques lay-ups.
D’autres fois, mon robot traducteur n’était pas à la hauteur. Il m'a dit que l'enseigne du célèbre cinéma pour adultes Cinéma L'Amour se traduisait par… « Cinéma L'Amour ». (F pour effort – Google Translate l'a au moins changé en « Cinema Love ».)
Dans les restaurants, j’avais du mal à obtenir qu’il me lise chaque élément d’un menu. Par exemple, au lieu de me parler de toutes les différentes options de hamburgers dans une brasserie, il m'a simplement dit qu'il y avait des « hamburgers et des sandwichs » et a refusé d'être plus précis malgré mes caresses.
Lorsque je suis allé dans un restaurant italien le lendemain soir, cela m'a également donné un aperçu général des offres plutôt que de les détailler : on m'a dit qu'il y avait des « brochettes de viande grillée », mais pas, par exemple, qu'il y avait du canard. options de confit, d'agneau et de bœuf, ou combien elles coûtent.
Dans l’ensemble, à l’heure actuelle, la traduction de l’IA est plus un truc de fête capricieux qu’un outil de voyage véritablement utile pour des climats étrangers.
Comment ça marche (ou pas)
Pour utiliser la traduction de l'IA, un porteur de lunettes doit prononcer les mots magiques suivants : « Hey Meta, regarde… » puis lui demander de traduire ce qu'il regarde.
Les lunettes prennent un instantané de tout ce qui se trouve devant vous, puis vous informent du texte après quelques secondes de traitement. Je m'attendais à des traductions plus simples, mais cela donne rarement des explications mot à mot. Au lieu de cela, il paraphrase ce qu’il voit ou propose un résumé général.