Mon principal usage de CoPilot (compte pro gratuit via GitHub) au sein de VSCode, c'est pour des tâches chiantes à faire manuellement, comme par exemple faire une rotation d'un tableau en Latex ou réordonner les colonnes. Je l'utilise aussi en mode "interrogatif/chat" pour détecter les endroits où, par erreur, on a utilisé de l'anglais UK au lieu d'US (ou vice-versa), ou encore des inconsistances dans l'usage des temps (mes jeunes chercheurs ont la facheuse tendance à mélanger passé/présent quand ils rédigent). Pour ces usages, la clé est vraiment de faire un bon prompt, surtout en insistant sur le rôle de l'IA ("you're a reviewer for a scientific conference in computer science", "you're a teacher reading a student's proposal, focusing on pinpointing inconsistencies in the use of US/UK English", etc.)
J'ai récemment testé le mode "edit" (via GPT4.1 et Claude 3.7) pour implémenter un support pour les "dependency-groups" de Python dans un projet déjà existant (une modification qui prend 5 minutes à faire à la main normalement) et aucun des deux modèles n'a pu me faire quelque chose de correct (alors que c'était essentiellement juste déplacer des listes existantes d'une section à une autre). Il y a quelques semaines, j'avais testé l'auto-complete en implémentant plusieurs fonctions de correction de p-values (Bonferonni, Holm, Hochberg, Benjamini, etc.) et le code était erroné une fois sur deux (c'était avec o3-mini je pense, et en gros, les itérations étaient faites à l'envers, ou le test conditionnel était inversé, ou la "formule" était incorrecte, etc.). Plutôt frustrant, car ça donne l'impression d'être "potentiellement correct" et j'ai passé moins de temps à ré-écrire from scratch correctement qu'à modifier ce qui était proposé...
Ce message a été modifié 1 fois.
Dernière modification : 16 mai 2025
à 13:52 par
Guybrush.