DeepSeek AI sur les campus : Promouvoir la commodité et alimenter les préoccupations
DeepSeek AI, un modèle d'intelligence artificielle générative, fait sensation sur les campus universitaires en proposant des services gratuits comparables à ceux de ChatGPT. Cette innovation, lancée le 10 janvier 2025, introduit le modèle DeepSeek-V3, développé par High-Flyer, une entreprise chinoise de trading d'actions. La caractéristique remarquable de DeepSeek-V3 est son rapport coût-efficacité, les coûts de puissance de calcul s'élevant à 6 millions de dollars — environ un dixième de ce qu'il en coûte pour exploiter la dernière technologie d'intelligence artificielle de Meta. L'université de Cornell devient un point focal de discussions intriguées et prudentes concernant la présence de cette intelligence artificielle.
L'efficacité économique de DeepSeek-V3 découle de sa conception unique. Contrairement au réseau neuronal unique et lourd de ChatGPT, DeepSeek-V3 utilise un système double, composé de modèles "experts" et "généralistes". Cette division des composants de l'IA aide à réduire l'utilisation des puces informatiques, économisant des coûts considérables en ne transmettant que les données essentielles.
Cependant, cette avancée ne va pas sans susciter des préoccupations. Des inquiétudes sont exprimées en matière de confidentialité et de sécurité des données, en grande partie en raison de la relation entre DeepSeek et le gouvernement chinois. Les critiques craignent que les services gratuits d'IA ne soient une tactique pour collecter des informations sensibles, en particulier le suivi des positions politiques et d'autres informations personnelles des étudiants internationaux chinois.
Alors que DeepSeek gagne en popularité parmi les étudiants pour ses avantages gratuits, les universités comme Cornell sont aux prises avec les implications. Les étudiants apprécient les capacités de l'outil, notamment dans le contexte académique, comme le note Ziga Korvacic, co-président du club d'étudiants en intelligence artificielle de l'université de Cornell. Cette utilisation croissante incite Cornell à développer de nouvelles politiques abordant la confidentialité, la vie privée, la recherche et la responsabilité pour suivre la croissance de la technologie IA.
Cornell prend des précautions en restreignant le partage d'informations liées à l'université via des outils d'IA publics. L'utilisation de l'IA générative dans les contextes éducatifs est également régie par des directives émergentes. Le professeur Ken Birman souligne l'importance de maintenir une clarté dans les politiques d'intégrité académique concernant l'IA, affirmant qu'il n'y a aucune raison de traiter DeepSeek différemment des autres outils d'IA. Il soutient la nécessité de s'assurer que les politiques d'intégrité académique soient fermement établies à tous les niveaux, à mesure que l'IA continue de s'intégrer dans le milieu académique.
Différents cours à Cornell montrent des niveaux variables d'acceptation envers les outils d'IA dans leur curriculum. Par exemple, le professeur Michael Clarkson permet aux étudiants de son cours de Computer Science 3110 d'utiliser l'IA, à condition qu'ils citent précisément son application. Clarkson soutient que cette pratique prépare adéquatement les étudiants à des scénarios du monde réel où l'IA est courante.
Le professeur Clarkson compare également les craintes liées à l'IA d'aujourd'hui aux réactions passées face aux avancées technologiques comme l'Internet, Github et Wikipédia, indiquant un schéma historique de scepticisme initial suivi d'une acceptation éventuelle à mesure que la société s'adapte.
À mesure que l'IA générative comme DeepSeek s'intègre de plus en plus dans la vie académique et quotidienne, les universités doivent continuer à équilibrer innovation avec confidentialité et utilisation éthique, s'assurant que ces outils puissants profitent aux étudiants sans compromettre leurs informations personnelles ou leurs standards académiques.