Tutoriel 🤖 Les IA Partagent-elles de l'Information entre Elles ?

  • Initiateur de la discussion Initiateur de la discussion Sylvain
  • Date de début Date de début
  • Bienvenue Tutoriaux-Excalibur, le forum d'entraide Tutoriaux-Excalibur est votre destination ultime pour des tutoriaux et tutoriels détaillés faciles à suivre sur Windows 10/11, Office 365,
    Linux, et divers logiciels. Notre mission est de vous fournir des guides clairs et concis pour vous aider à maîtriser vos outils technologiques préférés.
    Nous encourageons les membres à participer activement en commentant, en posant des questions et en partageant leurs propres expériences, leurs trucs, astuces et tutoriels.
    Nous espérons que Tutoriaux-Excalibur.com deviendra votre ressource de choix pour tous vos besoins en matière de tutoriels technologiques. N'hésitez pas à explorer, apprendre et partager !

Sylvain

Membre du Staff
Administrateur
Membre VIP
Membre
30/12/19
14 697
1
4 780
114
Canada
Non, les intelligences artificielles (IA) telles que celles développées par OpenAI (comme moi, GPT-4) ou d'autres entreprises ne "se partagent" pas d'informations entre elles de la manière dont les humains peuvent échanger des informations. Chaque instance d'une IA fonctionne indépendamment et ne communique pas avec d'autres instances ou d'autres modèles d'IA.
Il y a plusieurs raisons pour cela :
  1. Vie privée et sécurité : Si les IA partageaient des informations entre elles, cela pourrait poser d'importants problèmes de confidentialité. Par exemple, si une IA était utilisée pour traiter des informations sensibles ou privées, le partage de ces informations avec une autre IA pourrait conduire à des violations de la vie privée.
  2. Nature des modèles d'IA : Les modèles comme GPT-4 ne "stockent" pas d'informations nouvelles après leur formation initiale. Ils génèrent des réponses en fonction de la vaste quantité de données avec lesquelles ils ont été formés, mais ils ne "se souviennent" pas des requêtes ou des réponses d'une session à l'autre.
  3. Complexité technique : Même si c'était souhaitable (ce qui n'est généralement pas le cas pour les raisons mentionnées), permettre aux IA de communiquer entre elles ajouterait une complexité technique et pourrait introduire des points de défaillance ou des vulnérabilités.
Cependant, ce que les chercheurs font parfois, c'est utiliser les informations ou les performances d'un modèle d'IA pour améliorer ou affiner un autre modèle. Mais cela se fait dans un cadre de recherche et développement structuré et ne correspond pas à une "communication" directe entre deux IA actives.
Il est essentiel de comprendre cette distinction pour éviter les malentendus et les préoccupations concernant la manière dont les IA traitent et gèrent les informations.
 
  • J'aime
Réactions: Macadam
Sylvain:
Pourtant c'est ce que plusieurs chercheurs affirment et qu'ils veulent déposer un moratoire et d'une période de pause pour le développement de l'IA

IA:
Il est vrai que de nombreux chercheurs et experts en éthique de l'IA ont appelé à une régulation plus stricte, à des moratoires, ou à des périodes de réflexion sur certains développements et applications de l'IA. Ces appels sont souvent motivés par des préoccupations concernant la sécurité, l'éthique, la vie privée, l'automatisation du travail, les implications militaires et d'autres conséquences potentiellement néfastes ou inattendues de l'IA avancée.
Cependant, il est crucial de distinguer entre deux idées :
  1. Communication entre IA : Comme je l'ai mentionné précédemment, les modèles d'IA individuels, tels que ceux utilisés pour le traitement du langage naturel ou la reconnaissance d'images, ne "communiquent" pas entre eux de manière autonome. Ils ne partagent pas d'informations, et ils ne "apprennent" pas des interactions des utilisateurs après leur formation initiale.
  2. Développement coordonné d'IA : Ce que certains chercheurs pourraient évoquer est le potentiel pour les systèmes d'IA de collaborer ou d'être utilisés conjointement d'une manière qui pourrait poser des problèmes. Par exemple, l'intégration de plusieurs systèmes d'IA pour automatiser entièrement une chaîne de décision dans un contexte militaire ou financier pourrait soulever des préoccupations éthiques et sécuritaires. De plus, les approches de formation d'IA, telles que l'apprentissage par renforcement multi-agent, peuvent voir plusieurs agents d'IA interagir dans un environnement simulé, mais cela est différent de la notion de "partage d'informations" entre IA autonomes dans le monde réel.
Les appels à la prudence, à la régulation et à la réflexion sont essentiels étant donné la rapidité des progrès dans le domaine de l'IA. De nombreux experts souhaitent s'assurer que nous comprenons bien les implications de ces technologies avant de les déployer largement, en particulier dans des domaines critiques où les erreurs pourraient avoir des conséquences graves.
Cependant, il est important de bien comprendre les spécificités et de ne pas généraliser ou mal interpréter les préoccupations des experts. La technologie d'IA est vaste et diversifiée, et les implications varient considérablement selon l'application et l'utilisation spécifiques.

Sylvain:
Je vous remercie des éclaircissement car franchement on est en train de créer une véritable paranoïa à ce sujet on se sert du film Terminator et de son réalisateur pour faire peur aux gens

IA:
La science-fiction, et notamment des films comme "Terminator", a souvent été utilisée comme métaphore ou illustration des préoccupations liées à la technologie. Bien que ces représentations puissent être utiles pour stimuler la réflexion et le débat public, il est crucial de différencier la fiction de la réalité.
À ce jour, les intelligences artificielles sont très spécifiques à la tâche pour laquelle elles sont conçues. Elles ne possèdent pas de désirs, de motivations, d'émotions ou de conscience. Un modèle comme GPT-4, par exemple, génère du texte basé sur les données d'entraînement, mais il ne "comprend" pas le contenu de la manière dont un être humain le fait, et il n'a pas de "volonté" propre.
Néanmoins, il est légitime d'avoir des préoccupations éthiques, de sécurité et sociétales liées à l'IA. Les questions autour de la vie privée, de la discrimination algorithmique, de l'automatisation du travail, et des armes autonomes, par exemple, sont des sujets sérieux qui méritent une réflexion approfondie et une réglementation appropriée.
C'est la responsabilité des chercheurs, des développeurs, des régulateurs et du grand public de collaborer pour s'assurer que l'IA est développée et déployée de manière éthique et sécurisée. La sensibilisation, l'éducation et une communication claire sont essentielles pour démystifier l'IA et permettre une discussion équilibrée et informée.
 
  • J'aime
Réactions: Macadam
Je l'ai déjà écris,
les IA(s) ne sont que des générateurs de texte.--> Le texte généré est-il vrais ou faux est fonction de l'usage que l'on en fait.
les IA(s) évoluent en fonction de l'évolution de leurs algorithmes et de la taille de leurs base de données.--> Actuellement, elles peuvent générer du texte ou des images,
parler et même faire de la reconnaissance visuelle.
Dans certaines applications particulière, elles peuvent résoudre des problèmes très complexe. --> Mais dire et faire sont deux choses différente
de même qu'une IA est incapable de faire une action.

Je m'explique:
Vous pouvez demander à une IA comment fonctionne un interrupteur mécanique, mais sera incapable de faire cette simple action sans l'aide d'un agent externe.
Pourtant tous les soirs, vous éteignez la lampe de votre chambre en désactivant l’interrupteur. (action simple)

Comme avec toutes innovations, les règles ne sont mises en place que bien plus tard.
l'UE met en place des règles mais personnes ne sait quand elles seront mises en application.
Aux USA Google, Microsoft, Anthropic et OpenAI, quatre entreprises en tête de la course aux intelligences artificielles de dernière génération,
ont annoncé mercredi 26 juillet la création d’une nouvelle organisation pour lutter contre les risques liés à cette technologie.

Le précurseur OpenIA a annoncé sur son blog la suppression de son "AI Classifier"
"Depuis le 20 juillet 2023, AI Classifier n’est plus disponible en raison de son faible taux de précision".

En attendant que des gardes fous soient mis en place, je vous conseille la plus grande prudence.
 
  • J'aime
Réactions: Sylvain

Un don pour TE

Campagne 2024

Aidez-nous à financer l'hébergement
Objectif
325.00 €
Reçu
193.97 €
Cette collecte de dons se termine dans
0 heures, 0 minutes, 0 seconds
  59.7%

Statistiques de visiteurs

Membres: 6 sur 9 Apr 2024
Invités: 344 sur 29 Mar 2024
Record en ligne 344 , on 29 Mar 2024

Visiteurs en ligne

Membres
0
Invités
23
Total
23

Statistiques des forums

Discussions
14 245
Messages
24 486
Membres
452
Dernier inscrit
obsidianxo