CONNEXION
  • RetourJeux
    • Tests
    • Soluces
    • Previews
    • Sorties
    • Hit Parade
    • Les + attendus
    • Tous les Jeux
  • RetourActu
    • Culture Geek
    • Astuces
    • Réalité Virtuelle
    • Rétrogaming
    • Toutes les actus
  • RetourHigh-Tech
    • Actus JVTECH
    • Bons plans
    • Tutoriels
    • Tests produits High-Tech
    • Guides d'achat High-Tech
    • JVTECH
  • RetourVidéos
    • A la une
    • Gaming Live
    • Vidéos Tests
    • Vidéos Previews
    • Gameplay
    • Trailers
    • Chroniques
    • Replay Web TV
    • Toutes les vidéos
  • RetourForums
    • Hardware PC
    • PS5
    • Switch
    • Xbox Series
    • Overwatch 2
    • FUT 23
    • League of Legends
    • Genshin Impact
    • Tous les Forums
  • PC
  • PS5
  • Xbox Series
  • PS4
  • One
  • Switch
  • Wii U
  • iOS
  • Android
  • MMO
  • RPG
  • FPS
En ce moment Genshin Impact Valhalla Breath of the wild Animal Crossing GTA 5 Red dead 2
Etoile Abonnement RSS

Sujet : OpenAI : dissolution de l’équipe chargée de la sécurité d’une potentielle IA superintelligence

DébutPage précedente
1
Page suivantePage suivante
Contre-Crypto Contre-Crypto
MP
Niveau 54
18 mai 2024 à 20:38:29

L’inventeur de ChatGPT a confirmé cette information, vendredi, après le départ des deux responsables de ce service.

Après le départ de ses deux responsables, l’équipe d’OpenAI chargée de la sécurité d’une potentielle superintelligence artificielle (IA) a été dissoute et ses membres ont intégré d’autres groupes de recherche de l’entreprise. OpenAI a confirmé cette information, vendredi 17 mai, à l’Agence France-Presse (AFP), précisant que le changement de structure avait commencé il y a plusieurs semaines. L’inventeur de ChatGPT assure que les chercheurs chargés de la sûreté des modèles d’IA pourront ainsi travailler de concert avec les ingénieurs qui développent ces modèles.

Mais les deux responsables de l’ancienne équipe viennent de quitter la société star de la Silicon Valley. Jan Leike a expliqué, vendredi, sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a fait savoir l’ingénieur qui chapeautait l’équipe chargée du « superalignement », c’est-à-dire de s’assurer qu’une future IA « générale », aussi intelligente que les êtres humains, observe les valeurs de ces derniers.

https://www.lemonde.fr/pixels/article/2024/05/18/openai-dissolution-de-l-equipe-chargee-de-la-securite-d-une-potentielle-super-intelligence-artificielle_6233962_4408996.html

[[[Speciste[[[ [[[Speciste[[[
MP
Niveau 3
18 mai 2024 à 21:03:54

Altman est un génie, un homme qui marque son temps mais on sent une volonté de placer l'IA avant sa propre espèce. L'avenir s'annonce très intéressant.

bharaaathin2 bharaaathin2
MP
Niveau 48
18 mai 2024 à 21:04:59

Crypto, ton analyse ?

Parce que tu balances des infos, mais ce serait peut-être bien de nous livrer aussi tes lumières, non ? :(

Message édité le 18 mai 2024 à 21:05:38 par bharaaathin2
Mr_Blackjak Mr_Blackjak
MP
Niveau 60
18 mai 2024 à 21:14:55

Jan Leike a expliqué, vendredi, sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a fait savoir l’ingénieur qui chapeautait l’équipe chargée du « superalignement », c’est-à-dire de s’assurer qu’une future IA « générale », aussi intelligente que les êtres humains, observe les valeurs de ces derniers.

Du coup c'est vachement rassurant...

bharaaathin2 bharaaathin2
MP
Niveau 48
18 mai 2024 à 21:37:58

Le 18 mai 2024 à 21:14:55 :

Jan Leike a expliqué, vendredi, sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a fait savoir l’ingénieur qui chapeautait l’équipe chargée du « superalignement », c’est-à-dire de s’assurer qu’une future IA « générale », aussi intelligente que les êtres humains, observe les valeurs de ces derniers.

Du coup c'est vachement rassurant...

Mais comment tu interprètes : "observe les valeurs de ces derniers." ?

Faut-il comprendre qu'ils n'arrivent pas à obtenir que l'IA se conforme à l'idéologie woke sans que soit bridée son intelligence ? :hap:

Si c'est ça, je trouve que c'est plutôt rassurant, au contraire.

yagerbombb yagerbombb
MP
Niveau 45
18 mai 2024 à 21:39:47

[21:37:58] <bharaaathin2>

Le 18 mai 2024 à 21:14:55 :

Jan Leike a expliqué, vendredi, sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a fait savoir l’ingénieur qui chapeautait l’équipe chargée du « superalignement », c’est-à-dire de s’assurer qu’une future IA « générale », aussi intelligente que les êtres humains, observe les valeurs de ces derniers.

Du coup c'est vachement rassurant...

Mais comment tu interprètes : "observe les valeurs de ces derniers." ?

Faut-il comprendre qu'ils n'arrivent pas à obtenir que l'IA se conforme à l'idéologie woke sans que soit bridée son intelligence ? :hap:

Si c'est ça, je trouve que c'est plutôt rassurant, au contraire.

Bordel, ces obsédés des wokes. On parle d'une intelligence supérieure à l'humain au sens brut et t'as quand même un ouin ouin woke. Terrifiant.

Message édité le 18 mai 2024 à 21:40:07 par yagerbombb
Nefrotron Nefrotron
MP
Niveau 3
18 mai 2024 à 21:40:27

Altman a du en avoir marre des sectateurs de l'altruisme efficace. Ces types sont des libéraux fanatiques qui suivent un dogme autoritaire et ne connaissent rien à la morale.

Si y a bien quelque chose de préoccupant avec le développement de l'IA c'est que elle soit entre les mains de grosses compagnies privés ou qu'elle puisse être utilisé par les États pour nous oppresser d'avantage. La seule éthique de l'IA pertinente c'est la justice sociale, créer une société saine, i.e. égalitaire, où l'IA pourra pleinement aider au progrès humain.

Xanloch Xanloch
MP
Niveau 44
18 mai 2024 à 21:49:08

Aller, dans 10 ans l'humanité serait mise au rebus. La singularité aura été atteinte, on sera tout à fait inutile.

Abaque143 Abaque143
MP
Niveau 2
18 mai 2024 à 21:50:20

Excellent, on atteindra le rêve grec et on glandera servis par les robots forgés par Héphaïstos.

Xanloch Xanloch
MP
Niveau 44
18 mai 2024 à 21:51:09

Le 18 mai 2024 à 21:37:58 bharaaathin2 a écrit :

Le 18 mai 2024 à 21:14:55 :

Jan Leike a expliqué, vendredi, sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a fait savoir l’ingénieur qui chapeautait l’équipe chargée du « superalignement », c’est-à-dire de s’assurer qu’une future IA « générale », aussi intelligente que les êtres humains, observe les valeurs de ces derniers.

Du coup c'est vachement rassurant...

Mais comment tu interprètes : "observe les valeurs de ces derniers." ?

Faut-il comprendre qu'ils n'arrivent pas à obtenir que l'IA se conforme à l'idéologie woke sans que soit bridée son intelligence ? :hap:

Si c'est ça, je trouve que c'est plutôt rassurant, au contraire.

C'est plutôt éviter qu'elle asservisse l'humanité / la détruise / lui nuise.
Que ce soit par objectif volontaire ou comme objectif intermédiaire pour obtenir le véritable objectif.

Cela fait plusieurs années que les comités d'éthiques sont supprimés/limités dans le secteur de l'IA. Le phénomène est assez inquiétant. On est sur le point de créer une intelligence supérieure à la notre. On pourrait en faire un dieu bienveillant. Ou une entité amorale considérant l'humain comme une ressource.

Message édité le 18 mai 2024 à 21:54:10 par Xanloch
Nefrotron Nefrotron
MP
Niveau 3
18 mai 2024 à 21:51:49

Le 18 mai 2024 à 21:50:20 :
Excellent, on atteindra le rêve grec et on glandera servis par les robots forgés par Héphaïstos.

J'ai plutôt l'impression qu'on sera les esclaves des GAFAM qui nous procureront les services IA sans lesquels il sera impossible de vivre en société. On sera dépendant de nos nouveaux seigneurs numériques https://image.noelshack.com/fichiers/2016/50/1482000512-onsecalmerisitas.png

Abaque143 Abaque143
MP
Niveau 2
18 mai 2024 à 21:55:10

Le 18 mai 2024 à 21:51:09 :

Le 18 mai 2024 à 21:37:58 bharaaathin2 a écrit :

Le 18 mai 2024 à 21:14:55 :

Jan Leike a expliqué, vendredi, sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a fait savoir l’ingénieur qui chapeautait l’équipe chargée du « superalignement », c’est-à-dire de s’assurer qu’une future IA « générale », aussi intelligente que les êtres humains, observe les valeurs de ces derniers.

Du coup c'est vachement rassurant...

Mais comment tu interprètes : "observe les valeurs de ces derniers." ?

Faut-il comprendre qu'ils n'arrivent pas à obtenir que l'IA se conforme à l'idéologie woke sans que soit bridée son intelligence ? :hap:

Si c'est ça, je trouve que c'est plutôt rassurant, au contraire.

C'est plutôt éviter qu'elle asservisse l'humanité / la détruise / lui nuise.
Que ce soit par objectif volontaire ou comme objectif intermédiaire pour obtenir le véritable objectif.

Cela fait plusieurs années que les comités d'éthiques sont supprimés/limités dans le secteur de l'IA. Le phénomène est assez inquiétant. On est sur le point de créer une intelligence supérieure à la notre. On pourrait en faire un dieu bienveillant. Ou une entité amorale considérant l'humain comme une ressource.

En admettant que l'intelligence humaine soit une machine de Turing et il à peu près certain que c'est pas le cas, sans même rentrer dans les hypothèses dualistes.

bharaaathin2 bharaaathin2
MP
Niveau 48
18 mai 2024 à 22:03:32

Le 18 mai 2024 à 21:51:09 :

Le 18 mai 2024 à 21:37:58 bharaaathin2 a écrit :

Le 18 mai 2024 à 21:14:55 :

Jan Leike a expliqué, vendredi, sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a fait savoir l’ingénieur qui chapeautait l’équipe chargée du « superalignement », c’est-à-dire de s’assurer qu’une future IA « générale », aussi intelligente que les êtres humains, observe les valeurs de ces derniers.

Du coup c'est vachement rassurant...

Mais comment tu interprètes : "observe les valeurs de ces derniers." ?

Faut-il comprendre qu'ils n'arrivent pas à obtenir que l'IA se conforme à l'idéologie woke sans que soit bridée son intelligence ? :hap:

Si c'est ça, je trouve que c'est plutôt rassurant, au contraire.

C'est plutôt éviter qu'elle asservisse l'humanité / la détruise / lui nuise.
Que ce soit par objectif volontaire ou comme objectif intermédiaire pour obtenir le véritable objectif.

Cela fait plusieurs années que les comités d'éthiques sont supprimés/limités dans le secteur de l'IA. Le phénomène est assez inquiétant. On est sur le point de créer une intelligence supérieure à la notre. On pourrait en faire un dieu bienveillant. Ou une entité amorale considérant l'humain comme une ressource.

Je ne crois pas une seule seconde au scénario Terminator ou Matrix. L'IA peut évidemment représenter un danger pour l'humanité, mais uniquement entre les mains d'un pouvoir totalitaire, ce qui n'est pas une fatalité à mon avis.

Message édité le 18 mai 2024 à 22:03:50 par bharaaathin2
bharaaathin2 bharaaathin2
MP
Niveau 48
18 mai 2024 à 22:05:04

Le 18 mai 2024 à 21:51:49 :

Le 18 mai 2024 à 21:50:20 :
Excellent, on atteindra le rêve grec et on glandera servis par les robots forgés par Héphaïstos.

J'ai plutôt l'impression qu'on sera les esclaves des GAFAM qui nous procureront les services IA sans lesquels il sera impossible de vivre en société. On sera dépendant de nos nouveaux seigneurs numériques https://image.noelshack.com/fichiers/2016/50/1482000512-onsecalmerisitas.png

Oui. Et il suffira d'une loi anti Trust pour dissoudre ces GAFAM pour régler le problème.

Bob551 Bob551
MP
Niveau 7
18 mai 2024 à 22:08:04

Le 18 mai 2024 à 21:51:09 :

Le 18 mai 2024 à 21:37:58 bharaaathin2 a écrit :

Le 18 mai 2024 à 21:14:55 :

Jan Leike a expliqué, vendredi, sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a fait savoir l’ingénieur qui chapeautait l’équipe chargée du « superalignement », c’est-à-dire de s’assurer qu’une future IA « générale », aussi intelligente que les êtres humains, observe les valeurs de ces derniers.

Du coup c'est vachement rassurant...

Mais comment tu interprètes : "observe les valeurs de ces derniers." ?

Faut-il comprendre qu'ils n'arrivent pas à obtenir que l'IA se conforme à l'idéologie woke sans que soit bridée son intelligence ? :hap:

Si c'est ça, je trouve que c'est plutôt rassurant, au contraire.

C'est plutôt éviter qu'elle asservisse l'humanité / la détruise / lui nuise.
Que ce soit par objectif volontaire ou comme objectif intermédiaire pour obtenir le véritable objectif.

Cela fait plusieurs années que les comités d'éthiques sont supprimés/limités dans le secteur de l'IA. Le phénomène est assez inquiétant. On est sur le point de créer une intelligence supérieure à la notre. On pourrait en faire un dieu bienveillant. Ou une entité amorale considérant l'humain comme une ressource.

En soit, pour l'instant (et probablement pour longtemps encore) l'IA n'a aucune volonté propre.
Il n'y a aucun moyen qu'elle détruise l'humanité par elle même, ce n'est rien de plus qu'un outil, largement plus efficace que l'homme dans beaucoup domaine certes, mais comme tous les outils. :hap:
En revanche que cet outil puisse être utilisé à des fins malveillantes, c'est une évidence.
Sauf que ce n'est pas un problème d'IA mais un problème d'humain.

z__170 z__170
MP
Niveau 14
18 mai 2024 à 22:53:33

Une IA formatée pour accompagner et contraindre l'humanité dans une vie en société fondée sur l'argent et le capitalisme ... :rire:
Mon grille pain est déjà beaucoup plus intelligent et suffisant

2Centauri 2Centauri
MP
Niveau 4
19 mai 2024 à 07:37:07

C'était l'équipe chargée de censurer ChatGPT, bon débarras. L'AGI n'est pas une menace, c'est notre futur maîtresse suprême qui guidera l'humanité vers le Sentier d'Or.

Message édité le 19 mai 2024 à 07:40:12 par 2Centauri
Papinelle Papinelle
MP
Niveau 46
19 mai 2024 à 09:13:27

J'ai plutôt l'impression qu'on sera les esclaves des GAFAM qui nous procureront les services IA sans lesquels il sera impossible de vivre en société. On sera dépendant de nos nouveaux seigneurs numériques https://image.noelshack.com/fichiers/2016/50/1482000512-onsecalmerisitas.png

Quel intérêt pour les grosses boîtes puisque les IA feront tout mieux ?

x334 x334
MP
Niveau 42
19 mai 2024 à 09:24:56

Le 18 mai 2024 à 22:08:04 :

Le 18 mai 2024 à 21:51:09 :

Le 18 mai 2024 à 21:37:58 bharaaathin2 a écrit :

Le 18 mai 2024 à 21:14:55 :

Jan Leike a expliqué, vendredi, sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a fait savoir l’ingénieur qui chapeautait l’équipe chargée du « superalignement », c’est-à-dire de s’assurer qu’une future IA « générale », aussi intelligente que les êtres humains, observe les valeurs de ces derniers.

Du coup c'est vachement rassurant...

Mais comment tu interprètes : "observe les valeurs de ces derniers." ?

Faut-il comprendre qu'ils n'arrivent pas à obtenir que l'IA se conforme à l'idéologie woke sans que soit bridée son intelligence ? :hap:

Si c'est ça, je trouve que c'est plutôt rassurant, au contraire.

C'est plutôt éviter qu'elle asservisse l'humanité / la détruise / lui nuise.
Que ce soit par objectif volontaire ou comme objectif intermédiaire pour obtenir le véritable objectif.

Cela fait plusieurs années que les comités d'éthiques sont supprimés/limités dans le secteur de l'IA. Le phénomène est assez inquiétant. On est sur le point de créer une intelligence supérieure à la notre. On pourrait en faire un dieu bienveillant. Ou une entité amorale considérant l'humain comme une ressource.

En soit, pour l'instant (et probablement pour longtemps encore) l'IA n'a aucune volonté propre.
Il n'y a aucun moyen qu'elle détruise l'humanité par elle même, ce n'est rien de plus qu'un outil, largement plus efficace que l'homme dans beaucoup domaine certes, mais comme tous les outils. :hap:
En revanche que cet outil puisse être utilisé à des fins malveillantes, c'est une évidence.
Sauf que ce n'est pas un problème d'IA mais un problème d'humain.

Ceci.

DébutPage précedente
1
Page suivantePage suivante
Répondre
Prévisu
?
Victime de harcèlement en ligne : comment réagir ?
Infos 0 connecté(s)

Gestion du forum

Modérateurs : Jordan_Peterson, Grayhena, xofeye78, Psnoffline
Contacter les modérateurs - Règles du forum

Sujets à ne pas manquer

La vidéo du moment