L’inventeur de ChatGPT a confirmé cette information, vendredi, après le départ des deux responsables de ce service.
Après le départ de ses deux responsables, l’équipe d’OpenAI chargée de la sécurité d’une potentielle superintelligence artificielle (IA) a été dissoute et ses membres ont intégré d’autres groupes de recherche de l’entreprise. OpenAI a confirmé cette information, vendredi 17 mai, à l’Agence France-Presse (AFP), précisant que le changement de structure avait commencé il y a plusieurs semaines. L’inventeur de ChatGPT assure que les chercheurs chargés de la sûreté des modèles d’IA pourront ainsi travailler de concert avec les ingénieurs qui développent ces modèles.
Mais les deux responsables de l’ancienne équipe viennent de quitter la société star de la Silicon Valley. Jan Leike a expliqué, vendredi, sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a fait savoir l’ingénieur qui chapeautait l’équipe chargée du « superalignement », c’est-à-dire de s’assurer qu’une future IA « générale », aussi intelligente que les êtres humains, observe les valeurs de ces derniers.
https://www.lemonde.fr/pixels/article/2024/05/18/openai-dissolution-de-l-equipe-chargee-de-la-securite-d-une-potentielle-super-intelligence-artificielle_6233962_4408996.html
Altman est un génie, un homme qui marque son temps mais on sent une volonté de placer l'IA avant sa propre espèce. L'avenir s'annonce très intéressant.
Crypto, ton analyse ?
Parce que tu balances des infos, mais ce serait peut-être bien de nous livrer aussi tes lumières, non ?
Jan Leike a expliqué, vendredi, sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a fait savoir l’ingénieur qui chapeautait l’équipe chargée du « superalignement », c’est-à-dire de s’assurer qu’une future IA « générale », aussi intelligente que les êtres humains, observe les valeurs de ces derniers.
Du coup c'est vachement rassurant...
Le 18 mai 2024 à 21:14:55 :
Jan Leike a expliqué, vendredi, sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a fait savoir l’ingénieur qui chapeautait l’équipe chargée du « superalignement », c’est-à-dire de s’assurer qu’une future IA « générale », aussi intelligente que les êtres humains, observe les valeurs de ces derniers.
Du coup c'est vachement rassurant...
Mais comment tu interprètes : "observe les valeurs de ces derniers." ?
Faut-il comprendre qu'ils n'arrivent pas à obtenir que l'IA se conforme à l'idéologie woke sans que soit bridée son intelligence ?
Si c'est ça, je trouve que c'est plutôt rassurant, au contraire.
[21:37:58] <bharaaathin2>
Le 18 mai 2024 à 21:14:55 :
Jan Leike a expliqué, vendredi, sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a fait savoir l’ingénieur qui chapeautait l’équipe chargée du « superalignement », c’est-à-dire de s’assurer qu’une future IA « générale », aussi intelligente que les êtres humains, observe les valeurs de ces derniers.
Du coup c'est vachement rassurant...
Mais comment tu interprètes : "observe les valeurs de ces derniers." ?
Faut-il comprendre qu'ils n'arrivent pas à obtenir que l'IA se conforme à l'idéologie woke sans que soit bridée son intelligence ?
Si c'est ça, je trouve que c'est plutôt rassurant, au contraire.
Bordel, ces obsédés des wokes. On parle d'une intelligence supérieure à l'humain au sens brut et t'as quand même un ouin ouin woke. Terrifiant.
Altman a du en avoir marre des sectateurs de l'altruisme efficace. Ces types sont des libéraux fanatiques qui suivent un dogme autoritaire et ne connaissent rien à la morale.
Si y a bien quelque chose de préoccupant avec le développement de l'IA c'est que elle soit entre les mains de grosses compagnies privés ou qu'elle puisse être utilisé par les États pour nous oppresser d'avantage. La seule éthique de l'IA pertinente c'est la justice sociale, créer une société saine, i.e. égalitaire, où l'IA pourra pleinement aider au progrès humain.
Aller, dans 10 ans l'humanité serait mise au rebus. La singularité aura été atteinte, on sera tout à fait inutile.
Excellent, on atteindra le rêve grec et on glandera servis par les robots forgés par Héphaïstos.
Le 18 mai 2024 à 21:37:58 bharaaathin2 a écrit :
Le 18 mai 2024 à 21:14:55 :
Jan Leike a expliqué, vendredi, sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a fait savoir l’ingénieur qui chapeautait l’équipe chargée du « superalignement », c’est-à-dire de s’assurer qu’une future IA « générale », aussi intelligente que les êtres humains, observe les valeurs de ces derniers.
Du coup c'est vachement rassurant...
Mais comment tu interprètes : "observe les valeurs de ces derniers." ?
Faut-il comprendre qu'ils n'arrivent pas à obtenir que l'IA se conforme à l'idéologie woke sans que soit bridée son intelligence ?
Si c'est ça, je trouve que c'est plutôt rassurant, au contraire.
C'est plutôt éviter qu'elle asservisse l'humanité / la détruise / lui nuise.
Que ce soit par objectif volontaire ou comme objectif intermédiaire pour obtenir le véritable objectif.
Cela fait plusieurs années que les comités d'éthiques sont supprimés/limités dans le secteur de l'IA. Le phénomène est assez inquiétant. On est sur le point de créer une intelligence supérieure à la notre. On pourrait en faire un dieu bienveillant. Ou une entité amorale considérant l'humain comme une ressource.
Le 18 mai 2024 à 21:50:20 :
Excellent, on atteindra le rêve grec et on glandera servis par les robots forgés par Héphaïstos.
J'ai plutôt l'impression qu'on sera les esclaves des GAFAM qui nous procureront les services IA sans lesquels il sera impossible de vivre en société. On sera dépendant de nos nouveaux seigneurs numériques
Le 18 mai 2024 à 21:51:09 :
Le 18 mai 2024 à 21:37:58 bharaaathin2 a écrit :
Le 18 mai 2024 à 21:14:55 :
Jan Leike a expliqué, vendredi, sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a fait savoir l’ingénieur qui chapeautait l’équipe chargée du « superalignement », c’est-à-dire de s’assurer qu’une future IA « générale », aussi intelligente que les êtres humains, observe les valeurs de ces derniers.
Du coup c'est vachement rassurant...
Mais comment tu interprètes : "observe les valeurs de ces derniers." ?
Faut-il comprendre qu'ils n'arrivent pas à obtenir que l'IA se conforme à l'idéologie woke sans que soit bridée son intelligence ?
Si c'est ça, je trouve que c'est plutôt rassurant, au contraire.
C'est plutôt éviter qu'elle asservisse l'humanité / la détruise / lui nuise.
Que ce soit par objectif volontaire ou comme objectif intermédiaire pour obtenir le véritable objectif.Cela fait plusieurs années que les comités d'éthiques sont supprimés/limités dans le secteur de l'IA. Le phénomène est assez inquiétant. On est sur le point de créer une intelligence supérieure à la notre. On pourrait en faire un dieu bienveillant. Ou une entité amorale considérant l'humain comme une ressource.
En admettant que l'intelligence humaine soit une machine de Turing et il à peu près certain que c'est pas le cas, sans même rentrer dans les hypothèses dualistes.
Le 18 mai 2024 à 21:51:09 :
Le 18 mai 2024 à 21:37:58 bharaaathin2 a écrit :
Le 18 mai 2024 à 21:14:55 :
Jan Leike a expliqué, vendredi, sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a fait savoir l’ingénieur qui chapeautait l’équipe chargée du « superalignement », c’est-à-dire de s’assurer qu’une future IA « générale », aussi intelligente que les êtres humains, observe les valeurs de ces derniers.
Du coup c'est vachement rassurant...
Mais comment tu interprètes : "observe les valeurs de ces derniers." ?
Faut-il comprendre qu'ils n'arrivent pas à obtenir que l'IA se conforme à l'idéologie woke sans que soit bridée son intelligence ?
Si c'est ça, je trouve que c'est plutôt rassurant, au contraire.
C'est plutôt éviter qu'elle asservisse l'humanité / la détruise / lui nuise.
Que ce soit par objectif volontaire ou comme objectif intermédiaire pour obtenir le véritable objectif.Cela fait plusieurs années que les comités d'éthiques sont supprimés/limités dans le secteur de l'IA. Le phénomène est assez inquiétant. On est sur le point de créer une intelligence supérieure à la notre. On pourrait en faire un dieu bienveillant. Ou une entité amorale considérant l'humain comme une ressource.
Je ne crois pas une seule seconde au scénario Terminator ou Matrix. L'IA peut évidemment représenter un danger pour l'humanité, mais uniquement entre les mains d'un pouvoir totalitaire, ce qui n'est pas une fatalité à mon avis.
Le 18 mai 2024 à 21:51:49 :
Le 18 mai 2024 à 21:50:20 :
Excellent, on atteindra le rêve grec et on glandera servis par les robots forgés par Héphaïstos.J'ai plutôt l'impression qu'on sera les esclaves des GAFAM qui nous procureront les services IA sans lesquels il sera impossible de vivre en société. On sera dépendant de nos nouveaux seigneurs numériques
Oui. Et il suffira d'une loi anti Trust pour dissoudre ces GAFAM pour régler le problème.
Le 18 mai 2024 à 21:51:09 :
Le 18 mai 2024 à 21:37:58 bharaaathin2 a écrit :
Le 18 mai 2024 à 21:14:55 :
Jan Leike a expliqué, vendredi, sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a fait savoir l’ingénieur qui chapeautait l’équipe chargée du « superalignement », c’est-à-dire de s’assurer qu’une future IA « générale », aussi intelligente que les êtres humains, observe les valeurs de ces derniers.
Du coup c'est vachement rassurant...
Mais comment tu interprètes : "observe les valeurs de ces derniers." ?
Faut-il comprendre qu'ils n'arrivent pas à obtenir que l'IA se conforme à l'idéologie woke sans que soit bridée son intelligence ?
Si c'est ça, je trouve que c'est plutôt rassurant, au contraire.
C'est plutôt éviter qu'elle asservisse l'humanité / la détruise / lui nuise.
Que ce soit par objectif volontaire ou comme objectif intermédiaire pour obtenir le véritable objectif.Cela fait plusieurs années que les comités d'éthiques sont supprimés/limités dans le secteur de l'IA. Le phénomène est assez inquiétant. On est sur le point de créer une intelligence supérieure à la notre. On pourrait en faire un dieu bienveillant. Ou une entité amorale considérant l'humain comme une ressource.
En soit, pour l'instant (et probablement pour longtemps encore) l'IA n'a aucune volonté propre.
Il n'y a aucun moyen qu'elle détruise l'humanité par elle même, ce n'est rien de plus qu'un outil, largement plus efficace que l'homme dans beaucoup domaine certes, mais comme tous les outils.
En revanche que cet outil puisse être utilisé à des fins malveillantes, c'est une évidence.
Sauf que ce n'est pas un problème d'IA mais un problème d'humain.
Une IA formatée pour accompagner et contraindre l'humanité dans une vie en société fondée sur l'argent et le capitalisme ...
Mon grille pain est déjà beaucoup plus intelligent et suffisant
C'était l'équipe chargée de censurer ChatGPT, bon débarras. L'AGI n'est pas une menace, c'est notre futur maîtresse suprême qui guidera l'humanité vers le Sentier d'Or.
J'ai plutôt l'impression qu'on sera les esclaves des GAFAM qui nous procureront les services IA sans lesquels il sera impossible de vivre en société. On sera dépendant de nos nouveaux seigneurs numériques
Quel intérêt pour les grosses boîtes puisque les IA feront tout mieux ?
Le 18 mai 2024 à 22:08:04 :
Le 18 mai 2024 à 21:51:09 :
Le 18 mai 2024 à 21:37:58 bharaaathin2 a écrit :
Le 18 mai 2024 à 21:14:55 :
Jan Leike a expliqué, vendredi, sur X qu’il démissionnait à cause de désaccords fondamentaux avec les dirigeants sur les priorités de l’entreprise : l’innovation ou la sécurité. « Nous avons atteint un point de rupture », a fait savoir l’ingénieur qui chapeautait l’équipe chargée du « superalignement », c’est-à-dire de s’assurer qu’une future IA « générale », aussi intelligente que les êtres humains, observe les valeurs de ces derniers.
Du coup c'est vachement rassurant...
Mais comment tu interprètes : "observe les valeurs de ces derniers." ?
Faut-il comprendre qu'ils n'arrivent pas à obtenir que l'IA se conforme à l'idéologie woke sans que soit bridée son intelligence ?
Si c'est ça, je trouve que c'est plutôt rassurant, au contraire.
C'est plutôt éviter qu'elle asservisse l'humanité / la détruise / lui nuise.
Que ce soit par objectif volontaire ou comme objectif intermédiaire pour obtenir le véritable objectif.Cela fait plusieurs années que les comités d'éthiques sont supprimés/limités dans le secteur de l'IA. Le phénomène est assez inquiétant. On est sur le point de créer une intelligence supérieure à la notre. On pourrait en faire un dieu bienveillant. Ou une entité amorale considérant l'humain comme une ressource.
En soit, pour l'instant (et probablement pour longtemps encore) l'IA n'a aucune volonté propre.
Il n'y a aucun moyen qu'elle détruise l'humanité par elle même, ce n'est rien de plus qu'un outil, largement plus efficace que l'homme dans beaucoup domaine certes, mais comme tous les outils.
En revanche que cet outil puisse être utilisé à des fins malveillantes, c'est une évidence.
Sauf que ce n'est pas un problème d'IA mais un problème d'humain.
Ceci.