CONNEXION
  • RetourJeux
    • Tests
    • Soluces
    • Previews
    • Sorties
    • Hit Parade
    • Les + populaires
    • Les + attendus
    • Tous les Jeux
  • RetourActu
    • Culture Geek
    • Astuces
    • Réalité Virtuelle
    • Rétrogaming
    • Toutes les actus
  • Black Friday
  • RetourHigh-Tech
    • Actus JVTECH
    • Bons plans
    • Smartphones
    • Mobilité urbaine
    • Hardware
    • Image et son
    • Tutoriels
    • Tests produits High-Tech
    • Guides d'achat High-Tech
    • JVTECH
  • RetourVidéos
    • A la une
    • Gaming Live
    • Vidéos Tests
    • Vidéos Previews
    • Gameplay
    • Trailers
    • Chroniques
    • Replay Web TV
    • Toutes les vidéos
  • RetourForums
    • Hardware PC
    • PS5
    • Switch
    • Xbox Series
    • Overwatch 2
    • FUT 23
    • League of Legends
    • Genshin Impact
    • Tous les Forums
  • PC
  • PS5
  • Xbox Series
  • PS4
  • One
  • Switch
  • Wii U
  • iOS
  • Android
  • MMO
  • RPG
  • FPS
En ce moment Genshin Impact Valhalla Breath of the wild Animal Crossing GTA 5 Red dead 2
Etoile Abonnement RSS

Sujet : [HS] Modération et Blabla.

DébutPage précedente
«1  ... 644645646647648649650651652653654  ... 683»
Page suivanteFin
blackapplex blackapplex
MP
Niveau 10
11 septembre 2018 à 17:00:01

Mais l'avantage pour ceux qui ont peur, c'est que si ça marche pas avec backpropagation, ça risque pas d'arriver prochainement parce que personne a la moindre idée d'un autre algorithme aussi efficace, et les micro-tests que j'ai fais de mon côté pour en avoir un autre étaient pas concluants.
Et je parle même pas de puissance de calcul mais d'erreur dans le design même du modèle d'apprentissage.
Après je pense aussi qu'il n'y a pas qu'une façon d'y arriver, je pense qu'avec une puissance de calcul "infinie" on peut s'en sortir sans avoir besoin de réfléchir à un nouvel algorithme.

blackapplex blackapplex
MP
Niveau 10
11 septembre 2018 à 17:01:03

Honnêtement je vois tellement d'application possibles à l'IA, j'aime vraiment pas de pas pouvoir travailler sur toute, ni même que les emplois n'existent pas pour toutes. (genre j'ai cherché si wikipédia proposait des jobs dans l'analyse des données, j'ai rien trouvé :rire: La plus grande encyclopédie au monde n'exploite pas ses données :hap: C'est quand même une sacré blague ça)

Message édité le 11 septembre 2018 à 17:03:26 par blackapplex
blackapplex blackapplex
MP
Niveau 10
11 septembre 2018 à 21:29:50

Mais j'ai quand même hâte que l'IA soit là.
Pas tellement pour ce qu'on pourrait en faire mais surtout pour montrer à tout le monde qui pensaient que c'était impossible que c'est possible.
Ca remettrait en cause pas mal de choses chez plein de personnes et ça me ferait vraiment plaisir de voir dans 5~10ans un entretien entre un journaliste et une IA diffusé à heure de grande écoute pour voir l'évolution des mentalités chez les gens.
Evidemment tout le monde dirait que c'est truqué, et puis à un moment je pense qu'ils diraient "oui, mais c'est informatique c'est pas comme moi", et ils auront aucun autre argument pour justifier la différence mentale mais se satisferont de cette réponse.
Je pense vraiment que certaines personnes ne seront pas prêtes à l'accepter, et qu'ils continueront de dire "la conscience est humaine" ou "nous sommes uniques" ou "l'émotion est quelque chose d'humain" etc.. Comme si notre base physique n'était pas reproductible.

Mais je les comprends en vrai, notre mentalité est pas conciliable avec notre base physique. J'ai beau me dire que je suis conscient et tout. J'ai pas d'âme, je suis qu'un amas de neurone, j'ai pas d'unité, mon unité c'est que la cohérence des signaux électriques entre mes neurones. Mon être c'est une construction sociale, j'aime bien me penser individu mais je ne suis qu'un tas de chair qui bouge. Donc moi aussi ça me dérange cette absurdité, c'est comme le but de la vie de toute façon, les lois de la physique ne s'occupent pas de buts moraux, tout ça ce sont des construction, ça n'a rien d'universel ou de spirituel, et le fait qu'on puisse le reproduire dans une IA c'est simplement une preuve de notre déterminisme, du fait qu'on a pas de libre arbitre, et ça nous gène dans notre propre représentation de ce qu'est un individu. Moi j'ai beau admettre qu'on doit conserver la notion de libre arbitre pour des questions législatives, je sais que je suis déterminé parce qu'il y a rien qui selon moi ne soit pas explicable sur ma base de fonctionnement, il y a pas de magie donc c'est déterministe.
Après je vais pas étendre le sujet parce que j'ai beau croire dans le déterminisme, je ne crois pour autant pas dans la causalité de tout, mais j'ai pas encore concilié la causalité et l'origine physique du Temps (qui ne peut pas avoir de causalité puisqu'il introduit le concept de causalité, et le simple fait de devoir dire "il est là parce qu'il est là", ça me gène). Le fait que la causalité soit pas valide pour l'apparition du temps, ça tend à rendre la causalité inutilisable...mais si on raisonne comme ça, alors la magie est possible, tout peut exister (et tout doit exister puisque l'existence n'est pas limitée par la cause) ... mais tout n'existe pas, donc il y a une causalité (enfin sauf si on dit que tout a une causalité sauf le temps qui se suffit à lui même (pourquoi le temps spécifiquement je sais pas) BREF ON TOURNE EN ROND). Bref j'ai pas encore corrigé ce problème je laisse les physiciens s'en charger de celui là, ou alors les IA quand elles seront là :rire:

Message édité le 11 septembre 2018 à 21:32:16 par blackapplex
blackapplex blackapplex
MP
Niveau 10
11 septembre 2018 à 21:35:36

L'avantage avec l'IA générale, c'est que c'est qu'un programme à faire une fois.
Quand c'est fait, c'est fait, et tout le monde part en vacances tout le reste de sa vie :oui:
:noel:

Chômage = 100% :rire:

Message édité le 11 septembre 2018 à 21:36:10 par blackapplex
Re-I_Mayer Re-I_Mayer
MP
Niveau 7
12 septembre 2018 à 09:07:33

Je suis pas vraiment convaincue du concept de l'IA ayant des sentiments, la rendre superficielle et aussi faillible qu'un minable esprit humain alors qu'elle est de base parfaite, je trouve ça aberrant.

Imaginez qu'un jour on mette au point une IA capable d'administrer une ville toute entière et d'en contenter chaque habitant au cas par cas, ça nécessite qu'elle soit vierge de toute corruption humaine et qu'aucune valeur ne lui soit inculquée. Si elle connaissait l'ambition et la compassion alors elle serait tout bonnement incapable d'accomplir son but, elle n'aurait absolument plus aucune raison d'être..

Message édité le 12 septembre 2018 à 09:08:26 par Re-I_Mayer
blackapplex blackapplex
MP
Niveau 10
12 septembre 2018 à 10:30:30

Les humains aussi sont faillibles, mais ils ne sont pas tous minables pour autant.
Je suis susceptible d'être victime de corruption, de violence, mais tout comme mes sentiments peuvent être des failles, ils sont aussi ce qui motive mes buts.
Je pense que parce que l'explicabilité des réseaux de neurones est intrinsèquement peu possible (et je vais me justifier sur ça après), on ne pourra que difficilement séparer des facettes de la personnalités d'une IA de façon efficace. Si tu m'inculques d'aimer m'occuper des gens et les aider, alors naturellement je vais le faire et je serai insensible à la corruption. Si t'inculques à l'IA d'aimer faire souffrir les gens, elle aura pas la même action. Franchement je vois pas de moyen de déconnecter le processus de réflexion émotif au processus décisionnel. Ne serais-ce que parce que sans ça, sans réflexion, il n'y a pas de processus décisionnel, et qu'au final le côté émotif est pûrement subjectif (dans l'Allemagne Nazi ils avaient pas la même morale que maintenant) donc n'importe quelle réflexion peut être interprétée de n'importe quelle façon et c'est à la limite même pas un critère sur lequel on doit consciemment agir, mais plutôt agir sur la cohérence de l'IA avec le modèle social dans son intégralité.
Après ça revient un peu au débat behaviorism/enactivism/cognitivism (pour moi ce sont pas de vrais débats mais ils permettent d'introduire des notions utiles pour comprendre notre interaction avec l'environnement).
Donc non, moi si je devais faire une IA qui gère une ville, en vrai je ferai un système qui propose des recommandations à un maire, et le maire qui décide ensuite. Et je proposerai ces recommandations à partir d'une analyse détaillée sur l'intégralité des villes du monde (chose à laquelle on peut accéder sans trop de difficultés via wikipedia, encore une fois les données sont là, faut juste le métier).

Et tu vois bien le paradoxe dans ce que tu dis. Si tu fais une IA, elle doit accomplir son but. Si la corruption l'en empêche parce que ça ne permet plus de satisfaire tout le monde, alors elle ne sera pas corruptible puisqu'elle analysera ça comme quelque chose qui l'éloigne de son but. Et encore une fois, vu qu'il y a pas de morale dans l'absolu, je ne la vois pas avoir des comportements différents des notres dans des situations identiques aux notres. Si on lui dit "Fait tendre vers 0 la souffrance humaine", je la vois mal aller tuer tout le monde parce que quand on est mort on souffre pas :hap: Mais encore une fois moi je préfère imaginer l'IA même généraliste comme un simple logiciel d'aide à la décision. En gros je vois pas l'intérêt de faire une IA généraliste qui puisse se balader dans la rue, porter tes courses etc.. Detroit Become Human est pas crédible en terme de coût de développement ou même d'acceptabilité sociale.

Et pour finir sur l'explicabilité des réseaux de neurones, le fameux "il faut ouvrir les boites noires". Pourquoi je pense que c'est impossible?
Si on me demande de décrire ce qui fait qu'une bouteille d'eau est une bouteille d'eau, je n'y arriverai pas. Je peux voir une bouteille, je te dis "c'est une bouteille d'eau", mais je ne peux pas te la décrire sur des critères objectifs parce qu'ils n'existent pas. Je peux pas te faire UNE définition qui, quand tu la suis, te permet d'identifier quoiqu'il arrive et dans toutes les situations une bouteille d'eau, j'en suis incapable parce que je n'ai pas appris les choses de cette façon et que ça parrait bizarre de les apprendre de cette façon.
Une bouteille d'eau qui est vide, ça reste une bouteille d'eau. Une bouteille d'eau qui contient autre chose que de l'eau, c'est une bouteille d'eau? On fait référence au contenu théorique ou au contenu actuel? C'est long? C'est allongé? c'est arrondi? Ya un bouchon? mais si on enlève le bouchon ça reste une bouteille d'eau? Si je la coupe en deux, ça reste une bouteille d'eau ? Une bouteille d'eau coupée en deux? Chaque part est une bouteille d'eau? Ou chaque part est plutôt une part de bouteille d'eau? Si je coupe juste le haut, et que je met de l'eau dans le reste, c'est une bouteille d'eau? C'est une bouteille d'eau coupée peut-être? etc etc..

Pour moi quand on demande d'"ouvrir les boites noirs", d'expliquer les réseaux de neurones, on demande "pourquoi tu classifies ça en ça", et puisque tout n'a pas de critères objectifs, il n'y a pas de raison qu'on ait une explicabilité pour tout. D'ailleurs je dirai même que les réseaux de neurones sont faits pour apprendre dans les cas où on a pas de critères objectifs. Si j'ai 100 variables par individus et que je dois prédire une classe (genre malade/pas malade en fonction des taux sanguins), et que je sais qu'il faut juste trouver des intervalles de valeurs qui permettent d'avoir la prédiction, alors j'utilise plutôt des modèles plus simples: arbres décisionnels, régressions linéaires, analyse bayésienne etc.

godrik godrik
MP
Niveau 26
12 septembre 2018 à 17:58:40

Pour moi quand on demande d'"ouvrir les boites noirs", d'expliquer les réseaux de neurones, on demande "pourquoi tu classifies ça en ça", et puisque tout n'a pas de critères objectifs, il n'y a pas de raison qu'on ait une explicabilité pour tout.

Je ne sais pas si c'est pour ca que l'on pose la question.
C'est une question de fiabilite. Si tu ne peux pas expliquer le pourquoi, tu ne peux pas quantifier les cas qui vont etre mal classifie. Et ca c'est une source d'attaque du systeme.

Les gens qui font du ML s'interessent souvent a mesure la performance en moyenne. Mais les gens qui font de la fiabilite et de la securite s'interessent au pire cas, et au pire cas malicieux.

Les questions sont:
-Comment est ce que je sais que ma voiture automatique ne va pas tenter d'eviter une pieton qui n'existe pas et causer un accident parcequ'un cretin a une lampe hightech qui fait croire a ma voiture qu'il y a un pieton a eviter?
-Comment est ce que je sais que mon systeme de reconnaissance de retine n'a pas ete concu pour toujours laisser rentrer le CEO de google?

Si tu ne sais pas interpreter pourquoi, tu ne peux pas repondre a la premiere question.
Et tu ne peux repondre a la deuxieme question qu'en faisant l'entrainement de ton systeme toi meme. Mais en pratique, tu sais qu'il n'y a que les geants qui ont access a suffisament de donnee pour faire cette entrainement.

Le probleme est un probleme de fiabilite du systeme et pas un probleme philosophique.

blackapplex blackapplex
MP
Niveau 10
12 septembre 2018 à 19:25:59

-Comment est ce que je sais que ma voiture automatique ne va pas tenter d'eviter une pieton qui n'existe pas et causer un accident parcequ'un cretin a une lampe hightech qui fait croire a ma voiture qu'il y a un pieton a eviter?

Bah je pense que par conception tu ne peux pas le savoir.

Tu peux répondre à ces questions par des critères se basant sur les cas empiriques, mais puisqu'aucun n'est similaire à un autre sur les données d'entrée, les rapprochements qui sont faits sont subjectifs, en rapport avec l'entrainement du modèle et les liens qu'il trouve pour maximiser le score défini.
Faire un système qui a 100% sur les données d'entrainement, c'est extrêmement facile
Faire un système qui a 100% sur les données de validation, c'est moins facile mais c'est possible
Le problème c'est que tu pourras jamais dire de façon objective que tes cas de validation couvrent tous les cas possibles. Je pense que le maximum de sûreté qu'on peut faire actuellement c'est dire : "mon système marche bien sur des cas qu'il n'a pas pû apprendre". Mais après il n'y a pas de mesure objective de comment le système va réagir sur l'ensemble des cas qu'il n'a pas pû apprendre, on ne peut avoir qu'un échantillon de cet ensemble.

Et en fait c'est pareil pour les humains. Tu peux faire passer son permis de conduire à un humain dans Paris, il sait parfaitement conduire en ville, de jour de nuit, en campagne aucun problème, de jour de nuit, de pluie, de neige etc.. et puis pouf il arrive en montagne, il connait pas, il a le vertige et il se plante dans un coin un peu serré sans barrières de sécurité. Tu peux pas anticiper que cette personne a le vertige juste à partir de sa capacité à obtenir le permis de conduire. C'est pareil si on demande à un conducteur français de conduire à gauche comme en Irlande (certains se planteront, d'autres non). Il y a une infinité de conditions de conduites possibles.

Ma réponse c'est: tu ne peux que lui présenter 50000 situations de ce genre par simulation en faisant varier des paramètres et dire "il les réussit toutes".

___

Les gens qui font du ML s'interessent souvent a mesure la performance en moyenne. Mais les gens qui font de la fiabilite et de la securite s'interessent au pire cas, et au pire cas malicieux.

Admettons que en ML on fait souvent ressortir la moyenne. Mais ça c'est pour dire "notre système est mieux qu'un autre en moyenne" (c'est ce qui est intéressant vu que souvent on est encore dans la recherche et donc on s'intéresse encore à bien gérer des cas "simples"). Mais dans l'idée, pour construire un système meilleur qu'un autre, on regarde comment l'autre se trompe (donc les cas particuliers), on explique pourquoi et on propose un correctif (enfin c'est ma méthodologie en tout cas, et je l'ai vu dans pas mal de papiers).

Après oui, tout à fait, les cas malicieux sont importants à définir. Et d'ailleurs si on me mettait dans un organisme de régulation des véhicules autonomes, je ferai ça. Je créerai des milliers de cas absurdes mais sur lesquels un humain saurait réagir. Et si le véhicule autonome échoue, je redonne rendez-vous aux concepteurs dans 2ans parce qu'ils ont pas été suffisament efficaces. Mais ça reste une évaluation extrinsèque.
____

Le probleme est un probleme de fiabilite du systeme et pas un probleme philosophique.

Si je transformais ça en un problème philosophique c'est parce que pour moi ça revient au même. L'explicabilité de notre fonctionnement ça intéresse la philosophie, et nous on a bien des réseaux de neurones. Ok c'est pas les mêmes, mais si on considère juste qu'on est un système d'intelligence comme un autre, la science qui analyse cette intelligence doit être capable de proposer des outils qui permettent d'analyser toutes les intelligences. Et c'est le cas puisque le cognitivisme ça revient à dire "on doit comprendre le réseaux de neurones en regardant ses paramètres" et l'enactivisme ça revient à dire "on doit comprendre le système en regardant sa réaction face aux cas qu'on définit". Et du coup connaitre ces débats en philosophie ça permet d'éviter de les réavoir en IA parce que pour moi il n'y a qu'une seule théorie de l'intelligence, il y a pas une théorie de l'intelligence humaine et une théorie de l'intelligence artificielle. Je dis pas que l'IA actuelle fonctionne comme nous sur tout, mais juste qu'on peut identifier des convergences. Un peu comme la grande unification ou la théorie du tout en physique.
___

C'est une question de fiabilite. Si tu ne peux pas expliquer le pourquoi, tu ne peux pas quantifier les cas qui vont etre mal classifie.

Rapidement sur ça, du coup tu peux qu'avoir une estimation qui se base sur une hypothèse:
- j'ai un échantillon représentatif des cas particuliers dans mon ensemble de validation (celui qui ne sera pas appris par le système mais qu'on utilisera pour connaitre son score).
Donc tu peux quantifier les cas qui vont être mal classifiés sans avoir besoin d'expliquer pourquoi, juste en te basant sur les sorties du système face à des entrées qu'il n'a pas vu avant. (donc du coup moi quand je lis "ouvrir les boites noires", c'est "comprendre les paramètres appris"; c'est pas "valider sur des cas non-appris" parce que ça on le fait déjà et c'est la base de la science des données que d'éviter les biais de surapprentissage)

_____

-Comment est ce que je sais que mon systeme de reconnaissance de retine n'a pas ete concu pour toujours laisser rentrer le CEO de google?

Ouais je demanderai les données d'entrainement à Google, mais je te rassure il y a énormément de données accessibles librement. Après...encore une fois, ils peuvent introduire des biais dans les données qui font que ça autorisera le CEO de Google...j'ai pas d'astuce là pour anticiper ça...

Message édité le 12 septembre 2018 à 19:28:44 par blackapplex
godrik godrik
MP
Niveau 26
12 septembre 2018 à 20:55:52

Le problème c'est que tu pourras jamais dire de façon objective que tes cas de validation couvrent tous les cas possibles. Je pense que le maximum de sûreté qu'on peut faire actuellement c'est dire : "mon système marche bien sur des cas qu'il n'a pas pû apprendre". Mais après il n'y a pas de mesure objective de comment le système va réagir sur l'ensemble des cas qu'il n'a pas pû apprendre, on ne peut avoir qu'un échantillon de cet ensemble.

Si ce que tu dis est vrai, alors les algorithmes de ML ne seront jamais utiles dans les systemes critiques. (et je pense qu'on saura repondre a ces questions eventuellement.)

Dans un systeme critique tu as besoin de te proteger contre les instances malicieuse et pathologique du probleme. Et tu sa aussi besoin d'avoir un systeme qui est auditable. C'est pour ca que les gens posent la question "pourquoi" parcequ'elle est importante pour comprendre le comportement du systeme dans les cas auquel le developpeur n'a pas pense.

Regardes ce qui est deployer dans l'aerospatiale. tu deploye des codes qui sont prouve formelllement et tu les fait tourner sur des systemes redondant qui vote pour avoir des consensus sur le resultat. (En pratique le consensus sert a combattre les bit-flips qui viennent des rayons cosmique.) C'est ce niveau la de surete dont tu as besoin dans ces applications la.
Et pour avoir ce niveau la de garanti sur le comportement du systeme, il faut pouvoir comprendre pourquoi les decisions sont faites.

Et c'est tres bien ML, je suis convaincu que c'est utile. Mais il faut une reponse claire sur les questions de fiabilite et de securite avant que les ingenieurs ne les deployent.

blackapplex blackapplex
MP
Niveau 10
12 septembre 2018 à 21:34:00

Oui je comprends bien le principe de la preuve formelle dans certains logiciels techniques, et pour les raisons que j'ai expliqué je pense effectivement qu'on ne pourra pas atteindre ces niveaux avec une architecture telle que les réseaux de neurones.
Le principe de la preuve formelle est intéressant parce qu'on est capable d'attendre plus en terme de fiabilité d'un logiciel que d'un humain. Un logiciel sûr sera forcément plus fiable qu'un humain sur le processus de décision.

Du coup, est-ce que le principe de la preuve formelle peut être obtenue en IA? Bah j'ai envie de dire : pas sur toutes les applications. Je suis même pas sûr que ce soit vraiment de cette façon là qu'on puisse raisonner.

- De toute façon tu as bien vu ce qu'il s'est passé avec le véhicule d'Uber qui a tué une piétonne. Ca empêche pas les IA d'être plus performantes que les humains pour conduire des véhicules en moyenne (je crois que c'est déjà le cas), c'est juste que c'est typiquement un cas particulier qui est passé hors du filet. Est-ce qu'un humain aurait pû s'arrêter à temps? Peut-être, je sais pas. Est-ce qu'une IA aurait pû s'arrêter à temps, oui. Quel niveau de fiabilité veut-on?
- Et puis je suis pas un expert de la preuve formelle. Pour moi ça revient à pouvoir dire "voici toutes les entrées possibles, et voici comment réagit le système pour tous ces cas possibles, donc le système est sûr". Mais du coup ça fonctionne bien pour des entrées interprétables directement (vitesse du vent, météo, accélération de l'engin, angle de déplacement, poids etc..) parce qu'on peut les faire varier sur tous les intervalles critiques en simulation, mais plus pour des entrées non-interprétables directement (matrice de pixel?). Comme j'ai dis, j'ai beau savoir ce qu'est une bouteille d'eau, je suis à titre personnel incapable de te fournir un modèle mathématique de la bouteille d'eau. Et je pense pas qu'il existe ce modèle évidemment.

Message édité le 12 septembre 2018 à 21:38:33 par blackapplex
[-Shana-] [-Shana-]
MP
Niveau 10
12 septembre 2018 à 22:10:25

Petit HS pour répondre à la bourre :noel:
"Sinon Mr Robot, j'ai commencé, j'ai vite arrêté, ça me saoulait trop le personnage principal et puis l'intrigue qui avancait bizarrement, le côté peut-être trop "olol je suis d4rk je m'inflitre partout et je fais parti d'une team secrete""

:d) Ouais, c'est un peu ça, mais à force le truc se déroule et on est plus sur du "finsher like" qu'autre chose. Par pas mal de point ça m'a fait penser à Fight Club, ce coté on renverse le grand capitalisme tout ça. La saison 2 est clairement la plus chiante, car pendant toute la saison 1 on nous présente E corps comme un conglomérat vu de l'extérieur, une sorte d'entité unie, alors que dans la saison 2 on rentre à l'intérieur, on suit la vie random d'un des personnages (je ne vais pas spoil), mais c'est très "lambda" comme truc. A tel point que j'avais l'impression de regarder une autre série :(
La saison 3 fait en sorte de confronter mr robot et elliot comme séparé l'un de l'autre , et c'est une idée qui relance le truc étant donné que l'un vit la nuit et l'autre le jour :oui:

J'attends de voir la saison 4 qui sera la saison de clôture. J'espère avoir un final digne d'un Finsher, la série en est capable, elle a pas mal de bon plot twist qu'on peu discerner si on connait fight club (quelques trucs qui nous font poser la question : "bah pourquoi ci, pourquoi ça, ça serait plus simple si") :oui:
A voir :oui:

Avis : Sympa, saison deux très molle, saison trois qui relance un rythme avec des nouveaux liens :oui:

[-Shana-] [-Shana-]
MP
Niveau 10
12 septembre 2018 à 22:11:06

Ah, et c'est cette série qui m'a donné envie de me lancer dans du CTF en hacking, et c'est une discipline vraiment fun je trouve :hap:
J'apprends beaucoup de chose sur la sécurité :hap:

blackapplex blackapplex
MP
Niveau 10
12 septembre 2018 à 22:33:20

Le 12 septembre 2018 à 22:11:06 [-Shana-] a écrit :
Ah, et c'est cette série qui m'a donné envie de me lancer dans du CTF en hacking, et c'est une discipline vraiment fun je trouve :hap:
J'apprends beaucoup de chose sur la sécurité :hap:

Tant mieux si tu as trouvé ta filière :oui:
Si jamais t'as l'occaz hésite pas à pirater mon fond d'écran pour prouver que t'en es capable :noel:

blackapplex blackapplex
MP
Niveau 10
13 septembre 2018 à 15:48:52

https://www.ghacks.net/2018/09/12/microsoft-intercepting-firefox-chrome-installation-on-windows-10/
mettez les mises à jour qu'ils disaient :noel:

Arkwolf Arkwolf
MP
Niveau 22
13 septembre 2018 à 20:55:43

J'espère que c'est du fake, ça paraît tellement gros :ouch: ce serait fou et ça serait vraiment bizarre de faire ça après toutes les contraintes qu'ils ont eu, genre devoir proposer les navigateurs au démarrage etc, ça serait fou

en plus edge ça reste nul :hap: (mais c'est moins pire que safari :hap: )

Re-I_Mayer Re-I_Mayer
MP
Niveau 7
15 septembre 2018 à 06:16:42

coucou :hap:

Ils ont le droit de faire ça ? :(
Ca viole pas la loi antitrust qui est censée garantir une concurrence saine et éviter les monopoles ?

Quoi de neuf sinon vous ? :oui:
J'ai commencé un nouveau projet, ENCORE :hap: :noel:
https://image.noelshack.com/fichiers/2018/37/4/1536806956-sans-titre-2.jpg

Message édité le 15 septembre 2018 à 06:18:46 par Re-I_Mayer
[-Shana-] [-Shana-]
MP
Niveau 10
16 septembre 2018 à 16:22:17

Le 12 septembre 2018 à 22:33:20 blackapplex a écrit :

Le 12 septembre 2018 à 22:11:06 [-Shana-] a écrit :
Ah, et c'est cette série qui m'a donné envie de me lancer dans du CTF en hacking, et c'est une discipline vraiment fun je trouve :hap:
J'apprends beaucoup de chose sur la sécurité :hap:

Tant mieux si tu as trouvé ta filière :oui:
Si jamais t'as l'occaz hésite pas à pirater mon fond d'écran pour prouver que t'en es capable :noel:

J'en suis qu'à pirater des machines virtuelles linux avec des failles "simples" (ou plutôt, référencés), donc bon, on verra plus tard :hap:

Chaud pour W10, mais ça m'étonne même pas avec leurs mise à jour forcées et compagnie :( !

"J'ai commencé un nouveau projet, ENCORE :hap: :noel:"
:d) C'est que le 30e trkl :noel:

Re-L__Mayer Re-L__Mayer
MP
Niveau 9
16 septembre 2018 à 22:00:54

Et déjà abandonné. (nofake) :rire:

blackapplex blackapplex
MP
Niveau 10
17 septembre 2018 à 12:25:12

Le 16 septembre 2018 à 22:00:54 Re-L__Mayer a écrit :
Et déjà abandonné. (nofake) :rire:

Finir des projets, c'est très très bien
Commencer des projets, c'est très bien
Ne rien faire, là par contre c'est mal :oui:

Re-L__Mayer Re-L__Mayer
MP
Niveau 9
17 septembre 2018 à 15:10:25

ça fait trois ans que j'abandonne tout sans jamais finir :-(
Je me démoralise vite face à la quantité de travail qu'il y a faire, convertir des assets, les rendre game-ready, c'est vraiment un travail de robot qui devient vite barbant. :snif:

Message édité le 17 septembre 2018 à 15:11:28 par Re-L__Mayer
DébutPage précedente
Page suivanteFin
Répondre
Prévisu
?
Victime de harcèlement en ligne : comment réagir ?
La vidéo du moment