Portfolio par Anna Stepanoff et Mathias Savary
2 novembre 2018
2 novembre 2018
Temps de lecture : 7 minutes
7 min
8459

4 règles imparables pour éviter qu’un robot vous pique votre boulot !

Découvrez quatre règles à retenir pour continuer à tenir la distance et éviter d’être mis au rebut par un bout de ferraille intelligent.
Temps de lecture : 7 minutes

Bon, avant de classer l’Homme comme une espèce en voie de disparition, mettons les points sur les “i” d’intelligence. Certains " experts " en font trop sur l’IA. C’est un peu comme si l’on s’extasiait devant la Joconde en oubliant complètement qu’elle a été peinte par Léonard de Vinci. L’IA est une création, l’humain est le créateur.

Il s’agit d’une simulation de vie. En fait, une véritable intelligence artificielle n’existe pas encore. Comme l’explique Laurent Bourrely : étant donné que l’IA vise à imiter le fonctionnement du cerveau, et que celui-ci reste un beau mystère (malgré quelques connaissances glanées à son sujet), nous ne sommes pas près d’y arriver. Nous ne savons pas précisément comment fonctionne la pensée.

Et nous n’avons pas non plus découvert l’algorithme de la conscience de soi. Vous et moi, nous savons que nous sommes en train de penser. Nous savons au carré. Comment enseigner cela à un robot ? Personne ne nous l’a appris, à nous.

" J’ai un peu de mal à penser qu’une machine, même très sophistiquée, dopée au deep learning, puisse acquérir une conscience d’elle-même " résume Etienne Klein, physicien et docteur en philosophie des sciences.

Il existe donc quelques abîmes qui séparent encore l’intelligence naturelle de l’artificiel. Pourtant, les robots vont prendre la place l’Homme dans certains domaines. Un rapport de l’institut Sapiens prévoit en effet, entre 2038 et 2091, le remplacement de l’Homme par la machine pour les métiers suivants :

  • les banquiers et les assureurs
  • les comptables
  • les secrétaires bureautiques et de direction
  • les caissières et les employés de libre-service
  • les manutentionnaires

Mais le vice-président exécutif de la division IA et des activités R et D de Microsoft, Harry Shum, a prévenu : " l’IA va disrupter tous les business. " Personne n’est vraiment à l’abri.

Voici donc quatre règles solides pour continuer à tenir la distance et éviter d’être mis au rebut par un bout de ferraille intelligent.

1/ Inventer son métier

Qu’est-ce que l’avenir nous réserve ? Nous avons grandi avec les visions apocalyptiques de James Cameron (Terminator), Philip K. Dick (Blade runner) et les frères Wachowski (Matrix).

Cependant, ce que l’on sait vraiment de l’avenir, c’est qu’il est mouvant. D’après une étude menée par Dell et l’organisme indépendant  " l’Institut pour le Futur ", on apprend que 85 % des emplois de 2030 n’existent même pas encore aujourd’hui. Dans à peine plus de 10 ans, le monde du travail aura complètement changé.

Le site Designboom souligne, pour sa part, que " 65 % des écoliers d’aujourd’hui pratiqueront, une fois diplômés, des métiers qui n’ont même pas encore été inventés ". Sans aller jusqu’à supprimer l’école (quoique…), il faudrait sérieusement la repenser.

Designboom publie en prime les illustrations de ces emplois à inventer :

  • recycleur de décharges
  • conservateur de l’identité nationale
  • imprimeur de superstructures…

Avec l’explosion des assistants vocaux, on devrait aussi s’attendre à un boom des designers conversationnels. Etc.

Alors que les machines prennent en main certaines charges, d’autres activités apparaissent dans le champ du praticable et l’être humain s’invente data analyste, happy chief officer, growth hacker… Il faudrait supposer que notre imagination a des limites, avant de penser qu’un robot puisse incarner la fin du travail.

> Règle n°1 : continuons à créer nos métiers, à les inventer et les réinventer. Imaginons des nouvelles compétences, poussons plus loin encore la ligne de l’horizon.

2/ Se spécialiser

Nous évoluons donc dans un contexte de mutation permanente du marché du travail. On constate aujourd’hui une accélération des percées technologiques et un accroissement phénoménal des données créées et accessibles.

Comment appréhender ce rythme nouveau de l’innovation ? Comment faire évoluer ses compétences et rester dans la course ? D’abord, les évolutions technologiques appellent de plus en plus une spécialisation des métiers.

Par exemple, on n’est plus " écrivain " tout court, mais il existe aujourd’hui des écrivains :

  • de romans
  • de contenus digitaux
  • d’études et de travaux de recherche
  • de scénarios conversationnels…

Et chacun de ces métiers exige des compétences bien spécifiques. Il faut en permanence se perfectionner.

L’avenir appartient aux spécialistes. Vous ne confieriez pas aujourd’hui la rédaction de votre blog ou de votre lettre d’information digitale à un écrivain de romans. Ou alors les gens ne les liraient pas.

> Règle n°2 : perfectionnez-vous. Apprenez chaque jour à faire votre travail encore mieux, comme Jiro, le maître sushi. La quête de la perfection du geste relève bien de l’humain, trop humain.

3/… mais savoir s’adapter aussi

En revanche, il n’est pas impossible de devenir écrivain de contenus digitaux après avoir écrit des romans, et se reconvertir ensuite en auteur de scénarios conversationnels pour les IA. Tout est question de formation et d’adaptabilité individuelle.

Fini l’âge des jobs à vie. Nous exercerons tous plusieurs métiers au cours de notre vie professionnelle (ou, sinon, nous risquons belle et bien de finir au chômage ou remplacé par une machine). Il est indispensable de s’ouvrir à cette éventualité du changement et d'aiguiser notre agilité. Apprendre à apprendre est bien LA compétence du 21e siècle.

> Être comme un chat qui a neuf vies, se préparer à un avenir mouvant.... La règle n°3 serait d’embrasser le changement. Ou pour paraphraser Bruce Lee, be water, man !

Bon, maintenant imaginons que l’on est boulanger et qu’on souhaite devenir développeur. Concrètement, comment fait-on ?

4/ Se former, mais pas n’importe comment

Accompagner l’évolution professionnelle des individus par une offre de formation adaptée dans cet univers en mutation permanente est l’enjeu majeur. Parce que finalement, la menace de l’IA qui vole nos emplois révèle surtout une crise du marché de l’emploi, qui cache en fait une crise de la formation initiale.

Dans ce contexte de travail mouvant, cela a-t-il encore un sens de faire un master ? Un bac + 5 ? Des thèses ? Ce que nous étudions en première année devient obsolète en cinquième année.

La Wild Code School, comme d’autres écoles, a démontré qu’il est possible de devenir développeur en quelques mois, même sans aucun bagage dans l’informatique. Si c’est possible ici, c’est possible ailleurs.

> Règle n°4 : penser à des formations courtes et modulaires. Se former 5 mois avant d’exercer un métier, puis quelques années après, faire une nouvelle formation et à nouveau travailler.

En fait, ce n’est pas vraiment une trouvaille. Ceux qui dominent leur profession ne cessent jamais d’apprendre, de s’exercer et de mettre en pratique. Et il est certain que l’humain devance la machine, lorsqu’il cultive la compétence.

70 000 ans d’avance

Dans le machine learning, on passe beaucoup de temps à apprendre à une machine à faire une seule chose. Et l’apprentissage doit être validé par un être humain. L’IA ne peut faire que ce que son programme lui dicte de faire. Nous, nous pouvons nous réinventer, ouvrir un nouveau chapitre et écrire une nouvelle histoire.

Nous pouvons être enseignant, puis fonder une start-up. Nous pouvons étudier la littérature du 15e siècle et finalement, œuvrer sur le storytelling de grandes marques. Nous avons près de 70 000 ans d’avance sur l’intelligence artificielle. Et nous n’avons cessé de nous adapter et d’adapter notre environnement aux fruits de notre imagination.

Et, pour ce qui est des robots aspirateurs, pour le moment, les modèles performants sont encore coûteux, un peu bruyant, et pas capables de gérer des pièces en enfilades. Artificiel oui, mais intelligent… à voir.

Partager
Ne passez pas à côté de l'économie de demain, recevez tous les jours à 7H30 la newsletter de Maddyness.