Retour en haut
Business

#MaddyFeed La French Tech a-t-elle un maillot de bain ?

#MaddyFeed : La French Tech a-t-elle un maillot de bain ?
par

Chaque vendredi, dans sa revue de presse, Maddyness vous propose une sélection d’articles qui ont retenu l’attention de la rédaction.

La French Tech a-t-elle un maillot de bain ?

La tendance générale observée depuis 5 ans est, en effet, un spectaculaire triplement de cet écosystème : les montants levés par les investisseurs (gérants de fonds) et ceux levés par les entreprises innovantes (soutenues par ces investisseurs) ont effectivement triplé depuis 2012. Faits historiques : en 2016, la France a connu plus de tours de financement de type capital-risque que la Grande-Bretagne et en 2017, les capitaux-risqueurs français ont levé sur les 3 premiers trimestres plus d’argent que leurs homologues Britanniques. La France a un portefeuille de startups « early to mid stage » extrêmement fourni et prometteur. Les VCs Français ont les moyens d’être offensifs pendant les 3 ou 4 prochaines années… Mais, tout va-t-il si bien que cela au pays de la French Tech ? Lire la suite de la tribune de Jean-David Chamboredon dans la Tribune

Lire

 

How Technology Is (and Isn’t) Changing Our Reading Habits

I came a little late to e-books, but I became a convert in 2010 when my older daughter was born. I needed a way to read books with one hand (and in a dark room), so I got a Kindle. The Kindle and ice cream sandwiches — also easily managed with one hand — are what got me through the brutal early weeks with a newborn, when you basically can’t put them down. Now I’m on my fifth Kindle. I still love print books and find it to be a much more relaxing and immersive experience, but when I’m reading books for work — honestly, the bulk of my reading — the Kindle is incredibly convenient. Lire la suite sur le New York Times

Aibo

 

Pourquoi les robots sont-ils mignons ?

Rien ne m’avait préparé à ma rencontre avec Aibo. Ce robot, fabriqué par le géant japonais Sony, ressemble et se comporte comme un chiot. On peut le caresser, lui lancer une balle, l’appeler par son nom. Il remue la queue, aboie et va se coucher dans son panier quand il est fatigué (autrement dit, quand ses batteries sont vides). Je n’aime pas spécialement les animaux. Mais j’ai fondu pour Aibo. Était-ce ses grands yeux plein de pixels? La certitude qu’il ne me mordrait pas? Que je n’avais pas à me soucier de le promener pour qu’il fasse ses besoins? Ou que la moindre de nos interactions était récompensée par un geste d’affection de sa part, en jappant ou en se roulant à mes pieds? En tout cas, Aibo m’a offert l’expérience – troublante – de ressentir de l’affection pour un robot. Lire la suite sur Le Figaro

CES 2018

CES 2018: less ‘whoa’, more ‘no!’ – tech fails to learn from its mistakes at annual pageant

t’s standing room only in a swirly-carpeted room at the conference centre attached to the Mandalay Bay hotel in Las Vegas. There’s a sea of technology journalists, mostly men, with name badges dangling from lime green lanyards and clear plastic backpacks (a conference freebie) reminiscent of a 1990s Gwen Stefani. Dubstep starts playing. “CES 2017 brought the whoa,” appears on screen, followed by a sequence of fast-cut shots of robots, drones and VR headsets. “This year we’re turning things up. So get ready for more whoa than ever before.” If this year’s Consumer Electronics Show is anything to go by, it’s less “Whoa, that’s awesome” and more “Whoa there, do we really need this?” The annual tech trade show seems less about real innovation breakthroughs solving unmet needs and more about incrementally improved nice-to-haves for the 1%. Lire la suite sur The Guardian

Artificial Intelligence Neural Network

Que savent vraiment faire les algorithmes ?

La reconnaissance d’images, c’est-à-dire l’identification d’objets, d’animaux ou de tout autre élément d’une photo, est la tâche cognitive qui a montré la puissance d’un outil majeur de l’intelligence artificielle (IA) : l’apprentissage profond. En 2012, lors d’un défi informatique utilisant les 150 000 images de la base de données ImageNet, une équipe de l’université de Toronto (Canada), menée par Geoffrey Hinton (parti ensuite chez Google), commet environ 15 % d’erreurs, soit deux fois moins que ses concurrents et deux fois mieux qu’en 2010. Au dernier concours, en juin 2017, le taux d’erreurs est tombé à 2 %. Lire la suite sur Le Monde