Overblog Suivre ce blog
Administration Créer mon blog
28 février 2017 2 28 /02 /février /2017 22:35

Le croissance du marché des smartphones ralentit depuis quelque temps. Sauf pour Crosscall qui s'est bâti une solide réputation en réalisant des téléphones durcis qui résistent à l'eau, au sable, à la boue, au froid, aux chutes.

 

Fondée fin 2009 à Aix-en-Provence par Cyril Vidal, Crosscall doit son origine à la constatation qu'il n'existait aucun téléphone portable résistant à l'usage éprouvant des chantiers comme des sports de plein air. Les premiers téléphones sortent en 2011 et le chiffre d'affaires s'envole pour atteindre les 30 M€ en 2016 avec près de 80 employés. D'abord commercialisé par les points de vente d'équipements et fournitures pour le BTP, les téléphones de Crosscall ont été ensuite vendus par les grandes surfaces de l'électronique et du sport comme Decathlon et surtout le Vieux Campeur et maintenant par SFR, Orange et Bouygues.

 

Crosscall lève 4,5 M€ en avril 2016 auprès d'ACG Management suivi de 2 M€ auprès de BPI afin de financer son développement international, et signe un accord avec Xtreme Distribution lui donnant accès à 37 000 points de vente dans le monde.

 

La gamme des produits Crosscall comprend actuellement une dizaine de téléphone d'un petit téléphone étanche avec double carte SIM à 60 € au smartphone 4G à écran de 4,5 pouces à 400 €. Il semble que la concurrence internationale actuelle de Crosscall soit le fait d'un tout petit nombre d'acteurs de taille similaire. Si Crosscall continue de tenir ses promesses de performance, de qualité et d'innovation, elle pourrait acquérir rapidement une position de leader, un peu comme GoPro l'a réussi en peu d'années. Mais attention : plus la position est élevée, plus la clientèle est exigeante.

Repost 0
Published by Le Gargaillou - dans Entreprises
commenter cet article
26 février 2017 7 26 /02 /février /2017 20:53

Au dernier CES de Las Vegas, la jeune pousse lyonnaise Twinswheel fondée en 2016 par Vincent et Benjamin Talon, deux frères jumeaux, à Saint-Genis-Laval, près de Lyon, a présenté son robot de livraison en milieu urbain. Ce n'est encore qu'un prototype, mais il semble avoir eu un grand succès.

 

En développement depuis 3 ans, par une équipe aguerrie d'automaticiens, ce robot appelé droïde, serait mis sur le marché dès 2020. Il parait que de nombreux groupes dont Daimler, s'affairent sur des projets similaires. Le marché est effectivement gigantesque, plusieurs milliards de colis sont ainsi livrés par an et cela ne fait que s'amplifier ; en milieu urbain, les drones d'Amazon ne sont pas vraiment utilisables et depuis longtemps, on incite les clients à aller chercher leurs colis à un dépôt, ce qui ne leur plait pas forcément, surtout quand le colis est un peu lourd. Et chacun se doute que la livraison personnalisée sur le dernier kilomètre est très coûteuse.

 

Le robot est conçu pour transporter un seul colis de 40kg maximum. Le robot lui-même ne pèse que 35kg et est haut de 70cm. Il roule jusqu'à 30km sur route (plus vite qu'un vélo) et à 6km/h sur les trottoirs, ralentissant à 2km/h quand son parcours est encombré. Il est bardé de capteurs, d'une caméra 3D, 4 caméras 2D et d'un lidar, un laser dédié à la détection des obstacles.

 

La jeune pousse est accompagnée par des groupes comme le division GeoPost de La Poste et Boulanger. Elle est actuellement hébergée par l'incubateur de l'EMLyon.

Par contre, au-delà des annonces produit faites à l'occasion du CES, on ne sait pratiquement rien sur la stratégie de développement, ses ressources financières. Est-elle en fait déjà une filiale de La Poste ?

 

Et pourtant, l'enjeu est très important et l'implication d'investisseurs bien connectés mondialement, notamment sur le marché américain apparait nécessaire pour que cette jeune pousse ait un vrai futur.

 

Repost 0
Published by Le Gargaillou - dans Entreprises
commenter cet article
31 janvier 2017 2 31 /01 /janvier /2017 22:23

La France se trouve dans le trio de tête des nations les plus innovantes mais que cela signifie t'il ? En effet, depuis quelques années, Clarivate Analytics classe la France sur le podium des nations les plus innovantes. Naturellement tout le monde, media et politiques notamment se réjouit de ce beau résultat. Mais on peut se demander à quoi cela correspond quand la croissance se traîne à 1,1% comme cela vient d'être annoncé par l'INSEE pour 2016.

Repost 0
Published by Le Gargaillou - dans Points de vue
commenter cet article
31 janvier 2017 2 31 /01 /janvier /2017 22:08

Au dernier CES de Las Vegas, la jeune pousse lyonnaise Twinswheel a présenté son robot de livraison en milieu urbain. Ce n'est encore qu'un prototype, mais il semble avoir eu un grand succès.

Repost 0
Published by Le Gargaillou - dans Entreprises
commenter cet article
31 décembre 2016 6 31 /12 /décembre /2016 10:57

Galileo a été mis en service le 15 décembre 2016 avec le démarrage de ses premières fonctions. Ce système européen de localisation doit être pleinement opérationnel dans 4 ans, en 2020, quand l'ensemble de ses 30 satellites aura été mis sur orbite.

 

Le programme Galileo a été lancé en 1999, piloté conjointement par la Commission Européenne et l'Agence Spatiale Européenne, donc sous une gestion civile. Jusqu'à maintenant, le GPS américain développé et contrôlé par le DOD, Département de la Défense, et lancé en 1995, s'était imposé sur le marché de la localisation et des aides à la navigation. Le GPS a été initié dans les années 70 afin de permettre aux sous-marins atomiques américains de se positionner avec précision après de longues navigations en plongée. Egalement contrôlés par les militaires, le Glonass russe lancé en 1996, est devenu opérationnel en 2011, après une interruption due à la baisse des budgets, et le BeiDou/Compass chinois, d'abord déployé en 2000 pour couvrir la Chine seule, est en cours de mise en place pour une couverture mondiale. Galileo arrive donc sur un marché certes en plein développement, mais face à des concurrents aux objectifs stratégiques certains et aux poches profondes.

 

Le GPS au départ limité à une précision de 100m pour les usages civils et gratuits, a été libéré par les américains en 2000 avec une précision de 10m. De nouveaux satellites GPS sont en cours de lancement, dotés des dernières technologies, notamment des horloges atomiques plus précises, améliorant à terme la précision de la localisation.

Ainsi dans les années 2020 très proches, nous allons nous trouver en présence de 4 systèmes de navigation mondiaux concurrents aux performances similaires.

 

Ce sera certainement pour le plus grand bénéfice des utilisateurs. En particulier, un accord a été conclu pour que le GPS et Galileo soient interopérables et dès maintenant, de nombreux smartphones sont équipés de puces hybrides compatibles avec les 2 systèmes. Et les fournisseurs de composants ne manqueront pas de proposer de nouvelles puces communiquant avec le 4 systèmes, le marché des smartphones, des véhicules autonomes et de l'Internet des objets – potentiellement grands utilisateurs, étant lui aussi mondial. Ainsi, si un système est défaillant, les autres seront là pour assurer la continuité de la navigation et de la localisation. Il est probable que la combinaison des localisations obtenues avec les différents systèmes permettra d'obtenir une meilleure précision et une plus grande fiabilité dans les environnements perturbés et dans les espaces encaissés ou entourés de murs élevés.

 

Les avantages de Galileo

 

Selon ses promoteurs, Galileo a certainement de nombreux avantages techniques et services : une précision de l'ordre du mètre pour le service gratuit, ouvert au public, contre 10m pour le GPS actuel ; une offre payante destinée aux industriels avec une précision de l'ordre du centimètre ; la fourniture de l'heure et date avec une très grande précision ; l'authentification des signaux garantissant que les signaux reçus sont d'origine Galileo ; la localisation des avions et navires en détresse en complément du réseau de satellites Cospas Sarsat.

 

Cependant, le principal avantage de Galileo, celui qui a conduit à la décision de lancer le programme, est d'ordre stratégique, non militaire comme le sont, au moins initialement les 3 concurrents, mais économique et industriel. Cela est cohérent avec la volonté européenne, entraînée surtout par la France, l'Allemagne et l'Italie, de développer ensemble des programmes aéronautiques et spatiaux depuis des décennies. Il a de remarquable que, lancé il y a près de 20 ans, il s'avère correspondre à des applications en plein développement et au potentiel extraordinaire que sont notamment la téléphonie mobile, l'Internet de objets, la voiture autonome. Et à l'évidence, il est très important pour améliorer la compétitivité et dynamiser l'innovation de l'industrie européenne dans ces domaines d'application, de pouvoir collaborer avec un ecosystème ouvert et intégré à l'Europe : l'agence de la navigation par satellite européenne (GSA), basée à Prague qui démarrera en 2017 l'exploitation de Galileo, les entreprises partenaires du projet : le constructeur des satellites OHB-System (Münich) associé au britannique SSTL, l'ingénierie système de Thalès Alenia Space (coentreprise franco-italienne), les horloges atomiques de SpectraTime, filiale suisse du groupe français Orolia, l'exploitation des 20 bases terrestres de surveillance du système par Spaceopal (coentreprise DLR-Telespazio), les lanceurs d'Arianespace. Selon la commission européenne, une mission majeure de l'agence GSA sera de faire évoluer Galileo en fonction des besoins du marché civil. On peut imaginer que cette offre ne s'adresse pas seulement au marché européen mais aussi au reste du monde.

 

Ce projet ambitieux a subi quelques retards, notamment parce qu'il est ambitieux et que les budgets européens civils sont certainement plus contraints. Mais il est maintenant "sur orbite", constituant une nouvelle preuve que les Européens ensemble forment une équipe très performante. Au lieu de prendre l'Europe comme bouc émissaire, nos politiques seraient bien venus de citer ce programme comme exemple de ce que l'Europe nous apporte.

 

 

 

 

 

 

 

 

Repost 0
Published by Le Gargaillou - dans Entreprises
commenter cet article
29 décembre 2016 4 29 /12 /décembre /2016 17:38

Après 15 ans de recherche, l'Institut de la vision de l'Université Pierre et Marie Curie (UPMC, dite aussi Paris 6) et d'autres centres en Europe, notamment l’Austrian Institute of Technology (AIT), ont conçu des capteurs imitant l'oeil humain ; ces capteurs constituent une des briques essentielles de la technologie de Pixium Vision, qui ambitionne de rendre la vue aux non-voyants souffrant de certaines pathologies (notamment DMLA) ; et en 2014, les chercheurs de l'Institut, Christoph Posch et Ryad Benosman associés avec Luca Verre, ingénieur de Centrale Lyon et MS du Politecnico di Milano, ont fondé Chronocam avec pour objectif de poursuivre le développement de ces capteurs en vue d'autres applications avec un capital initial de 750 000 euros auprès de business angels. Une nouvelle levée de 750 000 € a été réalisée en 2015 auprès de Robert Bosch Venture Capital et CEA Investissement.

 

La technologie – dénommée CCAM (Eye)oT, devenant opérationnelle, Chronocam a su intéresser un panel d'investisseurs de premier ordre en octobre 2016 et lever 15M$ auprès d'Intel Capital (pilote de la levée de fonds), Robert Bosch Venture Capital, iBionex GmbH, 360 Capital, CEA Investissement et le Groupe Renault. Cette levée de fonds a pour but premier d'accélérer le développement de la technologie. En plus d'investir dans la jeune pousse, Renault-Nissan vient de signer un accord de partenariat avec Chronocam ayant en ligne de mire : la mise au point de la voiture autonome et de systèmes très performants d'assistance à la conduite.

 

En quoi les capteurs de Chronocam sont-ils différents ?

 

Depuis son origine, la photographie s'attache à la reproduction de tous les événements dans le champ d'un objectif, et toutes les technologies qui en sont issues, films, video, caméras numériques, systèmes de traitement d'images, etc. procèdent du même principe : tous les points (pixels) d'une image sont enregistrés de la même manière. Malgré des performances en hausse permanente, les résultats sont imparfaits et les enregistrements sont loin d'être optimisés. En effet, on comprendra par exemple, qu'une caméra classique enregistrant ce qui défile devant un véhicule en marche captera de la même manière le ciel, le paysage et le revêtement de la route qui varient très peu et les véhicules que l'on croise, les obstacles qui peuvent surgir, les panneaux de signalisation, etc. dont l'image change rapidement. On obtiendra souvent une image floue et imprécise des éléments changeant rapidement alors que le ciel, le paysage et le revêtement sont clairs et bien définis. Ce résultat est à l'opposé de ce qui serait souhaitable : les éléments changeant rapidement sont évidemment de première importance pour la conduite du véhicule, les éléments variant peu demandant eux une surveillance réduite.

 

Au contraire, les capteurs de Chronocam sont conçus de sorte que chaque pixel réagit de façon indépendante aux variations de lumière et de couleur reçues et transmet un flux d'information correspondant à ces variations : ainsi un pixel face au ciel ou au paysage ne transmettra que très peu d'information alors qu'un pixel face à un obstacle enverra un flux important. Le traitement de ces données par les algorithmes développés par Chronocam permet de réaliser des images où les éléments fugitifs seront aussi clairs et précis que les éléments figés.

Ceci se combine avec plusieurs avantages majeurs : le flux global d'informations provenant d'un capteur Chronocam sera bien inférieur à celui d'un capteur classique, ce qui économisera de la puissance processeur et de la mémoire et la consommation d'énergie sera elle aussi plus faible. A l'opposé des systèmes de traitement d'image classique qui analysent des images entières – donc d'énormes volumes de données, pour en retirer des événements isolés et dynamiques, le capteur Chronocam fournira directement des informations précises sur ces événements isolés et dynamiques, sans noyer le système de traitement avec des informations redondantes sur les événements statiques.

 

En fait, l'oeil humain et par extension de tout animal, fonctionne de la même manière que le capteur de Chronocam : chacun observera que son oeil est d'abord attiré par ce qui bouge, ce qui change, laissant de côté ce qui n'est pas modifié dans son champ de vision. C'est particulièrement important et ressenti lorsque l'on conduit un véhicule : nous sommes toujours aux aguets pour détecter ce qui pourrait être un obstacle, notre attention laissant de côté le ciel et le paysage qui défilent.

Ce type de capteur imitant l'oeil humain et le système nerveux a été appelé neuromorphique.

 

Des performances inégalées

 

Selon Chronocam, son capteur présente des caractéristiques de son capteur dépassent très largement celles qu'on peut trouver associées dans un seul produit : une vitesse d’acquisition équivalente à 100 000 images/s), une gamme dynamique >120 dB, un fort taux de compression au niveau du capteur lui-même (100x) et une faible consommation (<10 mW).

Cela devrait lui ouvrir un boulevard dans une multitude d'applications où les performances combinées à la faible consommation seront très appréciées : bien sûr les véhicules autonomes comme Renault-Nissan et Bosch l'ont identifié, tout système de navigation automatique – que cela soit dans l'air, sur mer ou sur terre, la robotique industrielle et domestique, tous les domaines du contrôle et de la surveillance. On peut certainement imaginer que les pixels soient sélectifs en termes des gammes d'ondes électromagnétiques reçues : infrarouge, lumière visible, ultraviolet, etc.

 

Quelle ambition ?

 

Chronocam prévoit de passer de 25 employés à 50 d'ici un an, et de s'installer en 2017 en Californie. L'objectif serait d'atteindre en 2020 un chiffre d'affaires de plusieurs millions d'euros avec 150-200 personnes.

On aimerait en savoir plus, cette technologie offrant une telle rupture. Ce qui est très positif est que lors de la levée de fonds, elle a su s'appuyer sur des acteurs solides : Bosch, Renault-Nissan et Intel qui sont capables d'investir avec une vision long terme. Ils ne seront pas tenus de revendre leur participation à brève échéance. Et ils auront la capacité de poursuivre les investissements nécessaires pour un développement plus ambitieux que ce qui a été annoncé à ce jour.

 

 

Repost 0
Published by Le Gargaillou - dans Entreprises
commenter cet article
30 novembre 2016 3 30 /11 /novembre /2016 22:39

Nokia est une vieille compagnie finlandaise qui a su se métamorphoser il y a 20 ans en quittant l'industrie ancestrale du bois pour les nouvelles technologies

Repost 0
Published by Le Gargaillou - dans Entreprises
commenter cet article
30 novembre 2016 3 30 /11 /novembre /2016 22:14

Ces dernières temps, les économistes français se sont penchés sur la compétitivité de la France, pour tenter de la caractériser et éventuellement proposer des solutions pour l'améliorer.

On trouve notamment chez Natixis des analyses comparatives avec d'autres pays sur les 10 dernières années.  

Repost 0
Published by Le Gargaillou - dans Points de vue
commenter cet article
31 octobre 2016 1 31 /10 /octobre /2016 21:43

Depuis plus d'un an, Navya a lancé l'Arma, un petit bus sans chauffeur pour 15 passagers, conçu pour circuler à 45km/h sur des sites privés. Créée en juin 2014 à Villeurbanne par Christophe Sapet, Navya bénéficie de plus de 10 ans de recherche en robotique, effectués par la société Induct.

 

Christophe Sapet diplômé de l'EMLyon et de Sup Chimie de Paris, est un entrepreneur expérimenté, qui a fondé l'éditeur de jeu video Infogrames en 1983 avec Bruno Bonnell, et le fournisseur d'accès Internet Infonie en 1995. Il a constitué une équipe d'une vingtaine d'ingénieurs et d'informaticiens qui développent les logiciels qui pilotent les navettes autonomes. Les systèmes de guidage des navettes font appel à plusieurs technologies : Lidars, caméras stéréovision, GPS RTK, IMU et odométrie. Un contrôle centralisé de ses déplacements est assuré à distance.

 

Navya fonde sa stratégie sur la vision d'infrastructures de transport non polluants dont le coût opérationnel serait réduit grâce à l'absence de chauffeur. Ainsi, ils pourraient accéder à des zones actuellement mal desservies et être disponibles 24h/24.

 

A son lancement, Navya était accompagnée par le fond d’investissement Robolution Capital, dont l'initiateur est Bruno Bonnell, CapDecisif Management avec le Fonds FRCI (Fonds Régional de Co-investissement de la Région Ile de France), le holding d’investissement Gravitation, un groupement de Business Angels ainsi que les salariés de l’entreprise.

Repost 0
Published by Le Gargaillou - dans Entreprises
17 octobre 2016 1 17 /10 /octobre /2016 07:14

Un décret vient d'être publié par le ministère du logement (et non par celui de l'environnement comme l'a indiqué la presse), relatif aux travaux d’isolation en cas de travaux de ravalement de façade, de réfection de toiture ou d’aménagement de locaux en vue de les rendre habitables.

Ce décret a soulevé un tollé de la part des associations et des architectes. Il souffre sans doute d'imprécision.

Il précise que "Les travaux de ravalement concernés sont des travaux comprenant la réfection de l’enduit existant, le remplacement d’un parement existant ou la mise en place d’un nouveau parement, concernant au moins 50% d’une façade du bâtiment, hors ouvertures"

 

Je laisserai aux experts le soin de déterminer ce qu'il faut entendre par enduit. Mais il me semble que s'agissant par exemple des immeubles en pierre de taille et en pierre meulière, un ravalement est généralement une opération de nettoyage : il n'y a pas vraiment de réfection d'un enduit ; de même, un immeuble en béton revêtu de parements en pierre agrafé ou en vitrage ne devrait pas être concerné.

 

L'objectif de cette législation est louable : contribuer à la transition énergétique, améliorer l'efficacité énergétique des bâtiments existants. Mais on s'attaque à une question éminemment complexe compte tenu de la diversité des modes de construction et de qualité des bâtiments. A l'évidence, le décret étant très bref et imprécis, cela conduira à de nombreuses contestations.

Ce qui est à anticiper, en vue d'éliminer ces contestations, comme c'est l'habitude dans l'univers réglementaire français, c'est que l'on se lance dans un délire de réglementations et de normes qui s'attacheront à traiter tous les cas.

 

Pourquoi seulement l'isolation extérieure ?

 

On peut se demander pourquoi seule l'isolation extérieure serait acceptable, comme le laissent penser les protestataires. Pourtant, il existe des solutions d'isolation intérieure performantes et peu épaisses qui n'affectent pas l'apparence des bâtiments. Ainsi, les panneaux isolants sous vide (PIV) offrent des performances très intéressantes : 1 cm d'épaisseur équivaut à 9 cm de laine de verre.

 

Une solution adaptée pour l'isolation tant intérieure qu'extérieure : Super Therm

 

Ce produit peu connu en France a été développé par la NASA et est largement commercialisé en Amérique du Nord. Il se présente comme une peinture, facile à mettre en oeuvre et pouvant être coloré à volonté.

Constitué de particules en céramique, il agit comme une barrière quasiment étanche au rayonnement infra-rouge. Sa mise en oeuvre en 2 couches procure une isolation équivalente à 10 cm de laine de verre. Ce qui ne gâte rien, il possède aussi de bonnes performances en isolation phonique.

 

Lors du ravalement de notre maison située dans la vallée de l'Ubaye, dans les Alpes du Sud, Super Therm a été mis en oeuvre par une entreprise de peinture locale, sans souci particulier avec une pigmentation couleur pierre, sur le crépi existant, qui n'a pas changé d'aspect.

Les premiers résultats sont remarquables : alors qu'il fallait auparavant 2 ou 3 jours pour chauffer la maison, lors de notre arrivée en plein hiver, la température est montée l'hiver dernier de –5 à 18ºC en une nuit de chauffage. Et les premiers pointages de consommation de fioul font apparaître une division par 2 sur une année entière.

Il semble que Super Therm donne aussi de bons résultats en revêtement intérieur de parois humides et froides.

 

On tient là un produit qui semble encore unique, facile à mettre en oeuvre tant par les peintres professionnels que amateurs et d'un coût relativement abordable : environ 10 fois le coût des peintures acryliques ordinaires.

Une simple recherche sur Internet permettra à un lecteur intéressé d'en savoir plus.

 

 

 

 

 

Repost 0
Published by Le Gargaillou - dans En Ubaye
commenter cet article