Overblog Suivre ce blog
Administration Créer mon blog
31 janvier 2017 2 31 /01 /janvier /2017 22:23

Depuis quelques années, Clarivate Analytics classe la France sur le podium des nations les plus innovantes. Naturellement tout le monde, media et politiques notamment se réjouit de ce beau résultat. Mais on peut se demander à quoi cela sert-il quand la croissance se traîne à 1,1% comme cela vient d'être annoncé par l'INSEE pour 2016.

Repost 0
Published by Le Gargaillou - dans Points de vue
commenter cet article
31 janvier 2017 2 31 /01 /janvier /2017 22:08

Au dernier CES de Las Vegas, la jeune pousse lyonnaise Twinswheel a présenté son robot de livraison en milieu urbain. Ce n'est encore qu'un prototype, mais il semble avoir eu un grand succès.

Repost 0
Published by Le Gargaillou - dans Entreprises
commenter cet article
31 décembre 2016 6 31 /12 /décembre /2016 10:57

Galileo a été mis en service le 15 décembre 2016 avec le démarrage de ses premières fonctions. Ce système européen de localisation doit être pleinement opérationnel dans 4 ans, en 2020, quand l'ensemble de ses 30 satellites aura été mis sur orbite.

 

Le programme Galileo a été lancé en 1999, piloté conjointement par la Commission Européenne et l'Agence Spatiale Européenne, donc sous une gestion civile. Jusqu'à maintenant, le GPS américain développé et contrôlé par le DOD, Département de la Défense, et lancé en 1995, s'était imposé sur le marché de la localisation et des aides à la navigation. Le GPS a été initié dans les années 70 afin de permettre aux sous-marins atomiques américains de se positionner avec précision après de longues navigations en plongée. Egalement contrôlés par les militaires, le Glonass russe lancé en 1996, est devenu opérationnel en 2011, après une interruption due à la baisse des budgets, et le BeiDou/Compass chinois, d'abord déployé en 2000 pour couvrir la Chine seule, est en cours de mise en place pour une couverture mondiale. Galileo arrive donc sur un marché certes en plein développement, mais face à des concurrents aux objectifs stratégiques certains et aux poches profondes.

 

Le GPS au départ limité à une précision de 100m pour les usages civils et gratuits, a été libéré par les américains en 2000 avec une précision de 10m. De nouveaux satellites GPS sont en cours de lancement, dotés des dernières technologies, notamment des horloges atomiques plus précises, améliorant à terme la précision de la localisation.

Ainsi dans les années 2020 très proches, nous allons nous trouver en présence de 4 systèmes de navigation mondiaux concurrents aux performances similaires.

 

Ce sera certainement pour le plus grand bénéfice des utilisateurs. En particulier, un accord a été conclu pour que le GPS et Galileo soient interopérables et dès maintenant, de nombreux smartphones sont équipés de puces hybrides compatibles avec les 2 systèmes. Et les fournisseurs de composants ne manqueront pas de proposer de nouvelles puces communiquant avec le 4 systèmes, le marché des smartphones, des véhicules autonomes et de l'Internet des objets – potentiellement grands utilisateurs, étant lui aussi mondial. Ainsi, si un système est défaillant, les autres seront là pour assurer la continuité de la navigation et de la localisation. Il est probable que la combinaison des localisations obtenues avec les différents systèmes permettra d'obtenir une meilleure précision et une plus grande fiabilité dans les environnements perturbés et dans les espaces encaissés ou entourés de murs élevés.

 

Les avantages de Galileo

 

Selon ses promoteurs, Galileo a certainement de nombreux avantages techniques et services : une précision de l'ordre du mètre pour le service gratuit, ouvert au public, contre 10m pour le GPS actuel ; une offre payante destinée aux industriels avec une précision de l'ordre du centimètre ; la fourniture de l'heure et date avec une très grande précision ; l'authentification des signaux garantissant que les signaux reçus sont d'origine Galileo ; la localisation des avions et navires en détresse en complément du réseau de satellites Cospas Sarsat.

 

Cependant, le principal avantage de Galileo, celui qui a conduit à la décision de lancer le programme, est d'ordre stratégique, non militaire comme le sont, au moins initialement les 3 concurrents, mais économique et industriel. Cela est cohérent avec la volonté européenne, entraînée surtout par la France, l'Allemagne et l'Italie, de développer ensemble des programmes aéronautiques et spatiaux depuis des décennies. Il a de remarquable que, lancé il y a près de 20 ans, il s'avère correspondre à des applications en plein développement et au potentiel extraordinaire que sont notamment la téléphonie mobile, l'Internet de objets, la voiture autonome. Et à l'évidence, il est très important pour améliorer la compétitivité et dynamiser l'innovation de l'industrie européenne dans ces domaines d'application, de pouvoir collaborer avec un ecosystème ouvert et intégré à l'Europe : l'agence de la navigation par satellite européenne (GSA), basée à Prague qui démarrera en 2017 l'exploitation de Galileo, les entreprises partenaires du projet : le constructeur des satellites OHB-System (Münich) associé au britannique SSTL, l'ingénierie système de Thalès Alenia Space (coentreprise franco-italienne), les horloges atomiques de SpectraTime, filiale suisse du groupe français Orolia, l'exploitation des 20 bases terrestres de surveillance du système par Spaceopal (coentreprise DLR-Telespazio), les lanceurs d'Arianespace. Selon la commission européenne, une mission majeure de l'agence GSA sera de faire évoluer Galileo en fonction des besoins du marché civil. On peut imaginer que cette offre ne s'adresse pas seulement au marché européen mais aussi au reste du monde.

 

Ce projet ambitieux a subi quelques retards, notamment parce qu'il est ambitieux et que les budgets européens civils sont certainement plus contraints. Mais il est maintenant "sur orbite", constituant une nouvelle preuve que les Européens ensemble forment une équipe très performante. Au lieu de prendre l'Europe comme bouc émissaire, nos politiques seraient bien venus de citer ce programme comme exemple de ce que l'Europe nous apporte.

 

 

 

 

 

 

 

 

Repost 0
Published by Le Gargaillou - dans Entreprises
commenter cet article
29 décembre 2016 4 29 /12 /décembre /2016 17:38

Après 15 ans de recherche, l'Institut de la vision de l'Université Pierre et Marie Curie (UPMC, dite aussi Paris 6) et d'autres centres en Europe, notamment l’Austrian Institute of Technology (AIT), ont conçu des capteurs imitant l'oeil humain ; ces capteurs constituent une des briques essentielles de la technologie de Pixium Vision, qui ambitionne de rendre la vue aux non-voyants souffrant de certaines pathologies (notamment DMLA) ; et en 2014, les chercheurs de l'Institut, Christoph Posch et Ryad Benosman associés avec Luca Verre, ingénieur de Centrale Lyon et MS du Politecnico di Milano, ont fondé Chronocam avec pour objectif de poursuivre le développement de ces capteurs en vue d'autres applications avec un capital initial de 750 000 euros auprès de business angels. Une nouvelle levée de 750 000 € a été réalisée en 2015 auprès de Robert Bosch Venture Capital et CEA Investissement.

 

La technologie – dénommée CCAM (Eye)oT, devenant opérationnelle, Chronocam a su intéresser un panel d'investisseurs de premier ordre en octobre 2016 et lever 15M$ auprès d'Intel Capital (pilote de la levée de fonds), Robert Bosch Venture Capital, iBionex GmbH, 360 Capital, CEA Investissement et le Groupe Renault. Cette levée de fonds a pour but premier d'accélérer le développement de la technologie. En plus d'investir dans la jeune pousse, Renault-Nissan vient de signer un accord de partenariat avec Chronocam ayant en ligne de mire : la mise au point de la voiture autonome et de systèmes très performants d'assistance à la conduite.

 

En quoi les capteurs de Chronocam sont-ils différents ?

 

Depuis son origine, la photographie s'attache à la reproduction de tous les événements dans le champ d'un objectif, et toutes les technologies qui en sont issues, films, video, caméras numériques, systèmes de traitement d'images, etc. procèdent du même principe : tous les points (pixels) d'une image sont enregistrés de la même manière. Malgré des performances en hausse permanente, les résultats sont imparfaits et les enregistrements sont loin d'être optimisés. En effet, on comprendra par exemple, qu'une caméra classique enregistrant ce qui défile devant un véhicule en marche captera de la même manière le ciel, le paysage et le revêtement de la route qui varient très peu et les véhicules que l'on croise, les obstacles qui peuvent surgir, les panneaux de signalisation, etc. dont l'image change rapidement. On obtiendra souvent une image floue et imprécise des éléments changeant rapidement alors que le ciel, le paysage et le revêtement sont clairs et bien définis. Ce résultat est à l'opposé de ce qui serait souhaitable : les éléments changeant rapidement sont évidemment de première importance pour la conduite du véhicule, les éléments variant peu demandant eux une surveillance réduite.

 

Au contraire, les capteurs de Chronocam sont conçus de sorte que chaque pixel réagit de façon indépendante aux variations de lumière et de couleur reçues et transmet un flux d'information correspondant à ces variations : ainsi un pixel face au ciel ou au paysage ne transmettra que très peu d'information alors qu'un pixel face à un obstacle enverra un flux important. Le traitement de ces données par les algorithmes développés par Chronocam permet de réaliser des images où les éléments fugitifs seront aussi clairs et précis que les éléments figés.

Ceci se combine avec plusieurs avantages majeurs : le flux global d'informations provenant d'un capteur Chronocam sera bien inférieur à celui d'un capteur classique, ce qui économisera de la puissance processeur et de la mémoire et la consommation d'énergie sera elle aussi plus faible. A l'opposé des systèmes de traitement d'image classique qui analysent des images entières – donc d'énormes volumes de données, pour en retirer des événements isolés et dynamiques, le capteur Chronocam fournira directement des informations précises sur ces événements isolés et dynamiques, sans noyer le système de traitement avec des informations redondantes sur les événements statiques.

 

En fait, l'oeil humain et par extension de tout animal, fonctionne de la même manière que le capteur de Chronocam : chacun observera que son oeil est d'abord attiré par ce qui bouge, ce qui change, laissant de côté ce qui n'est pas modifié dans son champ de vision. C'est particulièrement important et ressenti lorsque l'on conduit un véhicule : nous sommes toujours aux aguets pour détecter ce qui pourrait être un obstacle, notre attention laissant de côté le ciel et le paysage qui défilent.

Ce type de capteur imitant l'oeil humain et le système nerveux a été appelé neuromorphique.

 

Des performances inégalées

 

Selon Chronocam, son capteur présente des caractéristiques de son capteur dépassent très largement celles qu'on peut trouver associées dans un seul produit : une vitesse d’acquisition équivalente à 100 000 images/s), une gamme dynamique >120 dB, un fort taux de compression au niveau du capteur lui-même (100x) et une faible consommation (<10 mW).

Cela devrait lui ouvrir un boulevard dans une multitude d'applications où les performances combinées à la faible consommation seront très appréciées : bien sûr les véhicules autonomes comme Renault-Nissan et Bosch l'ont identifié, tout système de navigation automatique – que cela soit dans l'air, sur mer ou sur terre, la robotique industrielle et domestique, tous les domaines du contrôle et de la surveillance. On peut certainement imaginer que les pixels soient sélectifs en termes des gammes d'ondes électromagnétiques reçues : infrarouge, lumière visible, ultraviolet, etc.

 

Quelle ambition ?

 

Chronocam prévoit de passer de 25 employés à 50 d'ici un an, et de s'installer en 2017 en Californie. L'objectif serait d'atteindre en 2020 un chiffre d'affaires de plusieurs millions d'euros avec 150-200 personnes.

On aimerait en savoir plus, cette technologie offrant une telle rupture. Ce qui est très positif est que lors de la levée de fonds, elle a su s'appuyer sur des acteurs solides : Bosch, Renault-Nissan et Intel qui sont capables d'investir avec une vision long terme. Ils ne seront pas tenus de revendre leur participation à brève échéance. Et ils auront la capacité de poursuivre les investissements nécessaires pour un développement plus ambitieux que ce qui a été annoncé à ce jour.

 

 

Repost 0
Published by Le Gargaillou - dans Entreprises
commenter cet article
30 novembre 2016 3 30 /11 /novembre /2016 22:39

Nokia est une vieille compagnie finlandaise qui a su se métamorphoser il y a 20 ans en quittant l'industrie ancestrale du bois pour les nouvelles technologies

Repost 0
Published by Le Gargaillou - dans Entreprises
commenter cet article
30 novembre 2016 3 30 /11 /novembre /2016 22:14

Ces dernières temps, les économistes français se sont penchés sur la compétitivité de la France, pour tenter de la caractériser et éventuellement proposer des solutions pour l'améliorer.

On trouve notamment chez Natixis des analyses comparatives avec d'autres pays sur les 10 dernières années.  

Repost 0
Published by Le Gargaillou - dans Points de vue
commenter cet article
31 octobre 2016 1 31 /10 /octobre /2016 21:43

Depuis plus d'un an, Navya a lancé l'Arma, un petit bus sans chauffeur pour 15 passagers, conçu pour circuler à 45km/h sur des sites privés. Créée en juin 2014 à Villeurbanne par Christophe Sapet, Navya bénéficie de plus de 10 ans de recherche en robotique, effectués par la société Induct.

 

Christophe Sapet diplômé de l'EMLyon et de Sup Chimie de Paris, est un entrepreneur expérimenté, qui a fondé l'éditeur de jeu video Infogrames en 1983 avec Bruno Bonnell, et le fournisseur d'accès Internet Infonie en 1995. Il a constitué une équipe d'une vingtaine d'ingénieurs et d'informaticiens qui développent les logiciels qui pilotent les navettes autonomes. Les systèmes de guidage des navettes font appel à plusieurs technologies : Lidars, caméras stéréovision, GPS RTK, IMU et odométrie. Un contrôle centralisé de ses déplacements est assuré à distance.

 

Navya fonde sa stratégie sur la vision d'infrastructures de transport non polluants dont le coût opérationnel serait réduit grâce à l'absence de chauffeur. Ainsi, ils pourraient accéder à des zones actuellement mal desservies et être disponibles 24h/24.

 

A son lancement, Navya était accompagnée par le fond d’investissement Robolution Capital, dont l'initiateur est Bruno Bonnell, CapDecisif Management avec le Fonds FRCI (Fonds Régional de Co-investissement de la Région Ile de France), le holding d’investissement Gravitation, un groupement de Business Angels ainsi que les salariés de l’entreprise.

Repost 0
Published by Le Gargaillou - dans Entreprises
17 octobre 2016 1 17 /10 /octobre /2016 07:14

Un décret vient d'être publié par le ministère du logement (et non par celui de l'environnement comme l'a indiqué la presse), relatif aux travaux d’isolation en cas de travaux de ravalement de façade, de réfection de toiture ou d’aménagement de locaux en vue de les rendre habitables.

Ce décret a soulevé un tollé de la part des associations et des architectes. Il souffre sans doute d'imprécision.

Il précise que "Les travaux de ravalement concernés sont des travaux comprenant la réfection de l’enduit existant, le remplacement d’un parement existant ou la mise en place d’un nouveau parement, concernant au moins 50% d’une façade du bâtiment, hors ouvertures"

 

Je laisserai aux experts le soin de déterminer ce qu'il faut entendre par enduit. Mais il me semble que s'agissant par exemple des immeubles en pierre de taille et en pierre meulière, un ravalement est généralement une opération de nettoyage : il n'y a pas vraiment de réfection d'un enduit ; de même, un immeuble en béton revêtu de parements en pierre agrafé ou en vitrage ne devrait pas être concerné.

 

L'objectif de cette législation est louable : contribuer à la transition énergétique, améliorer l'efficacité énergétique des bâtiments existants. Mais on s'attaque à une question éminemment complexe compte tenu de la diversité des modes de construction et de qualité des bâtiments. A l'évidence, le décret étant très bref et imprécis, cela conduira à de nombreuses contestations.

Ce qui est à anticiper, en vue d'éliminer ces contestations, comme c'est l'habitude dans l'univers réglementaire français, c'est que l'on se lance dans un délire de réglementations et de normes qui s'attacheront à traiter tous les cas.

 

Pourquoi seulement l'isolation extérieure ?

 

On peut se demander pourquoi seule l'isolation extérieure serait acceptable, comme le laissent penser les protestataires. Pourtant, il existe des solutions d'isolation intérieure performantes et peu épaisses qui n'affectent pas l'apparence des bâtiments. Ainsi, les panneaux isolants sous vide (PIV) offrent des performances très intéressantes : 1 cm d'épaisseur équivaut à 9 cm de laine de verre.

 

Une solution adaptée pour l'isolation tant intérieure qu'extérieure : Superthem

 

Ce produit peu connu en France a été développé par la NASA et est largement commercialisé en Amérique du Nord. Il se présente comme une peinture, facile à mettre en oeuvre et pouvant être coloré à volonté.

Constitué de particules en céramique, il agit comme une barrière quasiment étanche au rayonnement infra-rouge. Sa mise en oeuvre en 2 couches procure une isolation équivalente à 10 cm de laine de verre. Ce qui ne gâte rien, il possède aussi de bonnes performances en isolation phonique.

 

Lors du ravalement de notre maison située dans la vallée de l'Ubaye, dans les Alpes du Sud, Supertherm a été mis en oeuvre par une entreprise de peinture locale, sans souci particulier avec une pigmentation couleur pierre, sur le crépi existant, qui n'a pas changé d'aspect.

Les premiers résultats sont remarquables : alors qu'il fallait auparavant 2 ou 3 jours pour chauffer la maison, lors de notre arrivée en plein hiver, la température est montée l'hiver dernier de –5 à 18ºC en une nuit de chauffage. Et les premiers pointages de consommation de fioul font apparaître une division par 2 sur une année entière.

Il semble que Supertherm donne aussi de bons résultats en revêtement intérieur de parois humides et froides.

 

On tient là un produit qui semble encore unique, facile à mettre en oeuvre tant par les peintres professionnels que amateurs et d'un coût relativement abordable : environ 10 fois le coût des peintures acryliques ordinaires.

Une simple recherche sur Internet permettra à un lecteur intéressé d'en savoir plus.

 

 

 

 

 

Repost 0
Published by Le Gargaillou - dans En Ubaye
commenter cet article
30 septembre 2016 5 30 /09 /septembre /2016 19:34

Créée à Lyon, en mai 2015 par Tanguy et Renaud Confavreux et Julien Maupetit, Startsquare ambitionne de faire se rencontrer des chercheurs et des entrepreneurs, pour mettre en valeur les technologies développées par les premiers avec le savoir-faire des seconds.

 

La cellule de valorisation du CNES lui a récemment confié la mise en ligne de 25 brevets. Depuis sa création, la plate-forme aurait enregistré 1100 utilisateurs : entrepreneurs, porteurs de projets, entreprises et structures publiques, 70 technologies à valoriser dont celles du CNES et une quarantaine de mises en relation.

A ce jour, grâce à cette plate-forme, deux jeunes pousses vont être créées dans le domaine de la santé : Heart24 et Nanocontainers.

 

Initiative bienvenue !

 

Cette initiative est certainement le bienvenue pour de nombreux acteurs de la sphère publique, qui s'inquiètent depuis longtemps de la faiblesse de la valorisation de la recherche publique, des nombreuses technologies qui restent dans les placards, sans industrialisation ni commercialisation.

 

Mais les questions auxquelles Startsquare est sûrement déjà confrontée, sont nombreuses : les technologies proposées ont-elles des applications commerciales, un marché ? le marché potentiel n'est-il pas trop petit pour justifier une industrialisation et une commercialisation ? ne sont-elles pas déjà dépassées par des technologies concurrentes ? l'industrialisation ne demande-t'elle pas des investissements majeurs ?

En un mot, ces technologies ont-elles été développées avec en ligne de mire la recherche de la satisfaction de besoins ?

 

Par ailleurs, quand des brevets ont été déposés, l'organisme public sera toujours friand d'en confier l'exploitation à une entreprise – start-up, PME, ETI ou grande entreprise, espérant en tirer de bonnes royalties qui pourraient financer de nouveaux travaux de recherche. Dans ce cas, au-del`à des questions d'industrialisation et de potentiel commercial, les difficultés sont de deux ordres :

- l'organisme public a t'il effectué les recherches d'antériorité suffisantes pour garantir la viabilité des brevets ?

- si un brevet est attaqué par un concurrent, c'est l'entreprise qui exploite le brevet qui devra se défendre ; une telle défense nécessite en moyenne un million de dollars. Ceci est évidemment hors de portée d'une start-up, qui se trouvera alors probablement poussée à la liquidation.

 

La clef de la valorisation de la recherche publique est en fait dans la collaboration très en amont entre les industriels et entrepreneurs avec les chercheurs, bien avant que la technologie soit "sur étagère". Et une étroite proximité entre la recherche fondamentale et la recherche appliquée comme le pratique par exemple les laboratoires de l'ESPCI. Mais cela demande souvent un bouleversement de la culture et des convictions des chercheurs.  

Repost 0
Published by Le Gargaillou - dans Entreprises
commenter cet article
28 septembre 2016 3 28 /09 /septembre /2016 20:11

A un moment où les media et les politiciens en campagne français ne cessent de nous répéter l'histoire de l'usine de Belfort qui construit des locomotives, sans crier gare, Alstom a annoncé lors de l'exposition européenne la plus importante – InnoTrans à Berlin (dont on ne parle pas en France) la sortie prochaine d'automotrices à hydrogène.

 

Ce projet est issu d'un accord de 2014 entre Alstom et les länder de Basse-Saxe, Rhénanie-du-Nord-Westphalie, Bade-Würtemberg, et l’Autorité des transports publics de Hesse, ayant pour objet la réalisation de trains à zéro émission pour les nombreuses lignes qui ne sont pas électrifiées (50% en Allemagne). Ces trains appelés Coradia iLint sont dérivés des rames régionales diesel Coradia Lint 54, construites à plus de 4000 exemplaires pour l'Allemagne sur le site de Salzgitter près de Hanovre. Le site d'Alstom Tarbes développe le coffre de traction dont le coeur est une pile à combustible.

 

Les performances du iLint seront semblables à celles du Lint 54 : 300 passagers dont 150 assis, 140 km/h et autonomie 600km. Sans donner plus de précisions, Alstom soutient que le iLint sera compétitif par rapport au diesel dans le cadre d'un cycle de vie de 30 ans ! Il est sûrement supposé que les coûts de maintenance du iLint seront plus faibles que ceux du diesel, compensant un coût de fabrication plus élevé.

 

Le système de motorisation à hydrogène

 

Un réservoir stockant l'hydrogène gazeux alimente une pile à combustible qui génère l'électricité nécessaire au moteur de traction et aux équipements du train, l'ensemble étant installé sur le toit du train ; le volume habitable dans les rames n'est ainsi pas affecté. En parallèle, des batteries au lithium de 200 kWh accumule l'excès d'électricité produite par la pile et l'électricité générée lors des freinages et à leur tour, fournissent un complément de puissance aux moteurs de traction lors des accélérations.

Il est certain que les inconvénients souvent reprochés à la motorisation à l'hydrogène : encombrement, difficultés de stockage de l'hydrogène, infrastructure d'approvisionnement, ont peu de poids dans le cas de la motorisation ferroviaire. L'approvisionnement en hydrogène peut ainsi s'effectuer dans les grandes gares d'où partent la majorité des trains.

 

Comment l'hydrogène est-il produit ?

 

Le point faible actuel majeur de la motorisation à hydrogène n'est bien sûr pas vraiment évoqué : la grande majorité de la production d'hydrogène est réalisée à partir du méthane et émet du CO2. Il reste à explorer et développer la production d'hydrogène à partir de la vapeur d'eau, notamment dans les centrales nucléaires de 3ème génération, avec l'avantage remarquable d'utiliser leur puissance aux heures creuses de demande. Quand ?

 

Et si Belfort se reconvertissait dans la construction de trains à hydrogène ?

 

Voilà une idée que ne semble pas venue à l'esprit fertile des énarques dans les couloirs de l'Elysée et de Bercy !   Les seules options dont on parle sont de relancer des productions amorties. Place à l'innovation qui diminuera l'effet de serre !

Pourquoi le ministère de l'Environnement ne lancerait-il pas la promotion des trains à hydrogène avec pour objectif à terme, l'abandon des locomotives diesel ? En parallèle, il serait tout à fait bénéfique de faciliter la R&D de solutions alternatives de production d'hydrogène. Cela serait un bon moyen de contribuer à la réalisation des objectifs du COP21.

Repost 0
Published by Le Gargaillou - dans Entreprises
commenter cet article