Overblog Suivre ce blog
Administration Créer mon blog
27 mars 2010 6 27 /03 /mars /2010 19:16

Commentant la crise grecque actuelle, Paul Klugman, prix Nobel d'économie 2008, qui signe des éditoriaux dans le New York Times depuis 1999, avance dans un de ses articles publié le 16 février 2010 (article repris par Courrier International) que l'Europe n'était pas prête pour une monnaie unique quand l'Euro a été adopté. La seule solution pour que l'Euro puisse fonctionner, serait de faire avancer l'Europe vers une Union politique, de sorte que les pays européens opèrent comme les Etats Unis d'Amérique. Le problème fondamental de l'Euro serait l'« hubris » – l'orgueil démesuré, des dirigeants européens qui ont créé cette monnaie unique alors qu'ils savaient que l'Europe n'était pas prête.

 

Paul Klugman n'a cependant pas perçu que la manière dont l'Euro a été créé correspond tout à fait à toutes les créations européennes antérieures : une démarche pas à pas, pragmatique et progressive, telle que l'a conçu Jean Monnet et les autres pères fondateurs. Cette démarche a commencé avec la Communauté du charbon et de l'acier à six créée le 18 avril 1951, puis le Traité de Rome du 25 mars 1957, ensuite les élargissements successifs, le traité de Maastricht de 1992 et tout dernièrement le traité de Lisbonne entré en vigueur le 1er décembre 2009. Chaque fois, la communauté s'est approfondie ou s'est élargie, les nouveaux entrants adoptant les accords signés antérieurement. Comme l'espace Schengen, la création de l'Euro constitue une opération très pragmatique dans laquelle seuls les Etats prêts à participer ont signé l'accord.

 

Ce qui a porté avec succès cette démarche sur près de 60 ans, est la volonté des hommes politiques. Les plus profondément européens ont été les tandems franco-allemands : De Gaulle-Adenauer, Giscard d'Estaing-Schmidt, Mitterand-Kohl. Ce sont eux qui ont été les moteurs de l'intégration, ayant toujours en mémoire l'horreur des anciens conflits et pour vision un rapprochement des Etats qui les bannisse à jamais.

 

Les difficultés auxquelles nous faisons face maintenant, notamment avec la crise grecque et aussi tout récemment avec des menaces sur le Portugal, résultent en partie du fait que le processus d'intégration s'est arrêté avec la création de l'Euro. Les historiens ne manquent pas de rappeler que d'anciennes unions monétaires comme l'Union Latine, se sont dissoutes faute de les avoir « approfondies ». A l'évidence, les tiraillements entre les partenaires se font de plus en plus fort quand les politiques fiscales, budgétaires et économiques divergent, ce que l'évolution récente n'a fait qu'exacerber, alors que la politique monétaire n'est plus de leur ressort depuis depuis le 1er janvier 2002.

 

Ce dont les hommes politiques devraient prendre conscience, c'est qu'il est urgent et important de redémarrer le processus d'intégration dans ces domaines : fiscal, budgétaire, économique. Le projet de Fonds Monétaire Européen est sûrement une bonne chose, dans la lignée des initiatives antérieures, pragmatiques et communautaires. Mais cela ne suffit pas, d'autres initiatives de relance dynamique sont nécessaires. Finalement, la crise grecque a un aspect positif dans la mesure où elle fait apparaître les insuffisances de la situation actuelle, que s'impose la nécessité de plus d'Europe et que cela pénètre la conscience des Européens. Espérons que ces derniers vont faire pression sur les politiques pour qu'ils dépassent leurs considérations locales – notamment les enjeux électoraux de court terme, et mettent en oeuvre une vision commune de l'avenir.

Repost 0
Published by Le Gargaillou - dans Points de vue
commenter cet article
24 mars 2010 3 24 /03 /mars /2010 23:31

Ces derniers jours, nous avons eu droit à toutes sortes d'explications et d'interprétations sur le taux élevé d'abstention – supérieur à 50%, aux élections régionales des 14 et 21 mars 2010.

 

Ce qui me paraît à la fois étonnant mais aussi parfaitement explicable, c'est que personne n'a osé mentionner 1)  l'idée imprécise que la plupart des électeurs ont du rôle de la région et 2) le mode de scrutin et de détermination des élus. A mon sens, tous les politiques sont complices de l'état de fait actuel et ne sont pas prêts à le remettre en question.


Depuis que les régions ont été créées, aucune autre collectivité n'a été supprimée. Le millefeuille des institutions s'est épaissi et l'électeur moyen a beaucoup de difficultés pour déterminer quels sont les rôles et responsabilités de chacune d'entre elles. On vote chaque année : les municipales, les européennes, les régionales, la présidentielle, les députés … Un certain désintérêt s'installe et l'électeur est conduit à faire des choix et à se déplacer seulement pour les élections qu'il considère comme les plus importantes. Sûrement pas les régionales !

 

D'une part le scrutin de liste – et c'est aussi le cas pour les élections européennes, fait qu'on ne vote pas pour "son conseiller régional" mais pour une liste impersonnelle sur laquelle on ne sait pas qui siègera finalement au conseil régional. Corrélativement, personne ne peut demander des comptes sur son action à un conseiller régional déterminé. Ce type de scrutin est à comparer aux autres élections directes : présidentielle, assemblée nationale, conseil général des départements, où les électeurs votent clairement pour un candidat unique et sont ainsi conduits à le regarder comme leur représentant. Le lien est alors beaucoup plus fort entre élu et électeurs et la motivation pour participer aux élections l'est aussi.

 

D'autre part le système de désignation du nombre d'élus qui favorise la liste arrivée en tête, conduit les électeurs à ressentir que le résultat des élections ne correspond pas fidèlement au rapport des votes exprimés. L'idée sous-jacente de dégager une majorité à tout prix pour l'assemblée régionale ne peut guère se justifier. Elle peut avoir du sens pour les élections nationales dont les enjeux sont plus importants et pour lesquelles la stabilité de la majorité de gouvernement reste un impératif face aux mauvais souvenirs laissés par la 4è république lorsque la représentation nationale était proportionnelle. Les électeurs ne sont-ils pas conduits à penser que les résultats sont "manipulés" du fait de ce système et que cela ne vaut pas la peine de se déranger pour voter ? Un mode de désignation proportionnel au nombre de voix avec un seuil minimum serait plus clair pour les électeurs et la gestion par les conseils régionaux serait sûrement plus consensuelle.

 

Il est urgent de simplifier nos institutions et la réforme en cours va dans la bonne direction !
Il serait aussi nécessaire de rendre ces élections comme d'ailleurs les élections européennes, plus "normales" en remplaçant le système de liste par des élections personnalisées. Mais alors les conseillers élus seraient plus légitimes et mieux connus de leurs électeurs, ils prendraient plus de poids, ce qui constituerait une menace pour les vieilles institutions en place et leurs défenseurs, les autres élus !

Repost 0
Published by Le Gargaillou - dans Points de vue
commenter cet article
21 mars 2010 7 21 /03 /mars /2010 17:34

Le 18 mars 2010, Simone Veil a rejoint l'Académie Française, prenant le fauteuil nº13 que Racine avait occupé le premier. Ce n'est qu'en 1980 que les académiciens ont pour la première fois élu une femme : Marguerite Yourcenar. Elle resta la seule élue jusqu'à sa mort en 1987. Ensuite furent élues : Jacqueline de Romilly, helléniste en 1988, Hélène Carrère-d'Encausse, historienne en 1990, Françoise Delay, écrivain en 2000, Assia Djebar, écrivain en 2005.

 

Il est remarquable de noter que Jacqueline de Romilly a été aussi la première élue au Collège de France ! Ainsi les assemblées les plus masculines s'ouvrent peu à peu. On peut regretter qu'elles se soient pendant si longtemps refusées à accorder une place à la moitié de l'humanité. Mais on peut aussi se réjouir de l'évolution en cours et encourager sa poursuite, surtout en l'absence de quota, simplement par décision des assemblées elles-mêmes.

 

Et encourageons les académiciens et les autres à continuer dans cette voie. Cela ne fera qu'augmenter la diversité et la richesse de leurs débats et de leurs travaux.

Repost 0
Published by Le Gargaillou - dans Points de vue
commenter cet article
8 mars 2010 1 08 /03 /mars /2010 20:04

 

La perte récente du marché des quatre centrales nucléaires pour les Emirats Arabes Unis a retenti comme une catastrophe inattendue parmi les médias français et les porte-paroles des différents acteurs.

 

Pourtant, le Président de la République et les politiques en général manifestent une ferme volonté de stopper le déclin de l'industrie française et de la faire croître. Les domaines prioritaires devraient logiquement être ceux où l'industrie française détient une expérience et un savoir-faire supérieurs. L'industrie nucléaire en est incontestablement un.

 

Mais le problème rencontré par le consortium Areva-GDFSuez-EDF & Co aux Emirats augure mal de l'avenir. Ne sommes-nous pas face au même syndrome qui a atteint le Rafale et d'autres bijoux conçus à la demande et sur spécifications des donneurs d'ordre franco-français sans s'intéresser aux données du marché mondial et notamment à la stratégie et à l'offre des concurrents ?

 

Un article de Business Week du 2 mars 2010 nous apprend ainsi que l'équivalent sud coréen d'Areva, Doosan Heavy Industries & Construction, a déjà gagné les appels d'offres aux Etats Unis pour six réacteurs nucléaires et une douzaine de générateurs de vapeur que Westinghouse va employer pour construire six centrales nucléaires. Ces projets vont bénéficier de la garantie de l'Etat américain annoncée le 16 février par Barack Obama pour les programmes nucléaires. Et pendant ce temps que font Areva et EDF sur le marché américain qui paraît vraiment redémarrer ?

 

Il y a quelques semaines, le président coréen Lee Myung Bak a déclaré que la Corée était devenu le pays le plus compétitif sur le gigantesque marché nucléaire. Il apparaît que cette affirmation vient d'être confirmée par ce qui s'est produit aux Emirats.

 

La compagnie d'électricité sud-coréenne Kepco, s'appuyant sur une expérience de la construction de plusieurs dizaines de centrales en Corée et sur un réseau de fournisseurs comprenant notamment Doosan, Hyundaï et Samsung, a conçu un réacteur l'AP1400 dont le coût par kW installé serait de $2 300, 20% moins cher que les équivalents français et japonais. Les coréens ont annoncé qu'ils visaient la vente de 80 centrales nucléaires d'ici 2030 aux Etats-Unis, en Europe et en Asie. Quelle va être la réponse des spécialistes français ?

 

L'État français est actionnaire à 100% d'Areva et de 85% d'EDF. Il est donc bien placé pour en contrôler la stratégie et mener une politique industrielle qui permette le développement de la filière nucléaire à l'international. Sauf que depuis quelques années, les difficultés s'amoncèlent. Les premières centrales construites en Chine par EDF n'ont pas eu de suite car les chinois se débrouillent maintenant tout seuls. L'affaire finlandaise d'Olkiluoto est un fiasco. Manifestement le contrôle de l'Etat n'est pas la solution.

 

Tous, industriels, politiciens, syndicats, médias et public français, devraient bien s'imprégner de ce que signifie le mot « compétitivité » et l'appliquer. C'est un mot que les allemands et les coréens connaissent bien et savent mettre en oeuvre. Notamment les accords de modération salariale signés récemment par IG Metal sont au nom de cet impératif incontournable pour gagner des marchés et conserver des clients. A l'Etat et à notre Président de se focaliser sur cette unique objectif : compétitivité, et de tout faire pour permettre à nos entreprises d'être plus compétitives. On note cependant que, dans le compte-rendu du journal Les Echos de l'intervention du Président de la République de jeudi 5 mars sur la politique industrielle, il n'est rapporté le mot compétitivité qu'une seule fois dans l'expression « pôle de compétitivité », ce qui n'est guère une nouveauté et n'a pas vraiment fait ses preuves en termes justement d'amélioration de la compétitivité. Il y a donc beaucoup de chemin à faire pour que ce mot pénètre la conscience de tous.

Repost 0
Published by Le Gargaillou - dans Entreprises
commenter cet article
28 février 2010 7 28 /02 /février /2010 16:12

A une époque où il est généralement convenu que les ressources en combustibles fossiles sont limitées et que l'on a très probablement dépassé le pic de production de pétrole, l'arrivée du gaz naturel dit « non conventionnel » sur le marché apparaît presque comme une provocation. C'est sans doute pourquoi l'on en parle si peu ou pas du tout (en France du moins), sauf bien sûr dans les milieux pétroliers et gaziers.

 

Avec le gaz non conventionnel, on assiste, grâce au progrès technique notamment dans le domaine de l'exploitation des gisements de gaz, à un saut quantitatif très important en termes de ressources disponibles de gaz naturel. L'industrialisation de deux techniques nouvelles : le forage horizontal et surtout la fracturation hydraulique des formations de schistes, a rendu économique leur mise en oeuvre au niveau actuel du prix du gaz naturel et a ainsi permis de réaliser une percée exceptionnelle. Le gaz piégé dans ces roches étanches est devenu accessible. Avec la mise en exploitation rapide de ces nouveaux gisements, les Etats-Unis sont devenus en 2009 le premier producteur mondial de gaz naturel. Les prix du gaz se sont mis à baisser, se déconnectant de l'indexation sur le prix du pétrole. Les experts américains et le Département de l'Energie estiment que les réserves prouvées ont augmenté de 40% en deux ans. La consommation actuelle de gaz naturel aux Etats-Unis étant de 740 milliards m3, les ressources qui sont évaluées maintenant à 65 000 milliards de m3, correspondent à 90 ans de production. De nombreux autres pays qui possèdent des gisements similaires et notamment la Chine, vont suivre.

 

Au delà du gaz de schistes, il est aussi envisagé l'exploitation du gaz présent dans les mines de charbon (le grisou) et de celui qui est piégé dans les sables et carbonates. Le pétrole est aussi concerné : avec un prix du baril de pétrole stabilisé autour de $70-80, la mise en oeuvre d'autres techniques telles que l'injection de vapeur dans les anciens puits devient économique ; ces puits retrouvent alors une nouvelle jeunesse. C'est ainsi que Business Week cite le champ de Kern River en Californie qui produit depuis 1899. En 1942, on estimait son potentiel à 54 millions de barils. Entre 1942 et 1995, il en a produit 736 millions et on pensait alors que le potentiel restant était de 970 millions de barils. En novembre 2007, la production cumulée avait atteint 2 milliards de barils et aujourd'hui, on estime le potentiel du champ à 480 millions de barils.

 

D'autres techniques dont l'objectif est généralement de diminuer la viscosité du pétrole brut, sont maintenant couramment utilisées ou en cours de développement : l'injection de gaz carbonique, d'azote, d'agents chimiques et même de micro organismes. Actuellement seulement 35% du pétrole présent dans les gisements peut être récupéré : il y a donc une marge considérable d'amélioration.

 

Comme pour toutes les ressources naturelles, la conjonction du progrès technique et d'un prix plus élevé rend possible l'accès à des gisements nouveaux. L'évaluation des ressources disponibles publiée par les organismes officiels, tient toujours compte du prix actuel, de l'état des techniques et bien sûr de l'inventaire actuel des gisements. Il est certain que ces données publiées par les organismes comme l'U.S. Geological Survey, n'ont rien à voir avec les projections que des acteurs tels que les compagnies pétrolières utilisent pour leur planification stratégique.

 

A l'évidence, en augmentant, les prix vont permettre de poursuivre les investissements en R&D, le progrès technique va se poursuivre et les ressources disponibles en gaz et en pétrole vont continuer à croître ; les promoteurs des énergies alternatives qui annoncent la fin du pétrole et du gaz pour demain, doivent en tenir compte au risque de perdre leur crédit. 

Repost 0
16 février 2010 2 16 /02 /février /2010 21:53

Le grand public a découvert les hedge funds en 1992 lorsque George Soros, estimant que l'Angleterre en récession ne pourrait supporter les contraintes du système monétaire européen (SME, le prédécesseur de l'€), a vendu à découvert 10 milliards de livres sterling et a obligé la Banque d'Angleterre à sortir du SME. Depuis les hedge funds continuent de faire parler d'eux, sans que l'on en sache grand chose.

 

On peut définir les hedge funds comme des fonds d'investissement non cotés recherchant une diversification du risque par rapport aux portefeuilles classiques d’actions et d’obligations. Leurs objectifs affichés sont des rentabilités stables et élevées. Ils prétendent « faire de l'alpha », c'est-à-dire qu'ils seraient capables d'augmenter la part α du rendement des investissements qui est affranchie de tout risque par rapport aux investissements classiques ; en quelque sorte d'obtenir des rendements élevés sans risque. En fait les experts considèrent que leur profil de risque est très éloigné des risques des marchés classiques avec un biais important vers les pertes à la fois extrêmes et très rares.

 

A l'origine, seuls des investisseurs privés, des personnes fortunées ont investi dans les hedge funds. Ces derniers pouvaient alors légitimement se présenter comme des gérants de fortunes privées. Mais depuis le début des années 2000, les rendements financiers étant devenus faibles, les institutionnels notamment les banques, les assureurs mais aussi les fonds de pension, les agences gouvernementales et même les universités américaines ont investi dans les hedge funds. Le nombre de fonds est passé de 3800 en 2000 à plus de 10000 en 2007. Dans le même temps, le volume des fonds investis a presque quadruplé, passant de 500 milliards de $ à près de 1900 milliards de $. Sur un montant global d'environ 1 300 milliards de $ en 2009 (selon Hedge Fund Research), 6% seulement est détenu par la clientèle privée.

 

Les hedge funds mettent en oeuvre une grande variété de stratégies d'investissement.

Ils utilisent abondamment

  • les produits dérivés, en particulier les options,
  • la vente à découvert c'est-à-dire la vente de titres que l'on ne possède pas dans l'espoir de les racheter à un cours inférieur au cours de vente,
  • l’effet de levier, c’est-à-dire la capacité à engager un volume de capitaux emprunté qui soit un multiple plus ou moins grand de la valeur des capitaux propres dont on dispose.

 

Selon les experts, notamment Michel Aglietta, professeur à Nanterre et membre du Conseil d'Analyse Economique, les hedge funds sont des propagateurs de risque systémique. Il y a souvent une forte corrélation entre leurs stratégies provoquées par un même événement de marché, ce qui peut conduire à des situations de « stress », des ruptures d'équilibre, les marchés ne pouvant opérer d'ajustement. C'est ce qui s'est produit à l'automne 2008, lors de la crise des « subprimes ».

 

Jusqu'à maintenant, les hedge funds se sont développés sans aucune réglementation, sans obligation d'information sur leurs stratégies ou leurs performances, sans limite d'engagement des capitaux empruntés. Les statistiques les concernant sont fortement biaisées car les fonds qui disparaissent ne sont pas inventoriés. De plus ils fonctionnent suivant un système de commission asymétrique : par exemple 20% sur les gains, 0% sur les pertes, plus une commission de gestion !

 

Un consensus commence à s'imposer sur le caractère nécessaire d'une réglementation, mais celle-ci devra s'imposer dans tous les pays, sinon il y a un risque d'évasion vers de nouveaux paradis, les hedge funds étant déjà généralement localisés dans ces paradis fiscaux. Il faudrait une volonté politique forte pour qu'une telle réglementation se mette en place. Naturellement, les défenseurs des hedge funds prétendent qu'ils jouent un rôle de stabilisateur des marchés. Mais les crises spectaculaires comme celles de LTCM et de la banque d'affaires Bear Stearns dont la faillite a été provoquée par le hedge fund Carlyle Capital démontrent que cela est obtenu au prix de risques extrêmes.

 

Lors d'une conférence le 11/02/2010, Michel Aglietta a détaillé ses recommandations pour une supervision des hedge funds :

  • enregistrement des gérants
  • limitation de l'effet de levier
  • obligation d'informations sur leurs prises de risque
  • rémunérations avec partage des pertes
  • régulation indirecte via les banques d'affaires
     

L'Union Européenne élabore actuellement une directive qui mettra en application un commencement de supervision. De l'autre côté de l'Atlantique, Paul Volcker tente d'imposer un certain nombre de règles dont l'interdiction aux banques d'effectuer du « trading pour compte propre », c'est-à-dire de spéculer avec leurs ressources propres. Mais il sera bien difficile d'obtenir que les paradis fiscaux soient règlementés et des actions de « lobbying » intense se poursuivent à Bruxelles et à Washington, qui risquent d'atténuer la portée des mesures prises.


Pourtant cette supervision est absolument nécessaire d'une part pour diminuer les risques du système financier et d'autre part le ramener dans le droit chemin du financement de l'économie, qui est son rôle essentiel.


 

Repost 0
Published by Le Gargaillou - dans Points de vue
commenter cet article
14 février 2010 7 14 /02 /février /2010 09:29

Depuis de nombreuses années, Bolloré achète et vend des actions Vallourec qui est un grand fournisseur de l'industrie pétrolière, notamment en tubes pour le forage des puits, les oléoducs et gazoducs.  Comme pour tous les "parapétroliers", le cours des actions Vallourec dépend en grande partie de l'évolution du cours du pétrole, qui est lui-même extrêmement spéculatif.  C'est ainsi que Bolloré en a vendu récemment pour 156 Millions € via sa Compagnie de Cornouaille.

 

Mais en parallèle, le FSI, grand exécutant de la politique industrielle de l'État, dont le but officiel est "la réponse initiée par les pouvoirs publics aux besoins en fonds propres d'entreprises porteuses de croissance et de compétitivité pour l'économie française", vient, selon l'AMF, de franchir un seuil de détention des actions Vallourec

 

Au lieu de participer au renforcement de nos entreprises, l'État ne participe-t'il pas aux mouvements spéculatifs sur les marchés boursiers ?  On peut aussi se demander pourquoi acheter quand Bolloré vend ?

 

 

Repost 0
Published by Le Gargaillou - dans Entreprises
commenter cet article
2 février 2010 2 02 /02 /février /2010 13:42

Une fois de plus, les clients de la SNCF vont souffrir demain 3 février 2010, d'une nouvelle grève pour la défense de l'emploi notamment dans l'activité fret. Le budget 2010 de la SNCF prévoit en effet selon Le Monde, « 1 400 suppressions de poste, avec près de 2 600 postes en moins dans le fret mais des créations d'emplois ailleurs. »
 

En fait la SNCF se débat pour rendre le fret compétitif et pour limiter ses pertes alors qu'elle a déjà perdu des parts de marché importantes depuis l'ouverture à la concurrence mi-2006, tandis que le marché s'est lui-même contracté de 25% en 2009 par rapport à 2008. Selon l'indicateur de RFF (Réseau Ferré de France), le trafic en 2009 a été de 84 millions de trains-km (nombre de trains par distance parcourue) contre 107 millions en 2008. Simultanément, les concurrents de la SNCF ont pris 14% du marché fin 2009 contre 8% en 2008, selon les estimations des Echos ; ces concurrents seraient donc passés de 8,5 millions de trains-km à près de 12 millions de trains-km en un an soit une croissance de 40%, la SNCF fret passant de 98,5 à 72 millions de trains-km, soit une baisse de 27% ! Les concurrents de la SNCF dont les deux principaux sont Euro Cargo rail, filiale de la Deutsche Bahn avec 8% du marché et Eurotunnel (qui a racheté Veolia Cargo France) (Les Echos du 28/01), eux ne souffrent pas de la crise.

 

SNCF reste lestée par des tarifs non compétitifs et un service désastreux, ponctué de grèves : ce cocktail empoisonné a fait fuir les clients vers la route par le passé ; maintenant qu'une alternative ferroviaire se présente, les clients se précipitent. Si la SNCF cesse ses manoeuvres déloyales dans l'allocation des sillons à ses concurrents, il est prévisible que leur part de marché continue à croître rapidement, que je suis prêt à estimer à 22% en 2010 et 30% en 2011 ! Il est probable que la panique s'emparera de tous à ce moment-là, la division fret étant alors à 100% dans un univers de concurrence, sans qu'il puisse être question de missions de service public. On peut imaginer que la solution serait de céder cette division à un concurrent, la coupant du cordon la reliant à l'EPIC SNCF. Mais qui voudra l'acheter et à quelles conditions ?

Repost 0
Published by Le Gargaillou - dans Entreprises
commenter cet article
30 janvier 2010 6 30 /01 /janvier /2010 23:30

Le lancement de la dernière nouveauté d'Apple donne lieu à une couverture médiatique absolument étonnante. Bien sûr les rumeurs diffusées bien avant le lancement officiel ont contribué à « conditionner » les médias, les journalistes et le public. Quels merveilleux alliés que ces médias qui vont contribuer à garantir le succès rapide du produit tout en réduisant l'investissement nécessaire en communication pour Apple. C'est ainsi qu'Apple risque fort d'avoir encore une année de rêve en termes de ventes et de résultat !

 

Mais cela n'a pas toujours été le cas : un article récent du Guardian (du 20/01/2010) repris dans l'édition du 28 janvier 2010 de Courrier International évoque l'histoire d'Apple qui a été faite de hauts et de bas. A l'évidence, la qualité de l'ergonomie des produits est une constante ; on peut ajouter que l'ergonomie a toujours eu la priorité sur la technologie, au point que les premiers produits ont souvent été victimes de performances techniques insuffisantes, les ingénieurs consacrant semble-t-il leurs efforts à l'ergonomie. Steve Jobs n'avait-t-il pas résumé la stratégie en disant qu'Apple concevait des ordinateurs pour chacun d'entre nous ? J'ai personnellement découvert le Macintosh en 1986 dans la société où je travaillais aux Etats-Unis : l'ensemble du département marketing était équipé de Macs, en toute indépendance, au grand dam des informaticiens qui de leur côté, consacrait une grande énergie à faire tourner un série de VAX, des super mini devenus 5 ans plus tard des monstres obsolètes. Avec ce Mac de première génération, j'ai pu réaliser des plans dignes d'un architecte pour une extension de ma maison à Cleveland, avec lesquels j'ai obtenu des services de la ville un permis de construire ! Bien sûr sans aucune formation sur le programme utilisé.

 

Il y a cependant un facteur important que l'auteur du Guardian, Charles Arthur ne fait qu'effleurer et qui paraît fondamental dans les succès des produits Apple des dix dernières années et qui coïncide avec le retour de Steve Jobs en 1997. Avant 1997, Apple a constamment lancé des produits entièrement nouveaux sur de nouveaux marchés. Il s'agissait à la fois de créer la demande (le marché) et de convaincre les clients d'acheter les produits. C'était une stratégie à haut risque qui a failli conduire Apple à sa ruine. Deux exemples à noter : le Newton, premier assistant personnel sans clavier, le Macintosh portable, premier ordinateur portable. Ces produits sont apparus trop tôt et n'ont pu plaire qu'à une minorité du public, alors que la concurrence n'offrait rien d'équivalent et que les performances techniques n'étaient pas au rendez-vous.

 

Depuis 1997, une stratégie totalement différente a été mise en oeuvre : sur des marchés que la concurrence avait déjà créés et où existe une demande latente et prête à accueillir de nouveaux produits plus performants et plus innovants, Apple a lancé des produits qui ont écrasé la concurrence grâce à leur ergonomie supérieure. Apple a aussi bénéficié des technologies développées pour ces mêmes concurrents et arrivées à maturité grâce à des séries produites plus longues, lui permettant de concevoir des produits techniquement performants à faible coût. Cela n'avait pas été le cas avant 1997 ! C'est ainsi que l'iPod puis l'iPhone sont arrivés sur des marchés qu'Apple n'a pas eu besoin de créer, où les utilisateurs avertis ont très rapidement compris ce qu'apportaient ces produits et que les concurrents n'avaient pas. Il est à prévoir que les efforts fournis par Amazon pour promouvoir le Kindle et par Sony pour vendre sa tablette vont profiter à l'iPad d'Apple qui va instantanément apparaître comme supérieur tant par son ergonomie que par la gamme étendue d'applications.

 

Dans la lignée de cette stratégie, imaginer quel sera le produit suivant d'Apple, c'est identifier un nouveau marché qui peine à décoller et où quelques produits à l'ergonomie limitée tentent de convaincre les utilisateurs à grand renfort de promotion.

 

Etre le premier pour créer un marché apparaît ainsi très risqué ! Il vaut mieux laisser à d'autres l'investissement initial et arriver derrière avec un produit infiniment supérieur. Mais le clef est bien dans la capacité de réaliser l'« infiniment supérieur ».

Repost 0
Published by Le Gargaillou - dans Entreprises
commenter cet article
27 janvier 2010 3 27 /01 /janvier /2010 22:43

Les médias européens, les observateurs et la plupart des dirigeants européens se sont largement fait l'écho de la conférence de Copenhague comme d'un échec. Mais d'autres considèrent que le bilan est positif; ainsi Nicolas Sarkozy a déclaré le 6 janvier 2010 que « Copenhague c'est infiniment mieux que Kyoto ». Pour beaucoup, ce serait avant tout un échec de l'Europe qui n'a pas su promouvoir ses innovations et ses normes ; les Etats-Unis et la Chine, le G2, qui génèrent à eux deux 50% du CO2 de la planète se seraient mis d'accord ensemble pour ne s'engager sur rien.

 

Selon Christian de Perthuis lors d'une conférence le 26 janvier, c'est surtout l'échec d'un processus de négociation de 2 ans mené par l'ONU. A l'inverse de Kyoto qui a été essentiellement une négociation Europe – Etats-Unis, le processus de Copenhague a été une négociation globale où les autres pays ont eu leur mot à dire : le centre de gravité de la négociation climatique s'est déplacé. Le monde change et le tandem Europe – Etats-Unis ne peut plus imposer à tous ses schémas et ses politiques. Par contre, toujours selon C. de Perthuis, la diplomatie américaine a réussi à ramener à elle les BRIC et d'autres pays émergents majeurs.

 

L'échec majeur, c'est qu'aucun instrument économique contraignant n'a pu être établi, garantissant que chaque pays se conformerait à ses engagements. En cela Copenhague est tel que Kyoto. Comme toujours, les engagements n'engagent vraiment que ceux qui les croient.

 

L'Europe risque d'être marginalisée par les Etats-Unis qui ont en projet un dispositif plus complet traitant à la fois des émissions fixes et mobiles (moyens de transport). Le marché européen des permis de CO2 ne traite actuellement que des émissions fixes (les usines, les bâtiments).

 

L'Europe doit se ressaisir, reprendre le leadership en matière de politiques climatiques et ensuite prendre son bâton de pèlerin pour convaincre. Sinon les normes américaines vont s'imposer. Les entreprises internationales ont besoin de certitudes, et ce serait à l'avantage de nos entreprises européennes d'être établies là où les normes se définissent.

 

L'Europe doit poursuivre ses efforts pour arriver à un accord consensuel à 27 et s'y tenir, afin d'éviter la cacophonie de Copenhague où chaque dirigeant national a souhaité tirer la couverture à lui, face à ses médias nationaux. Il est sûr qu'une représentation européenne émiettée ne facilite pas les choses. On comprend que le reste du monde ait beaucoup de mal à discerner, qui du Président du Conseil Européen, du Président de la Commission, du pays qui préside le Conseil européen – l'Espagne, qui des 27 chefs d'Etat est le porte-parole de l'Europe ? Il faut surmonter ce handicap ! C'est possible, en effet à l'OMC où les enjeux sont aussi importants, cela fonctionne depuis plusieurs années. Alors pourquoi pas pour les négociations climatiques ?

Repost 0