jump to navigation

Bataille mondiale autour du phosphate de fer lithié juin 30, 2011

Posted by projetmiste in Article.
add a comment

Dans le cadre d’une enquête consacrée aux éventuels dangers des batteries lithium ion pour véhicules électriques, le journal Le Monde (daté du 29 juin 2011) a fait un point sur la situation de la filière technologique du phosphate de fer en reprenant et citant l’analyse développée dans le rapport des auditeurs du Miste.

Trophée SUN TZU : 1er prix attribué au Miste d’ESIEE Paris mai 20, 2011

Posted by projetmiste in Article.
1 comment so far

Le 1er prix l’édition 2011 du Trophée Sun Tzu a été attribué au Miste d’ESIEE Paris. Ce concours, dont la finalité est de faire rentrer l’orchestration de la rumeur dans la stratégie d’entreprise, a mis en lice cette année 22 équipes concurrentes  pour la partie académique, et 5 entreprises pour les  professionnels.

Rapport sur les batteries lithium ion pour automobiles mai 15, 2011

Posted by projetmiste in Article.
add a comment

La batterie lithium ion est aujourd’hui un élément clé pour le développement des véhicules électriques et hybrides C’est également le poste de coût le plus important, qui occasionne la réflexion sur de nouveaux modèles économiques.

4 alliages ou matériaux différents permettent de mettre en œuvre ces batteries

  • Manganèse (Mn)
  • Nickel-Manganèse-Cobalt (Ni-Mn-Co)
  • Nickel-Cobalt-Aluminium (Ni-Co-Al)
  • Phosphate de Fer (LiFePO4)

L’enjeu pour les constructeurs automobiles consiste à pouvoir détecter le plus tôt possible laquelle de ces 4 technologies deviendra leader sur le marché des véhicules électriques dans les 5 ans à venir.

Dans le cadre de son projet commun, la promotion 2010 – 2011 du Mastère Spécialisé en Intelligence Scientifique, Technique et Economique d’ESIEE Paris a construit un tableau de bord permettant de détecter le plus en amont possible les évènements phares qui influenceront l’émergence d’une technologie « leader ». La production de ce tableau de bord s’est accompagnée de la réalisation d’un « état de l’art » présentant une photographie à date de la situation de la filière des batteries « lithium ion » pour véhicules électriques et d’une base de données des véhicules électriques.

Ce rapport est associé à un second rapport – de diffusion restreinte – qui présente en détail le dispositif de veille ayant, d’une part, permis de produire les analyses présentées ici et, permettant, d’autre part, de suivre en flux continu la construction de la filière. Contact : a.schoen@esiee.fr

L’infinité Google et le paradoxe booléen février 28, 2011

Posted by projetmiste in Article.
add a comment

Google comptera bientôt plus de pages que l’Univers ne compte d’étoiles. En apparence, impossible de s’y retrouver. Pourtant, comme l’astronaute, l’internaute dispose d’outils simples lui permettant de se déplacer dans cet infini virtuel.

Google est un « Moteur de Recherche ». Périodiquement, il envoie des robots indexer toutes les pages qu’ils rencontrent. Ces derniers naviguent de pages en pages, tels des sondes spatiales photographiant l’Univers. En 2008, Google annonçait avoir référencé plus de 1000 milliards d’url (adresse web). L’internaute est vite submergé.

En outre, le système de classement de Google ajoute à la complexité. Pour des raisons de neutralité, l’algorithme n’est connu que de Google. Or, dans 90% des cas, l’internaute ne dépasse pas la seconde page de résultats. Soient les vingt premières réponses. Le pouvoir d’influence de Google est donc considérable, et l’internaute manipulable.

Cependant, il existe une boite à outil aussi simple que méconnue. Avec elle, l’internaute peut cibler ses recherches, et s’affranchir d’une trop grande emprise de Google : le booléen.

L’écriture  booléenne – de George Boole mathématicien et philosophe britannique du début du XIXème siècle – est une structure algébrique simple. Elle permet de retranscrire des idées et concepts en équations, et d’en traduire le résultat en termes logiques. Deux lois structurent son approche: le « ET » et le « OU ». Elles répondent à des propriétés commutative et distributive donnant naissance à l’algèbre binaire (1 ou 0).

Avec Boole, d’autres éléments contribuent à affiner les recherches. Les guillemets permettent la recherche d’une expression exacte. « NOT » exclut le terme suivant. Tandis que le signe positif « + » force le moteur de recherche à trouver nécessairement le terme associé. Enfin, la mention « site:abc.com » permet de limiter les recherches à un site en particulier ; dans notre exemple, le site abc.com.

L’ensemble de ces « trucs et astuces » réduisent considérablement le bruit sur Internet (résultats non voulus). Ainsi limitées, il devient possible d’étudier toutes les réponses ; et l’ordre de classement n’est plus un filtre.

Pour retrouver cet article : « Timothée Rubino » OR « Rubino Timothée » AND +Boole site:miste.fr

TRD

 

Homo Interneticus février 28, 2011

Posted by projetmiste in Article.
add a comment

Internet modifie-t-il  nos modes d’apprentissages?

La paléontologie nous apprend qu’Homo Sapiens est une espèce sociale, apparue il y a  environ 300 000 ans, qui utilise l’imitation comme méthode d’apprentissage.
Contrairement aux grands singes, cette capacité à copier fidèlement nous a permis de transmettre les connaissances de générations en générations.

L’internet, créé il y a à peine une vingtaine d’années, en nous bombardant de stimuli et d’informations, nous oblige à modifier notre manière d’acquérir les savoirs.

La Pensée Associative

En 1945, Vannevar Bush (conseiller scientifique du président Roosevelt et chercheur au MIT) a publié un article qui annonçait notre ère numérique: « As We May Think » (comme nous pourrions penser).  Il développe l’idée que nos que notre pensée n’est pas linéaire, mais qu’elle fonctionne à travers une suite d’associations.

Son analyse suggère que l’apprentissage linéaire est trop contraignant pour nous permettre d’accéder à la gigantesque bibliothèque de la connaissance humaine. Il propose donc, un mode d’acquisition des savoirs par association, beaucoup plus efficace, pour nous permettre d’évoluer dans une masse importante d’information.

Près d’un demi-siècle plus tard, c’est cette notion de liens entre l’information qui a été au cœur du système inventé par Tim Berners-Lee: le « world wide web ».
Le cerveau excelle particulièrement à exécuter les tâches proposées par l’architecture du web: sauter d’une information à une autre, associer ces éléments par catégories, et enfin construire une représentation.

Le Renard et le Hérisson

« Le renard sait beaucoup de petites choses, le hérisson en sait une seule, mais c’est une grande chose.  » Archiloque (poète grec de l’Antiquité), les Épodes.

Reprenant cette parabole grecque, Isaiah Berlin (philosophe anglais, président de la British Academy en 1974) propose de partager les méthodes d’acquisition des connaissances des humains en deux groupes : les Renards et les Hérissons.
Les Hérissons regardent le monde d’une manière centrale, avec un esprit synthétique et unifiant.
Les Renards perçoivent le monde de façon plus dispersé, avec un esprit analytique et pluraliste.

David Nicolas (professeur à University College London) a mis au point une expérience pour mettre en évidence notre conversion d’une pensée linéaire, vers une pensée associative.
Une série de questions, via Internet, est proposée à un groupe de 100 personnes de tous âges.
Le  groupe âgé de 12 à 18 ans a répondu aux questions en ayant consulté la moitié des pages internet, et en  six fois moins de temps que leurs aînés.

La génération Internet semble montrer un comportement plus proche de celui du renard.
La surcharge d’information transforme donc la façon dont la génération numérique accède à la connaissance.

Homo Interneticus

Le plus étonnant, c’est que ces changements profonds se sont produit en tout juste vingt ans.

Ce n’est pas la fin, ce n’est que le début d’Homo Interneticus.

AL

Partager ? Il n’en est pas question ! février 17, 2010

Posted by projetmiste in Article.
Tags: ,
add a comment

Tous les spécialistes, enseignants, praticiens et autres évangélistes vous le diront : le partage de l’information doit être au cœur de la stratégie d’intelligence économique d’une entreprise ou de toute organisation.

Une telle unanimité est d’autant plus déstabilisante que les entreprises, depuis longtemps, apprennent l’inverse, à savoir qu’il faut protéger ses informations face aux visées de la concurrence. Et même lorsque des entreprises s’allient pour traiter une affaire ou un marché, cela ne signifie pas partage, et encore moins transfert de technologies ou de savoir-faire.

Le savoir est une source de pouvoir

De même, à l’intérieur de l’entreprise, quel que soit le niveau hiérarchique où se situe un salarié, l’information exclusive et le savoir-faire différentiel qu’il détient constituent sa marge de liberté d’action au sein de l’organisation. Ce savoir est une source de pouvoir qui lui permet de négocier toutes sortes d’avantages. C’est notamment le moyen d’accéder plus rapidement aux strates supérieures de la hiérarchie. Car celle-ci est ainsi construite : plus on grimpe ses marches, plus on a de savoir, et donc de pouvoir.

Alors, collaborer avec ses collègues ? Partager avec eux ses secrets et ses tours de main ? Pour ensuite se retrouver sans pouvoir d’influer sur son avenir ? Et se résoudre à rester toujours au même niveau, l’éternel pion qui fait tourner les rouages de la machine pendant que d’autres qui ne sont pas forcément plus méritants en profitent et se gavent ? Il n’en est pas question !

Passer de l’individualisme à l’intelligence collective

Ces freins très répandus au sein des organisations sont d’autant plus forts que la culture d’entreprise héritée de l’âge industriel a érigé un système de production bâti sur des silos opérationnels relativement étanches, à un point tel que des salariés ou des services d’une même entreprise peuvent se livrer une bataille sans merci pour préserver leurs prérogatives, leur poids dans l’organisation et donc leur marge de liberté d’action.

Il n’est pas rare non plus d’observer le jeu trouble à l’œuvre entre des entreprises associées pour traiter ensemble une affaire, qui s’épient l’une l’autre pour profiter de la moindre opportunité de gagner les faveurs de leur client commun.  En chemin se sont perdus quelques peaux de bananes et crocs-en-jambe. Qu’importent les railleries des moralistes donneurs de leçons, l’essentiel est de tirer son épingle de ce jeu de dupes.

Au vu de ce tableau, on se demande bien comment va-t-on construire cette entreprise collaborative que chacun appelle de ses vœux ? Suffit-il de magnifier de manière répétitive, à la façon Coué, les vertus du partage pour qu’il se mette à l’œuvre ? Et pire, pour certains, sans appliquer à soi-même ce que l’on prêche pour les autres. Les désillusions risquent alors d’être à la hauteur de la grave erreur d’appréciation sur l’ampleur des défis auxquels doivent faire face les organisations.

Les entreprises doivent s’atteler sans tarder à une véritable révolution mentale pour passer d’une culture de l’individualisme à celle de l’intelligence collective. A elles  de valoriser l’échange et le partage comme moyens incontournables d’accéder à un pouvoir d’influence mis au service de la stratégie globale.

Les entreprises face aux medias sociaux et à leur e-reputation février 17, 2010

Posted by projetmiste in Article.
Tags: ,
add a comment

En février 2007, une tempête de neige aux Etats-Unis provoque un chaos dans l’organisation des vols de la compagnie JetBlue. Grâce à leurs téléphones portables, des passagers exaspérés se mettent à raconter en direct leur calvaire en envoyant messages, photos et vidéos, qui font vite le tour du web avant d’attirer les projecteurs des médias. Devant les risques de la situation, le PDG de la compagnie David Neeleman décide d’intervenir partout où s’exprime la contestation pour renouer le dialogue avec ses clients. Culture américaine oblige, il commence par s’excuser personnellement sur le site web de la compagnie avec un billet intitulé « David’s apology », puis met en ligne une vidéo (« Our promise to you » sur Youtube) où il détaille les mesures prises pour empêcher que la situation se reproduire. Il détaillera ce message les jours suivants sur les grands plateaux de télévision… avant que la pression ne retombe.

Cet exemple, considéré comme un cas d’école par les spécialistes de l’e-réputation, illustre le nouveau type de risque auquel toute société est confrontée aujourd’hui. A l’ère des blogs, des réseaux sociaux et des messages en temps réel sur Twitter, la prise de parole de quelques individus peut polariser l’opinion, et remettre en cause le long travail opéré pour bâtir une réputation.

Détecter les signaux précurseurs d’une crise

Face à ces nouvelles formes de mobilisations, les entreprises ont pris conscience du besoin de se mettre à l’écoute du web et des communautés qui s’y expriment à travers les médias sociaux. D’une part pour détecter le plus tôt possible les signaux précurseurs d’une crise et évaluer les meilleures réponses possibles. D’autre part parce que ce flux continu d’avis spontanés est une formidable opportunité pour capter les attentes et les motivations de ceux qui les expriment.

Les éditeurs de plateforme de veille voient également le potentiel de ce « marché de la conversation » et commencent à structurer des offres spécialisées. Parmi elles, on peut citer Opinion tracker d’Ami Software, Web influence tracker de LexisNexis ou Luxid for sentiment analysis de Temis. Des sociétés spécialisées ont aussi vu le jour comme Synthesio, TrendyBuzz ou Hotgrinds

Leurs outils explorent le web pour trouver et qualifier les meilleures sources. Ils extraient les messages pertinents pour les soumettre à une batterie d’analyses statistiques et linguistiques, isolent enfin des verbatim eux-mêmes soumis à des calculs d’opinion pour voir si leur tonalité  est positive et négative. L’ensemble de cette chaîne de traitements pose d’innombrables défis techniques mais aussi un problème méthodologique majeur : la construction d’un échantillon représentatif doit pouvoir être justifiée méthodologiquement pour donner toute sa crédibilité à la démarche.

Un nouveau champ d’étude pour les spécialistes de l’IE

Si la puissance des outils rend possible la collecte et le traitement d’un volume considérable d’information, le traitement est encore loin d’être automatisé. Le travail d’experts métiers reste indispensable pour définir les axes d’analyses, restituer les tableaux de bord et les interpréter. Car les entreprises clientes n’attendent pas des chiffres mais des préconisations pour optimiser leur stratégie marketing et de communication.

Au stade actuel, le marché est largement contrôlé par des entreprises spécialisées, principalement dans la communication stratégique. Mais les spécialistes de l’intelligence économique, du fait de leur expertise en matière de veille, d’influence et de gestion de crise, voient aussi s’ouvrir un nouveau domaine de spécialisation. Le rôle de ces intermédiaires est d’apporter la compréhension et un mode d’emploi du web en cartographiant les communautés, leurs profils, leurs sujets, leurs opinions et leurs dynamiques d’influence. L’enjeu étant en cas de crise, de savoir où et comment entrer en relation avec les communautés.

Dernière précision. Malgré la crise du secteur aérien, JetBlue vole toujours et continue de se développer rapidement. Pionnière dans l’utilisation des blogs, elle joue la carte du recrutement sur les réseaux sociaux (avec des concours et billets à gagner) mais aussi en misant sur le buzz sur internet avec des vidéos sarcastiques pour réapprendre aux PDG à voler sur des avions de ligne après le jet privé. Résultat de ces campagnes, la compagnie compte 60 000 fans sur Facebook et 1,5 million d’abonnés à son compte Twitter. Et vous, allez vous attendre une vraie crise pour devenir une entreprise conversationnelle ?

L’agaçante suprématie de Google février 8, 2010

Posted by projetmiste in Article.
Tags:
add a comment

En France, neuf requêtes sur dix passent par Google, selon le dernier baromètre AT Internet Institute (Xiti) datant d’avril 2009. En à peine dix ans, Google a su se rendre indispensable au point d’éclipser tous ses concurrents directs et de ringardiser l’approche proposée par les annuaires. Ce quasi monopole agace car le moteur californien n’est ni omniscient, ni exempt de reproches.

Déjà, il faut savoir que parmi les 60 premiers résultats remontés par Google et Yahoo, le taux de recouvrement n’est que de 20 à 30%. Etant donné que les internautes ne consultent généralement que les deux ou trois premières pages de réponses, soit quelques dizaines au plus, ils ont une vue tronquée du web visible. Ce n’est pas parce que l’information n’est pas bien classée par Google qu’elle n’existe pas ou n’est pas pertinente. Le recours à d’autres outils, comme Bing de Microsoft qui a été adopté par Yahoo pour motoriser son portail ou encore le Français Exalead, permet d’étendre le champ des réponses sans avoir à faire défiler des pages et des pages de résultats. Le courageux qui choisirait néanmoins cette dernière option aurait alors la désagréable surprise de constater que le moteur affiche régulièrement moins de résultats que le nombre annoncé.

Plus surprenant, Google prend quelques libertés avec la formulation des requêtes. Ce qui apparaît comme une aide pour l’internaute lambda constitue en revanche une gêne pour le professionnel qui aura sélectionné avec soin ses mots clés. Ainsi, la gestion du singulier et du pluriel s’avère fantaisiste. « La troncature implicite est pratiquée, mais pas de manière systématique », observe la consultante Internet Beatrice Foenix-Riou, également rédactrice en chef des lettres spécialisées Bases et Netsources. C’est selon le bon vouloir de Google. Ce dernier a même ajouté une couche sémantique qui permet même d’étendre la recherche en incluant des synonymes qui ne sont pas présents dans la requête. Une pratique courante dans les moteurs de recherche d’entreprise… sauf que ces derniers ne fonctionnent pas comme une boîte noire. L’administrateur a la main sur les dictionnaires. La gestion des accents s’avère aussi étrange. En théorie, Google, comme les autres moteurs y est insensible (idem pour la casse). Cela ne se vérifie pas toujours. Ainsi, l’opérateur Intitle, qui restreint la recherche aux mots clés présents dans les URL, tient compte de l’accentuation.

Conscient des approximations de Google, l’internaute, particulier comme professionnel, aura intérêt à utiliser quelques fonctions avancées, comme l’opérateur +  pour obtenir une recherche sur les mots exacts saisis (les seuls guillemets ne suffisent pas). Le recours à d’autres moteurs élargira le champ de réponses. Les annuaires restent également une piste intéressante, notamment lorsque le moteur est submergé de réponses. Si les versions généralistes de ces outils peinent à suivre la croissance exponentielle du web, les annuaires thématiques et les pages de liens ne doivent pas être négligés dans une stratégie de recherche. Quitte à utiliser Google pour les trouver.

Interaction entre l’intelligence économique et l’anticipation février 8, 2010

Posted by projetmiste in Article.
Tags: ,
add a comment

Dans un monde de plus en plus mouvant, où l’incertitude devient la règle absolue, le dirigeant a plus que jamais besoin d’anticiper pour minimiser le risque et pour assurer la pérennité de son organisation.

Dans l’entreprise, l’anticipation joue un double rôle : d’abord elle éclaire les orientations stratégiques, ensuite elle détecte les risques futurs et propose des moyens pour les surmonter. La méthode qui permet d’atteindre ces deux objectifs n’est autre que l’intelligence économique.

L’intelligence économique permet de détecter des « signaux faibles » révélateurs d’une orientation stratégique future d’une part ; mais aussi annonciateurs de risque d’autre part. En effet, ces techniques permettent une meilleure anticipation des situations à venir en dépit de la perpétuelle mouvance de l’environnement.

Ainsi, les stratégies d’information et de connaissance se mettent au service du dirigeant pour dompter l’avenir. Il en découle que l’élaboration d’une stratégie pour le pilotage de l’organisation repose sur des techniques propres à  l’intelligence économique.

L’anticipation – cette faculté suprême du stratège – est la clé de voûte de la pérennité de l’organisation. Sans anticipation, il n’y a point d’avenir dans la mesure où l’avenir d’une organisation tient en sa capacité à progresser, à inventer et à d’adapter. Si on n’est pas capable de prévoir les orientations futures du marché, on ne peut mettre en œuvre les moyens nécessaires pour conduire et accompagner ce changement. Le résultat d’un tel échec est que l’organisation ne fera pas partie des leaders, mais dans le meilleur des cas, elle sera en queue du peloton. Donc l’anticipation est une vue du futur envisagée à partir d’éléments détectés dans le présent dans le but de prendre des mesures immédiates qui conditionneront le futur.

On constate ainsi que les enjeux derrière une démarche d’intelligence économique sont primordiaux pour toute organisation. L’intelligence économique en permettant une meilleure anticipation de l’avenir, garantit le succès et la pérennité de l’organisation. C’est un outil performant de la gestion des risques stratégiques car non seulement elle est capable d’identifier les risques, mais elle est aussi capable de les traiter à la source grâce à l’anticipation de signaux d’alertes précoces.

Dans ce cadre, l’intelligence économique se doit de répondre à une exigence de rigueur. Une rigueur dans la méthode de collecte, d’identification et d’interprétation des données brutes.  Par exemple la veille stratégique nous permet de détecter des « signaux faibles » annonciateurs de changements, et les méthodes de recoupement de l’information permettront de s’assurer de l’exactitude de ces informations.

La phase suivante consiste à présenter l’information dans son contexte stratégique afin d’accentuer la nécessité d’une action rapide avant que le changement ne se réalise par les autres acteurs. C’est grâce à la maîtrise d’outils performants ainsi que de méthodes novatrices que l’intelligence économique produit des anticipations et non des prévisions (calcul de tendances à partir de données collectées dans le présent et le passé). Il est évident que la valeur ajoutée d’une anticipation est de loin supérieure à celle d’une prévision. D’où l’importance de recourir à l’intelligence économique dans une démarche de recherche qualitative de l’information stratégique.