Année : 2012

Comment les « marketeurs » utilisent les médias sociaux

Social Media Examiner a publié sa 4e étude annuelle sur la manière dont les « marketeurs » utilisent – et envisagent – les médias sociaux pour développer leurs affaires. Le panel : 3 800 professionnels (57% aux Etats-Unis, 9% au Canada, 9% au Royaume-Uni et 5% en Australie, le reste en Inde, Hollande et Irlande), âgés en moyenne de 30 à 39 ans, en majorité des femmes (62%). Précision : un équilibre du panel entre les affaires inter-entreprises (B2B/51%) et avec les consommateurs (B2C/49%).

Voici les principales conclusions :

  • Un enjeu important : 83% des sondés pensent que les médias sociaux sont importants pour développer leurs affaires.
  • Mais il faut pouvoir en mesurer les effets : ils sont 40% à vouloir mesurer le retour sur investissement (y compris en termes de gain de prospects et clients).
  • Une tendance à plus de vidéos : 76% d’entre eux prévoient d’accroître leurs investissements dans l’utilisation de YouTube (vidéos « commerciales »).
  • Comprendre et travailler avec Google+ : s’ils utilisent Google+ (40%), ils veulent en savoir plus à son sujet (70%) puisqu’ils prévoient d’accroître leurs activités sur ce réseau social (67%).
  • Trois bénéfices majeurs (dans l’ordre décroissant) : l’« affichage » de leurs activités (85%), l’accroissement du trafic (69%), et le recueil d’informations sur leur secteur d’activité (65%).
  • Les 5 médias sociaux utilisés (dans l’ordre décroissant) : Facebook, Twitter, LinkedIn, les blogs et YouTube.
  • Une activité chronophage : 59% passent plus de 6 heures par semaine et 33% au moins 11 heures sur ces « nouveaux » médias.
  • Peu de sous-traitance : seulement un tiers d’entre eux externalise des activités liées des médias sociaux (design et développement, analyse, création de contenus, etc.).

En outre, l’étude rescence les 10 questions principales que ces professionnels se posent. Parmi celles-ci : où sont mes cibles sur les réseaux sociaux ? Quelles stratégie et tactiques adopter sur les médias sociaux ? Comment faire participer mes cibles à mes activités « sociales » ? Comment vendre sur (ou grâce) aux médias sociaux ?…

Repérer les actions de ses concurrents, analyser les canaux d’expression de ses publics, identifier sa propre identité numérique, mesurer sa visibilité, son audience… La veille sur les médias sociaux permet de répondre à certaines questions – fondamentales – posées par les entreprises.

Publicités

L’intelligence économique au cœur de la compétitivité

Que vient faire au juste l’intelligence économique dans le débat sur la compétitivité ?

La question comme la réponse s’imposent encore, puisque beaucoup de chefs d’entreprise, de managers et d’opérationnels ne saisissent toujours pas forcément bien leurs intérêts à mettre en pratique la culture et les méthodes de l’IE dans leur organisation.

Servant à long terme l’orientation d’une organisation, la stratégie a pour objectif l’obtention et la mise en avant d’un avantage concurrentiel. Ce dernier permet à l’organisation (entreprise, association, collectivité…) de se différencier de ses « concurrents » et, par conséquent, d’être compétitive. Or, il faut souligner qu’un avantage concurrentiel est rarement définitif : l’enjeu pour une organisation consiste donc à le conserver de façon durable, l’améliorer, le renouveler… Ajoutons une autre caractéristique fondamentale de la stratégie : elle n’a de sens que si elle influence les décisions opérationnelles. Autrement dit, l’avantage stratégique doit se traduire par des gains réels dans l’activité quotidienne (parts de marché, chiffre d’affaires, marge, réputation,…).

Cet avantage concurrentiel peut être de nature diverse : soit matériel (une matière première comme des métaux rares, un lieu physique comme un point de vente, etc.) soit immatériel (un brevet, une forme d’organisation, etc.). Une fois identifié et obtenu, il faut le protéger : la protection de ces informations dites « sensibles » est le premier pilier de l’IE, son aspect le plus défensif, au service de la stratégie.

Ensuite, il faut se donner les moyens de conserver un avantage concurrentiel. Mieux, l’accroître. La veille, c’est-à-dire la surveillance de son environnement, tend vers cet objectif : qu’elle soit concurrentielle, réglementaire, commerciale, sociétale, réputationnelle,… la veille peut ainsi permettre d’identifier des (nouvelles) ressources et/ou compétences qui vont accroître l’avantage concurrentiel d’une organisation. Deuxième pilier de l’IE, à mi-chemin entre le défensif et l’offensif, la veille – qui n’est qu’un outil – est bien au service d’une stratégie (d’entreprise).

Enfin, l’avantage concurrentiel, facteur de différentiation doit être mis en avant et défendu afin que les parties prenantes de l’entreprise (fournisseurs, clients, partenaires, concurrents, etc.) agissent en faveur de ses intérêts : défendre ses atouts concurrentiels, les porter à la connaissance de son environnement, changer les comportements des parties prenantes de l’organisation, voilà les enjeux de la communication d’influence. Cette démarche résolument offensive est le troisième pilier de l’IE.

En somme, les trois piliers de l’IE s’avèrent indispensables à toute stratégie. Si la compétitivité est au cœur des débats actuels pour relancer l’économie française, l’intelligence économique aussi !

Veille : le profil des nouveaux usages

Le groupe de travail « Intelligence Economique et Economie de la Connaissance » du GFII a publié en juin dernier un opus instructif : « Nouveaux usages de la veille : 5 pratiques en émergence ». Un livrable élaboré à partir de données bibliographiques, de retours d’expériences de veilleurs dans les grandes entreprises, mais également d’éditeurs de logiciels pour croiser la vision des utilisateurs avec celle des fournisseurs de solutions. Et de comprendre comment ces acteurs voient leurs activités évoluer à 3 ou 5 ans…

  1. La veille en temps réel permet de capter un corpus d’informations, sans décalage entre le moment de la production de l’input, du signal et sa diffusion vers les médias. Une activité plutôt liée à la gestion de crise imposant une réaction la plus proche possible de la détection de l’événement. Ce type de veille s’impose, car le web est devenu un espace de prise de parole aplanissant l’espace-temps. D’une part, il s’agit de ne pas laisser passer l’information essentielle, de l’autre être en mesure de réagir immédiatement. Avec la multiplication des sources sous surveillance et donc des données récupérées, cette veille accroit un phénomène de saturation chez les professionnels de l’information (ou « information overload »)… Pour limiter cette saturation, il faudra pouvoir compter sur les progrès de la recherche sémantique afin d’ajouter du sens aux résultats par l’analyse des sentiments, mais également optimiser la lecture et le processus d’analyse de l’utilisateur grâce aux restitutions visuelles et autres graphes de corrélation.
  2. La veille sur les réseaux sociaux, des réseaux centrés sur l’individu et ses opinions : ici, la veille entre de plain-pied dans la collecte et l’analyse des données participant à la construction de la réputation d’entreprise et de marque, la prévention d’attaques réputationnelles, mais également le suivi d’actions marketing et de communication via les opinions exprimées ou encore compléter l’habituelle veille concurrentielle par une veille RH (LinkedIn, Viadeo…). Selon le groupe de travail, l’avenir de cette veille « sociale » va dans le sens d’une multiplication des connexions internes à l’entreprise comme avec l’externe, la capacité d’acquisition de l’information utile via la contribution d’un nombre croissant de collaborateurs aux processus de veille à travers les réseaux sociaux d’entreprise, la généralisation des outils de curation grâce auxquels chacun fera de la veille, la pratique d’une co-innovation par la veille des communautés hyper spécialisées, etc.
  3. La veille multimédia (blogs, journaux, vidéos, forums, réseaux sociaux, presse en ligne, etc.) afin de pouvoir veiller sur tous les supports ou types d’information (papier, électronique, télé, radio, etc.) à partir d’un seul outil et de faire ainsi une veille à 360°… Pour être efficace, c’est-à-dire filtrer les (seules) informations dont l’organisation a besoin, il faudra une centralisation des données issues de tous les supports sur des interfaces uniques. La progression des technologies de la reconnaissance vocale (speech-to-text) pour les données issues de la radio ou de la vidéo devrait être un levier majeur d’amélioration de la mise à disposition du multimédia dans des solutions globales…
  4. La veille multilingue hautement stratégique, car la compétitivité des entreprises dépasse souvent les frontières d’un pays, devant s’affranchir des barrières linguistiques (avec la difficulté de maîtriser les aspects culturels…). Il faut donc disposer d’un outil de veille multilingue particulièrement pointu : collecte et/ou surveillance de sources multilingues avec traitement des caractères latins, chinois, arabes etc., catégorisation automatique des contenus par langue, dictionnaires multilingues intégrés, interface multilingue de consultation personnalisable, moteur de recherche sémantique proposant des fonctionnalités de recherche cross-lingue permettant l’interrogation de corpus multilingues à partir d’une requête monolingue…
  5. La cartographie (et représentation visuelle) de l’information permet de structurer l’information et de représenter visuellement des stocks et des flux. Elle offre ainsi une manière pertinente de lire et d’analyser les données, facilitant ainsi le travail de synthèse et de capitalisation du veilleur. Sans oublier sa valeur prospective avec la détection d’indices, de signes, de signaux faibles utiles pour anticiper l’environnement, repérer les menaces et saisir les opportunités. L’avenir préfigure davantage de visualisation en temps réel, en 3D, avec des cartes multicouches, de la fouille de textes (text-mining)…

Ces tendances de fond – qui consistent en somme à veiller partout et tout le temps – mettent en exergue l’indispensable progression technique des outils automatisés de surveillance et de représentation. Mais elles soulignent surtout leur corollaire : la capacité humaine à analyser – avec diligence et intelligence – les informations utiles aux décideurs…

Quelques données sur les pratiques de veille en 2012

Digimind a publié récemment son « Baromètre des pratiques de veille 2012 » visant à cerner les tendances des entreprises en matière de veille stratégique. Même s’il faut toujours considérer ce genre d’étude avec prudence (en effet, la constitution de l’échantillon, la formulation des questions et le panel des répondants conditionnent fortement les résultats), il n’en demeure pas moins intéressant d’appréhender les principaux enseignements d’un point de vue qualitatif (et non quantitatif).

Ainsi, les répondants annoncent que la veille concurrentielle est l’un des axes clés de leur activité. Surveiller la concurrence est donc la problématique centrale traitée par les dispositifs de veille, avec l’anticipation des évolutions de leur secteur d’activité et la surveillance de menaces potentielles.

Le manque de temps et de ressources humaines sont les obstacles majeurs des cellules de veille stratégiques, sans oublier les contraintes budgétaires et l’identification des sources pertinentes. Parmi ces sources, la presse en ligne, les magazines, les sites web des entreprises et les agrégateurs d’actualité sont surveillés quotidiennement, au détriment des forums et des groupes de discussions. Mais aujourd’hui, la grande majorité des répondants suivent les réseaux sociaux (Twitter, Facebook et LinkedIn) pour trouver de l’information relative à leurs concurrents, aux évolutions de leur secteur d’activité, aux tendances de consommation, etc.

Le nombre d’heures moyen consacrées à la recherche d’informations sur le web est de 15 h par semaine, certaines cellules de veille passant jusqu’à 70 heures sur cette seule activité… Pratiquement tous les répondants utilisent des moteurs de recherche généralistes comme Google et Bing pour collecter de l’information stratégique. Beaucoup utilisent également des agrégateurs de flux RSS comme Google Reader et les agrégateurs d’actualité comme Factiva et Lexis Nexis. Mais seulement la moitié des répondants déclarent utiliser un logiciel de veille intégré. Quant à la diffusion de l’information stratégique au sein d’une organisation, la méthode préférée demeure l’e-mail, devant la rédaction de rapports et les réunions.

En conclusion, le baromètre souligne que la grande majorité des répondants semblent satisfaits de la performance de leurs équipes, ce qui explique sans doute que beaucoup d’entre eux déclarent planifier en ce moment des projets de veille stratégique. Pour le moins, voilà qui souligne l’importance croissante de cette activité pour les organisations…

Internet : les sites dominant le monde

Quels sont les outils de recherche qui dominent l’internet d’aujourd’hui ? La carte publiée ici représente l’état des forces concurrentielles en présence. Résultant de l’analyse du site classé en première position dans chaque pays par Alexa (une entreprise américaine fournissant des statistiques sur le trafic du web mondial), elle révèle quelques surprises : d’abord, Facebook ne domine pas les deux continents américains, ni même l’Europe… au profit de Google. Logiquement, Yandex en Russie et Baïdu en Chine s’imposent dans leur univers linguistique respectif. Quant à @mail, il s’agit d’un portail et moteur de recherche russe dominant au Kazakhstan et en Ouzbékistan. Ensuite, l’autre grande surprise est la prédominance de Yahoo! au Japon et… au Cameroun. Enfin, Facebook se taille la part belle en Afrique, un choix plutôt logique vue l’approche communautaire de nos amis africains. En somme, à part quelques particularités régionales, la domination des compagnies américaines est imposante, confirmant l’hégémonie de l’univers anglo-saxon et par conséquent de l’anglais. Outil de recherche et de veille, internet se révèle être aussi un formidable outil d’influence culturelle…

Médias sociaux : 6 profils d’internautes américains

Souvent réducteurs, parfois caricaturaux, les profils de consommateurs identifiés par les études de marché n’en demeurent pas moins intéressants. Ne serait-ce que pour explorer et analyser des tendances de comportements.

Le livre blanc publié par Aimia sur les utilisateurs américains des médias sociaux (« Identifier, comprendre et influencer les utilisateurs des médias sociaux ») vaut le coup d’œil surtout parce que les tendances observées outre-atlantique préfigurent souvent ce qui se passe ailleurs, plus tard.

Aimia a d’abord conçu un modèle censé représenter l’usage des médias sociaux selon 2 critères : le niveau de participation et le niveau d’exposition de l’internaute. L’idée sous-jacente : plus l’internaute a confiance dans les réseaux sociaux, plus il y participe (confiance = participation) ; et plus l’internaute pense maîtriser son activité sur les médias sociaux, plus il s’engage sur divers réseaux sociaux (maîtrise = exposition).

A partir de ce modèle, Aimia a retenu 6 profils différents d’internautes (américains) :

Le « No shows » : en moyenne 65 ans, revenus de 30 000 $, diplômé d’études secondaires, vivant seul, ne participant à aucune forme de média social ; il ne voit pas l’intérêt des médias sociaux…

Le « Newcomer » : 39 ans, revenus de 75 000 $, ayant fréquenté une université, marié, 2 enfants, utilisant Facebook et YouTube, connecté presque tous les jours, principalement observateur, publiant peu. Il est là pour rester en contact avec ses amis et retrouver d’anciennes connaissances…

Le « Onlooker » : 36 ans, 85 000 $, diplôme universitaire, marié, 2 enfants, connecté chaque jour, utilisant Facebook et YouTube, consommant du contenu via divers réseaux, mais partageant peu ; il est sur les médias sociaux pour se reconnecter avec des personnes et observer le comportement d’autres…

Le « Cliquer » : 47 ans, 95 000 $, diplômé de 3e cycle, marié, 1 enfant, utilisant Facebook et YouTube, connecté chaque jour, engagé activement sur un réseau auprès d’un cercle restreint d’amis (et la famille) ; il est principalement sur Facebook pour publier des photos et commenter les vidéos et photos d’amis…

Le « Mix-n-Mingler » : 27 ans, 95 000 $, diplômé de 3e cycle, marié, 1 enfant, utilisant Facebook, Twitter et LinkedIn, connecté plusieurs fois par jour, et activement engagé sur plusieurs réseaux sociaux auprès de divers groupes ; il est là pour échanger avec les amis et la famille, y compris de nouvelles personnes rencontrées en ligne…

Le « Spark » : 24 ans, 80 000 $, poursuivant des études, vivant avec en couple, utilisant Facebook, Twitter et les blogs, toujours connecté, utilisant divers médias sociaux. Il est présent pour échanger continuellement avec ses amis et de nouveaux contacts. Les médias sociaux lui permettent d’affirmer sa personnalité et de s’amuser…

A partir de cette segmentation, Aimia suggère que les entreprises peuvent mieux cibler leurs investissements marketing en construisant des relations clients fondées sur le comportement des internautes vis-à-vis des médias sociaux…

« Opinions en ligne » : le débat est ouvert

Opinion mining et sentiment analysisAvec leur livre numérique “Opinion mining et Sentiment analysis – Méthodes et outils” (openedition press – mars 2012), Dominique Boullier et Audrey Lohard font le point (à fin 2011) sur les offres technologiques et commerciales concernant « la fouille de l’opinion »(1) et « l’analyse des tonalités »(2) des verbatims recueillis sur le web. Dans la logique du web 2.0 qui est au cœur de leur investigation, le médialab de Sciences Po et openedition press inaugurent aussi une nouvelle méthode de production de livres augmentés : en effet, chercheurs, marketeurs, informaticiens, professionnels des études, etc. peuvent contribuer à nourrir leur réflexion en contribuant à ce livre numérique.

Sur le fond, il soulève beaucoup de questions liées aussi bien au recueil qu’à l’analyse et à l’interprétation des verbatims recueillis sur le web. La liste serait trop longue tant l’ouvrage est dense et soutenu par de nombreuses références. Partant de l’historique et de l’état du marché – très convoité – de « la fouille de l’opinion » sur le web, les auteurs soulignent notamment la difficulté d’évaluer la pertinence des solutions avancées par les prestataires de services, les éditeurs d’outils logiciels ou les solutions en ligne pour l’analyse automatique. L’ouvrage fait aussi le point sur les controverses autour de l’analyse des tonalités des propos exprimés sur le web. Autrement dit, il résume les débats liés au traitement automatique des langues (TAL) face à la complexité du langage humain pour une machine. En outre, les auteurs expliquent clairement – et longuement – l’importance du choix et de la constitution de bouquets de sources, ainsi que la mesure de leur « influence » respective, pour constituer et traiter un « corpus » de travail. Concernant la « fouille de l’opinion » et l’analyse des tonalités (opinions positives, négatives, neutres), les auteurs assènent qu’on ne peut faire trop confiance à la machine pas plus qu’on ne peut trop se fier à l’humain, tant l’une et l’autre sont susceptibles de se tromper : « La controverse selon laquelle les ordinateurs ne pourront jamais aussi bien comprendre le langage que les humains, et ne fourniront donc jamais d’aussi bons résultats en matière de classification des sentiments que les analystes humains, sous-entend une évidence supposée partagée. Celle que tout humain confronté à l’expression d’un sentiment l’interprétera de la même manière qu’un autre humain. Pourtant, plusieurs études semblent remettre en cause cette évidence supposée. » (…) « Des annotateurs humains n’attribuent pas toujours la même polarité. Leur précision n’est pas de 100 %. Ils remarquent aussi que plus la polarité des mots est forte, plus les annotateurs seront d’accord entre eux et leur attribueront la même polarité« . Et de conclure : « C’est pourquoi les demandeurs de solutions d’analyse de sentiment doivent clairement choisir entre deux priorités : soit obtenir un résultat grossier très rapidement, pour un usage quasi immédiat en vue de social media monitoring, soit rechercher une plus grande fiabilité de la réponse en analyse de la tonalité qui sera nécessairement plus longue« . A méditer.

Informatique, linguistique, sciences politiques, sociologie, etc. la « fouille de l’opinion » et l' »analyse des tonalités » est à la croisée de nombreuses disciplines. Sans oublier le marketing, la communication, la veille, l’influence… Un sujet d’avenir à l’aube du web sémantique.

(1) Opinion mining – (2) Sentiment analysis

La D2IE en soutien à l’innovation

Entre la sortie d’un libre blanc pour la recherche, et la signature de conventions avec l’INPI et l’AFNOR, le printemps est riche pour la Délégation interministérielle à l’intelligence économique (D2IE).

Sorti le 14 mars dernier, « le guide de l’intelligence économique pour la recherche » est destiné aux chercheurs publics (universités, écoles, organismes de recherche et fondations). Par la diffusion de bonnes pratiques, cet ouvrage compte, d’une part mieux valoriser l’innovation afin de réduire le fossé entre la sphère universitaire et la sphère industrielle ; d’autre part, contribuer à la protection de cette innovation contre le « captage ». En effet, le secteur de la recherche serait devenu – en 2011 – d’après Olivier Buquen, le responsable de la D2IE, le deuxième secteur pillé derrière l’aéronautique, alors qu’il ne serait jamais apparu dans le top 5 jusqu’à présent…

Dans sa préface, Laurent Wauquiez, Ministre de l’Enseignement supérieur et de la Recherche, écrit  : « La recherche publique est le principal vecteur de création de savoir et joue à ce titre un rôle primordial pour l’économie d’un pays » ; il rappelle en outre que ces dernières années, le gouvernement a consacré 22 milliards d’euros au travers du programme d’investissements d’avenir pour le renforcement de la productivité, l’innovation, l’accroissement de la compétitivité et l’emploi, lancé le 14 décembre 2009.

Une semaine après, le 20 mars, le Ministère de l’Industrie, de l’Energie et de l’Economie numérique, signait trois conventions bilatérales entre la Délégation interministérielle à l’intelligence économique, l’Institut national de la propriété industrielle et le Groupe AFNOR afin de renforcer leur coopération en matière de la sensibilisation des entreprises et des établissements de recherche aux problématiques sur lesquelles elles interviennent.

Ces conventions sont définies autour de 3 axes :

  • l’accompagnement des entreprises – en particulièrement les PME – dans leur démarche d’innovation (protection et diffusion) ;
  • le développement d’actions de sensibilisation, de formation et d’outils pédagogiques communs ;
  • le renforcement de leur coopération en matière de prospective et de veille stratégique, au travers d’échanges d’informations plus systématiques.

Deux événements qui illustrent le renforcement de la politique d’intelligence économique, inscrit dans la circulaire du Premier ministre du 15 septembre 2011, et qui s’est déjà illustré par :

  • la définition et la mise en œuvre d’une politique d’intelligence économique dans les pôles de compétitivité ;
  • l’adoption en janvier 2012, par l’Assemblée nationale, d’un dispositif de protection du « secret des affaires » ;
  • le lancement, également en janvier 2012, d’un plan d’actions pour mieux défendre les intérêts français dans la « bataille des normes ».
Soulignons que la doctrine d’intelligence économique française, caractérisée par une forte implication du gouvernement, demeure un modèle original qui intéresse d’autres pays, et notamment la Chine

Sources : Les Echos et le communiqué de presse du 20/03/12 du Ministre chargé de l’industrie, de l’énergie et de l’économie numérique

Terres rares : la menace chinoise

Si les pays de la « vieille Europe » ont pris tardivement conscience de la valeur stratégique de leurs terres agricoles suite à la convoitise de puissances étrangères, la Chine a su quant à elle évaluer les enjeux de ses « terres rares ». Pourtant, même si nous parlons de ressources naturelles, il ne s’agit pas des mêmes enjeux.

Les « terres rares » regroupent en fait 17 métaux difficiles à exploiter (le terbium, le lanthane, l’yttrium, l’europium, le néodyme, etc.), utilisés dans la fabrication de produits de haute technologie tels les aimants d’usage courant (présents dans les batteries, téléphone portables, ordinateurs, voitures hybrides, éoliennes, etc.). L’enjeu serait de bien moindre importance si l’équation se limitait à la difficulté d’exploitation et à leurs applications. Seulement, dès 1992, le Président Xiaping fût visionnaire en soutenant l’exploitation de ces gisements sans aucun souci du respect des normes de l’environnement. En vingt ans, la Chine est alors devenue le premier producteur devant les Etats-Unis avec 90% de la production mondiale. L’enjeu aujourd’hui est de taille : la Chine limite l’exportation de ces métaux dits « terres rares » depuis 2005 au travers de quotas. Entre 2005 et 2010, les exportations ont chuté de 60 000 tonnes à 30 000 tonnes, alors que la demande mondiale passait de 46 000 tonnes à 50 000 tonnes. Le prix de certains de ces métaux ayant même été multiplié par 1 000 sur la même période. Face à cette menace, une action a été lancée devant l’OMC par plusieurs pays industriels, dont les Etats-Unis, afin de critiquer le non-respect des règles de la libre-concurrence. La Chine, qui vient d’être condamnée par l’OMC suite au blocus d’autres métaux non-rares, met désormais en avant l’argument de la très forte pollution de l’exploitation de ces gisements (déchets radioactifs, acides très puissants, etc.) pour se défendre, espérant garder ainsi la main sur un marché dont elle détient 47% des gisements (les autres étant répartis partout dans le monde.); ce qui lui permettrait de renforcer sa position dans la production de produits à haute valeur ajoutée.

Les pays importateurs – qui pourraient être plus autonomes en la matière – devront encore être patients puisqu’il faudrait entre 5 à 10 ans pour faire les études permettant l’exploitation d’éventuels gisements. Une avancée stratégique de la part de la Chine qui reflète son rapport au temps et illustre la nécessité d’élaborer des stratégies à long terme, dans un monde où le court-termisme, voire l’immédiateté, l’emporte de plus en plus au dépens des équilibres géopolitiques.

Source : Libération

Métiers : le jeu des sept familles de l’Internet

Acquérir des repères, disposer d’une cartographie facilitent l’appréhension d’un territoire, réel ou virtuel. Les activités et les métiers de l’Internet sont aujourd’hui pléthores et en constante évolution. D’où le mérite du site http://www.metiers.internet.gouv.fr/ qui met à disposition du plus grand nombre une représentation des familles des métiers de l’Internet (voir le schéma illustrant cet article, issu du site gouvernemental).

Ces métiers sont regroupés en 7 sept familles, comme le jeu du même nom :

  • « Conception et gestion de projet » (conception et/ou conduite de projets numériques) ;
  • « Interface et création numérique » (conception et réalisation graphique d’interfaces web) ;
  • « Programmation et développement » (conception technique et programmation de services web) ;
  • « Production et gestion de contenu » (recherche, production et gestion éditoriale des contenus sur le web – texte, image, vidéo, animation,…) ;
  • « Communication et marketing » (optimisation de la présence des entreprises via des campagnes de communication et/ou de publicité en ligne) ;
  • « Infrastructure et réseau » (conception, mise en œuvre, gestion et maintenance des réseaux informatiques) ;
  •  « Formation et assistance » (accès aux services numériques).

En cliquant sur chaque famille, vous découvrirez les fiches métiers et, pour chacune, les formations, les ressources (sites, blogs pour en savoir plus), les contributeurs (ayant participé à l’élaboration de la fiche métier) et les commentaires des internautes.

Autant dire une mine d’informations, utile aux professionnels comme aux novices, aux étudiants comme aux entreprises.