Vous êtes ici : Accueil > Blogs

BLOGS


Accord Hachette Google. Vers la fin de l'opt out ?


Recul de Google ? Certainement pas. Frein à la politique publique ? Non plus. On peut d'ailleurs s'étonner de la réaction ministérielle ; le vent du numérique ne doit pas faire oublier que l'économie du livre relève du marché. Un marché qui a ses spécificités, mais un marché tout de même. Et c'est dans l'articulation vertueuse entre ce marché et une politique publique centrée sur ce que ce dernier ne sait pas faire, subventions à l'édition de livres difficiles, soutien aux librairies indépendantes, régulation destinée à sauvegarder le tissu des librairies, que la réussite de la politique du livre s'est fondée. Lorsque la négociation privée peut conduire à un accord qui améliore le sort des livres et surtout la diffusion des textes et des savoirs, pourquoi s'en inquiéter ?

L'accord porte sur les livres qui ne sont plus commercialisés. C'est à l'éditeur que revient le choix des livres qui seront numérisés. En d'autres termes, une brèche est ouverte dans le système permis par le droit américain de l'opt out. L'opt out oblige les ayants droit à signaler leur éventuelle opposition à la numérisation de leurs ouvrages, un peu comme si la charge de la preuve devait revenir à celui qui subit le préjudice. Dans le cadre de l'accord, l'autorisation ou le refus de numériser seront donnés en amont du processus plutôt qu'ex post. On sort de même de l'interprétation américaine du fair use qui permettait à la firme américaine de scanner de larges extraits de livres sans se soucier de l'avis des auteurs et de leurs ayants droit.

L'éditeur sélectionnera la liste des ouvrages concernés, sur proposition de Google qui s'engage à notifier chaque trimestre quels livres il souhaite numériser. Google disposera, selon les cas, soit du droit d'indexer le fichier à des fins de promotion, soit de celui de le commercialiser sur sa plate-forme Google Livres (puis la future plate-forme Google Editions). Hachette prévoit que la Bibliothèque nationale de France bénéficie de même des fichiers des œuvres qui auront été numérisées.

La rémunération des ayants droits est prévue. Les fichiers des œuvres numérisées par Google seront commercialisés sous forme d'e-books ou d'autres formats électroniques. Hachette pourra en disposer en vue de les exploiter.

Hachette conserve le pouvoir de fixation du prix. Google et Hachette partageront les revenus des ventes selon une règle non précisée. Aux Etats-Unis, Google perçoit 37 % du prix et les ayants droit le reste.

Les gains financiers ne seront pas très élevés. Les enjeux sont ailleurs. Ce sont les suites de cet accord et la manière dont il en enclenchera d'autres, soit entre Hachette et Google, soit avec d'autres partenaires, qui devront être regardées de près. L'accord met déjà les éditeurs français dans une position plus confortable que celle des éditeurs américains, moins protégés par le droit d'auteur dans sa double composante, patrimoniale et morale. Notons au passage qu'aux termes d'un autre accord, les filiales américaines d'Hachette ont accepté que leurs nouveautés soient présentes sur la plate-forme de vente de livre numérique Google Editions, quand elle ouvrira. Un accord qui organise la possibilité de la résurrection pour des livres enterrés ? Ne boudons pas notre plaisir. La puissance du moteur de recherche Google permet d'espérer toucher un public élargi, sous réserve de l'intérêt des livres en question ; mais ce sera in fine au public d'en décider, et cela n'est pas négligeable.

La question qui reste la plus difficile est celle des libraires, qui se trouvent de plus en plus encerclés par les acteurs de la vente au détail de demain. L'accord ne porte pas sur les livres les plus vendus par les libraires ; il n'est qu'un épisode de l'histoire de la librairie à l'heure du livre numérique, et sans doute pas un des plus menaçants. Mais il n'empêche : on voit bien qu'un autre monde se dessine dans lequel la part de marché de nombre de libraires ne saurait qu'être diminuée.

Selon Eric Pfanner et David Jolly du New York Times, ce sont 75 % des livres édités dans le monde qui appartiendraient à cette catégorie des livres sous droit mais non commercialisés. On ne peut s'empêcher de penser à tout ce vocabulaire : livres épuisés, livres orphelins, livres oubliés, livres ressurgis. Une délicieuse inventivité littéraire.
22/11/2010




Le salon de l'automobile s'apprête à fermer ses portes


Le salon de l’automobile a fermé ses portes. La question la plus lancinante fut celle de l’automobile du futur, la voiture électrique. Pour Vincent Bolloré, la voiture électrique doit assez vite représenter « 10 à 15% du marché mondial ». Il est vrai qu’il doit lancer prochainement sa voiture électrique, la « BlueCar ». Pour le patron du constructeur allemand Daimler, on atteindra environ 5% des ventes totales en 2020.

 

Les prévisions n’engagent pas même ceux qui les avancent.

Les modèles de voitures électriques sont nombreux, peut-être en surnombre, et certains entendent marcher sur les deux jambes –ou plutôt rouler sur les deux roues, avec des hybrides comme chez Toyota et Honda.

Les constructeurs peinent à se mettre d’accord sur des normes communes (systèmes de recharge notamment).

Pourtant, le marché se développe et il convient d’y prendre place rapidement.

Qui penserait à oser une analogie avec le livre numérique, ce petit marché qui occupe toutes les têtes, mobilise les conversations, que les acteurs économiques abordent en désordre, et dont les enjeux dépassent le cadre de nos débats nationaux ? Tout y est différent, bien sûr, sauf ce voile d’inquiétude et ce soupçon de changement qui trottent dans les têtes.

19/10/2010




La neutralité des réseaux


La question peut sembler technique, et elle l'est. Mais elle est aussi politique et sociétale. Parler de neutralité des réseaux, c'est en effet considérer que l'Internet est un bien collectif stratégique dont l'accès doit être permis à tous et dans des conditions analogues. Cela va-t-il de soi ? Non, dès lors que des questions d'encombrement et de coûts empêchent la mise en œuvre naturelle de cet accès égal pour tous.

A l'heure du « grand basculement » du livre vers le numérique, cette question de l'accès prend une coloration qui ne doit pas laisser les acteurs de la chaîne du livre indifférents.

Lors d'un colloque organisé par l'Arcep (Autorité de régulation des communications électroniques et des postes) sur la neutralité des réseaux, le président de l'autorité de régulation, Jean-Ludovic Silicani, rappelait que la saturation des réseaux mobiles à certaines heures pouvait inciter les opérateurs à brider les débits disponibles pour les utilisateurs sans avoir à s'en expliquer. La gestion du trafic, indispensable, peut se faire de façon discriminatoire, ou encore passer par une dégradation du service. C'est un peu comme sur une autoroute : si vous décidez de réguler la circulation, vous pouvez créer des files d'attente chez les automobilistes, interdire le trafic à certaines heures et à certaines catégories de véhicules, organiser l'attente, et tout cela soit en toute transparence, soit en catimini. On peut aisément démontrer qu'il est légitime d'interdire les camions le week-end et illégitime d'interdire certaines marques d'automobiles. Mais ce qui va de soi en un domaine comme celui de l'automobile est bien plus délicat à préciser lorsqu'il s'agit de tuyaux et de contenus sur le Net.

Le sentiment délicieux de l'infinie capacité du réseau et de sa gratuité est bien entendu fallacieux. La saturation de la bande passante est une question grave. Dominique Roux, professeur d'économie à Paris IX-Dauphine, écrivait dans les Echos (30 décembre 2009) : « Partout dans le monde, on assiste à une explosion de la consommation de contenus numériques et de ce fait on commence à craindre sérieusement une saturation des réseaux. Youtube, par exemple, utilise actuellement à lui seul toute la bande passante que l'on consommait sur Internet il y a 8 ans à peine. Pour le célèbre constructeur de réseaux I/P Cisco, on s'attend à une croissance annuelle du trafic de 200 à 300 %, voire de 300 à 500 % au cours des prochaines années. » Yves Gassot, directeur général de l'Idate (Institut de l'audiovisuel et des télécommunications en Europe), prévoit une croissance un peu plus lente, de l'ordre de 40 à 60 % par an, absorbée de deux manières : d'une part par l'amélioration de l'infrastructure, d'autre part par la mise en place d'une différenciation des services.

Comment gérer l'encombrement ? Faut-il être neutre ou discriminatoire ? Et, dans la deuxième hypothèse, comment discriminer... avec justice et transparence ? En arrière-plan de cette question, on rencontre celle du partage de la valeur entre opérateurs de réseaux et fournisseurs de contenus, ainsi que de leurs contributions respectives au financement des réseaux. La priorité de l'accès passe-t-elle par la capacité de contribuer au financement ? Non, car l'économie n'est pas nécessairement... homothétique au besoin social.

L'économiste Nicolas Curien, membre de l'Arcep, note en conséquence que la neutralité ne saurait exister et qu'il vaut mieux se référer à la quasi-neutralité des réseaux. C'est-à-dire le plus de neutralité possible compte tenu des contraintes existantes, et cela sous le contrôle du régulateur.
28/09/2010




La presse écrite ne vaudrait-elle plus rien ?


L’affaire de la recapitalisation du Monde est à un moment décisif. Quatre repreneurs potentiels se sont déclarés. Un milliardaire russe, Gleb Fetissov, propriétaire du groupe bancaire Ma banque, le groupe Revenu Multimédia de Roger Monteux, et surtout les offres respectives Perdriel-Orange-PRISA et Bergé-Pigasse-Niel (patron de Free).
On ne s’attardera pas sur les côtés politiques de l’affaire. En revanche plusieurs remarques sont à faire.

1.   Si Orange reprend la participation de Lagardère dans Le Monde interactif (34%) pour 33 millions d’euros, c’est que la valorisation de cet actif est de l’ordre d’une centaine de millions d’euros. Or l’injection d’une centaine de millions d’euros par le repreneur lui permettrait de détenir 67% du capital du groupe ; à l’inverse de la reprise des parts de Lagardère dans Le Monde interactif, cet argent est apporté au groupe Le Monde lui-même et vient en accroître la valeur. Cela signifie que le groupe, avant cet apport, est évalué à 50 millions d’euros environ. Comme il détient 66 % du Monde interactif, pour une valeur de 66 millions, il en résulte que le groupe Le Monde, hors Le Monde Interactif, a une valeur négative ! L’ensemble constitué par Le Monde, Le Monde diplomatique, La Vie, Telerama et une partie de l’imprimerie (détenue avec Le Parisien) vaudrait moins que zéro…

Cette dévalorisation de la presse et de ses marques est confondante.

2. La présence du secteur des télécom dans les deux principaux scenarii de reprise (Orange et Free) est le symptôme du glissement du pouvoir culturel et médiatique vers ce secteur. La force de frappe de l’industrie des tuyaux mettra un jour en question la  place actuelle de l’industrie des contenus et, si l’on n’y prend garde, jusqu’à son identité. Les acteurs économiques du livre ne sauraient regarder cela dans l’indifférence. Pour France télécom, cet investissement de quelques dizaines de millions compte à peine ; les investissements de l’entreprise se comptent chaque année en milliards d’euros, dont 400 millions de dépenses annuelles « dans les contenus », selon Stéphane Richard, qui dirige France-Télécom.

3. On peut s’étonner de l’absence de Murdoch, pourtant toujours à l’affût d’une bonne prise dans le secteur des médias. La France serait-elle de venue si petite et provinciale, en foot comme ailleurs, qu'elle n’intéresserait pas les magnats de la presse ?

A l’heure où on nous explique que l’iPad vendra des livres et sauvera la presse, mon scepticisme est entier.

22/06/2010




Loi sur le prix unique. Les mots pour le dire


Lorsque le 30 juillet 1981, Jack Lang, Ministre de la culture, défend la loi devant le Sénat, il prend distance vis-à-vis des préoccupations économiques : « Le débat de ce jour dépasse, et de loin, l’ordre de la seule économie, même si ce projet de loi répond à des préoccupations économiques ». Il avance cet argument qui reviendra souvent : « Le livre n’est pas un produit comme les autres ; c’est une création de l’esprit, une des plus nobles créations de l’esprit et de l’imaginaire et qui, en tant que telle, ne saurait être soumise sans une protection particulière à l’unique loi du marché ». Devant l’Assemblée, il généralise le propos : « Refuser d’abandonner le prix des biens culturels aux lois destructrices du marché, tel est l’un des soucis du Gouvernement, pour le livre comme pour d’autres activités culturelles » (Assemblée nationale, 2è séance du 30 juillet 1981).

Au cœur de la loi, il y avait la reconnaissance des services en qualité, l’acceptation par le détaillant des commandes unitaires, la prise en compte par l’éditeur ou le diffuseur du service d’accueil, de conseil, de la richesse du fonds, de l’offre de nouveautés, etc. afin de fixer le montant des remises. La loi de 1981 devait protéger la densité du réseau des détaillants afin de préserver la diffusion de la création et la diversité culturelle. Elle a permis d’assurer l’offre de livres en tous points du territoire et au même prix ; elle a organisé indirectement le soutien à l’édition de livres difficiles.

Ironie de l’histoire, le rapport Chetochine avait évoqué avant l’adoption de la loi de 1981 l’idée de partager le marché du livre en deux sous-ensembles distincts : celui des livres difficiles à rotation lente (livres « push ») et celui des livres à écoulement plus rapide, plus ou moins prévendus (livres « pull ») ; cette vision a failli conduire à l’éventuelle mise en place d’un double secteur, à la manière de ce qui se pratiquait au Royaume-Uni (sous le Net Book Agreement, un double système était en place, l’éditeur choisissant pour chaque titre produit le prix libre ou fixe, mais en pratique, le prix libre ne concernait que quelques catégories de livres), avec un secteur protégé comportant des ouvrages difficiles sous régime de prix imposé par l’éditeur, et un secteur considéré sous régime de prix libre, constitué des livres pratiques et des best-sellers. Les difficultés de toutes sortes liées à l’application d’un système à deux vitesses sur la base de deux critères qui ne coïncident pas nécessairement, le marché potentiel et une appréciation sur la qualité, conduisirent le législateur français à traiter toutes les catégories de livres de la même manière – mis à part les manuels scolaires.


Hier on s’inquiétait de l’emprise des Leclerc, aujourd’hui on se méfie des Google et Amazon.

Sur certains points, les temps n’ont pas changé. Le discours est plus direct : défense de la librairie, meilleur vecteur de la préservation de la diversité culturelle, et maitrise du prix par l’éditeur. En revanche, le danger a changé de visage ; il a l’allure du virtuel, qui est partout sans être nulle part, qui revêt le don d’ubiquité, et qui a des incidences bien réelles. Hier on s’inquiétait de l’emprise des Leclerc, aujourd’hui on se méfie des Google et Amazon. En changeant de visage, la menace est-elle de même nature, et passe-t-elle par les mêmes armes de dissuasion ? Quant à l’idée de partitionner le marché, elle a changé de registre ; quel sens revêt-elle ?

Sur la loi, l’argument de la protection de la diversité culturelle demeure. Mais ses armes se déplacent. Le libraire demeure au cœur du dispositif, mais un effet de longue traine pour le numérique peut brouiller le message. Il est fort possible de démontrer que la diversité permise par la vente numérique est supérieure à celle que permet la vente physique. La question est de savoir quels libraires (qu’ils soient numériques ou « physiques », ou les deux à la fois) seront à même d’aider le lecteur/acheteur à opérer ses choix. La diversité offerte ne peut être supérieure dans un magasin à celle que la distribution numérique permet ; mais quelle structure de vente et de conseil permet la plus grande diversité effectivement consommée ? C’est à l’observation empirique de la réponse à cette question qu’il est essentiel de s’atteler. On est renvoyé aux structures d’information, aux voies de l’accès au livre, aux nouvelles formes de prescription (blogs, communautés d’internautes, etc.), et à l’évolution du métier de libraire.

Quant à la partition du marché, elle n’a plus rien à voir avec la précédente, mais elle demeure un sujet redoutable. Au clivage entre le livre papier et le livre numérique, on se propose de substituer un clivage entre livre papier ou homothétique et livre « augmenté » (pour éviter le terme « enrichi » ?). Le livre dit homothétique, à contenu informationnel inchangé, a l’avantage de l’évidence. Il est un livre  – quoiqu’en prétendent les fiscalistes européens-, presque égal à celui qui lui a préexisté, qui en mérite les avantages et les traitements préférentiels. C’est l’outil idéal de la rétroconversion des catalogues.

Mais l’éditeur qui aura travaillé à l’enrichissement de ce livre initial, Proust et ses grands commentaires, Perec et le renvoi aux textes des manifestations qui ont rendu hommage à sa singularité, que dis-je, la crise des subprimes augmentée d’un focus sur les grands textes sur la spéculation de Keynes à Schiller, pour rester dans l’ordre des textes, cet effort apporté à l’édition, qui relève du développement du marché et du service offert au lecteur/acheteur, comment devra-t-on le traiter ? Pourra-t-on se prêter à des renvois et des ajouts, qui sont l’essence même du numérique, sans risquer de basculer dans le champ du non-homothétique ? Comment gérer cette autre dualité sans brider le développement du marché ? L’observation empirique de la réponse à cette deuxième question est indispensable. Elle conduit à préconiser la prudence dans l’adoption d’un outil législatif, fiscal et réglementaire. D’un côté, il faut lutter contre toute forme de braderie et de dévalorisation des œuvres, et de l’autre, il faut se doter de tous les atouts possibles pour le développement de la recherche et celui du marché.

Au-delà de l’adoption du meilleur (ou du moins mauvais) corpus de textes législatifs et réglementaires, un grand plan d’investissement pour le livre numérique scolaire est un des leviers du développement du livre numérique. Le grand emprunt le permet. Il ne faudrait pas passer à côté de cet impératif – utiliser un peu du grand emprunt pour ce plan destiné aux écoles-, qui aurait l’avantage d’inciter les éditeurs à la recherche-développement et de contrebalancer les inconvénients d’un système législatif à deux vitesses pour le numérique. D’autres programmes seront indispensables.

Je fus frappée aux Etats-Unis par la magnifique inventivité qui se nourrit des potentialités du numérique. Il ne faudrait pas que la maigre (ou plutôt la fausse) inventivité du législateur européen, qui renvoie le numérique à l’ordre du service et le livre à l’ordre des biens, clivage lui aussi si contesté par la réalité, ne nous oblige à bâtir des règles qui affaiblissent un marché que d’autres sauront développer. 

04/05/2010




Les modèles économiques du numérique. Quelques réflexions face au monde qui se transforme


D’emblée, le terme embarrasse. Le terme « modèle » suppose l’identification d’une structure de coûts, d’un système de fixation des prix et d’une organisation industrielle stabilisés. Nous en sommes loin. La phase actuelle est celle de l’expérimentation et de l’investissement dans l’incertain.
D’une part, les comportements des utilisateurs précoces ne doivent pas être extrapolés ni être considérés comme représentatifs des usages futurs.
D’autre part, les stratégies de certains acteurs visent à se positionner sur le marché, à en capturer une part significative, bien plus qu’à dessiner des politiques de prix qu’il conviendrait de tester puis d’établir. Ajoutons que les coûts du livre numérique sont noyés, en quelque sorte, dans les fonctions assurées par les éditeurs. Le coût du numérique est pensé comme un coût additionnel, dans une chaine du livre centrée sur le papier.

Six tendances sont en œuvre ou susceptibles d’apparaitre :
- Une tendance à la concentration industrielle, les investissements requis se faisant en l’absence de perspectives d’amortissement à horizon proche
- Un effet d’externalités de réseaux, dans la logique du winner-take-all : les premiers arrivants disposent de positions qui s’auto-renforcent
- Un effet d’externalités dérivées, dans le cadre d’une économie de services : le livre numérique fait basculer l’univers du livre dans une logique de services associés, même si toute l’offre numérique n’a pas vocation à rejoindre ce schéma
- Un partage de la valeur ajoutée qui favorise les plus puissants des acteurs de l’amont de la filière livre
- L’arrivée de nouveaux entrants décidés à s’arroger une part de la valeur créée
- Des alliances potentielles entre acteurs de l’écrit (presse et livre) ou entre acteurs du jeu et de l’écrit (Nintendo-Gallimard par exemple).


C’est dans un tel contexte que deux grandes lignes de clivage se forment, qui permettent de dresser une typologie de modèles.
- d’une part, celle qui oppose les modèles de consommation traditionnels, d’achat à l’unité, basés sur des prix en miroir des prix du papier et des modèles de consommation nouveaux (par bouquets, packages, ou au contraire par morceaux), renvoyant à des structures de prix qui demeurent à inventer 
- d’autre part, celle qui oppose les scénarios de rente technologique (associés au verrouillage des consommateurs) et les scénarios d’interopérabilité.

Tout un continuum de situations se forme à partir de ce schéma ; les stratégies de protection contre le piratage diffèrent d’un acteur à un autre. Il faut y ajouter la prise en compte de l’inégale propension des différents segments de marché à glisser vers le mode numérique. Et l’incontournable nécessité du « hub » pour réduire les coûts de la distribution et de la vente numériques.

La figure de l’auteur se transforme, autour d’une sorte de noyau dur et de référent historique, en quelque sorte : à la périphérie de l’auteur traditionnel, on rencontre le consommateur-auteur et le consommateur prescripteur, dans un jeu de déconstruction des frontières entre les rôles respectifs des acteurs de l’écrit. Le livre lui-même devient autre ; on lui ajoute par petites touches des commentaires, des images, des sons et même des jeux. Où donc est le livre homothétique ?

Et tandis que la bibliothèque se confirme comme un acteur économique à part entière, la figure du libraire s’efface, ou bien se redessine : l’avenir est incertain pour celui qui fut et demeure le pilier du monde dit d’hier, mais qui n’a pas prononcé le dernier de ses mots.

La politique du livre ? Comment ne pas la repenser, dans ses cinq modalités jusqu’alors inséparables : la lecture publique, l’aide aux projets difficiles, le respect de la propriété intellectuelle, la loi sur le prix unique, la fiscalité à taux réduit. Aucun de ces piliers n’est à rejeter, mais rien ne doit être figé au prétexte que le monde rassurant du papier et du livre dans leur belle universalité doivent affronter une tempête qui met en péril l’industrie de la presse et celle de la musique.09/04/2010




Les élections, la librairie et le Salon


Il est intéressant de rapprocher deux évènements a priori sans lien. Les dernières élections et le salon du livre de jeunesse de Montreuil. L’abstention a atteint un taux record dans certaines villes de banlieue, notamment dans les banlieues parisiennes, à Montreuil (58%), à Clichy-sous-Bois (71,4%), à Sarcelles (71,9%), à Villeneuve-la-Garenne (69%). Explication : le sentiment de l’abandon, de la mise à l’écart. La prise de conscience de ce que la société toute entière ne se préoccupe des banlieues que lorsqu’elles sont en feu.

 

Et qu’apprend-on à la veille des élections ? Que le Conseil général couperait la subvention du centre de ressources du département si joliment dénommé Livres au trésor et qui se consacre au livre de jeunesse. Et que, non content de cette « riche » idée (pardon pour le jeu de mots), il envisagerait de réduire celle du Salon de Montreuil (d’1 à 1,2 million d’euros en faisant appel aux autres partenaires : mais que diable, lesquels ?).


Le salon, parait-il, n’est pas menacé. Son succès lui assure un fragile équilibre économique. Mais il avait réussi à essaimer dans le département son action de sensibilisation au livre et à la lecture ; ce sont donc des centaines d’initiatives à caractère littéraire (expositions, malles de livres, lectures, notamment dans les centres sociaux, rencontres d’auteurs, ateliers d’illustrateurs, formations….) qui rythment la vie en Seine-Saint-Denis, ainsi que des actions en direction des écoles, qui se trouvent en péril.


Bien sûr, l’argent public est devenu plus rare, mais tout de même, quelle indécence ! On assèche l’activité d’un centre de ressources d’un trait de plume si vite tiré qu’on s’en est à peine aperçu ! On coupe dans les budgets d’un évènement destiné au livre de jeunesse, dans un département qui brille par sa jeunesse !


Je ne puis m’empêcher de rapprocher ces deux évènements d’un constat récent issu d’une étude du MOTIF sur la librairie en Ile-de-France. Elle montrait que Paris concentre 739 points de vente de livres, dont 697 librairies, et le département de Seine-Saint-Denis 64 points de vente, dont 42 librairies. Soit une librairie pour environ 4 000 habitants à Paris, et une pour environ 46 000 habitants en Seine-Saint-Denis (Livres Hebdo, 22 juin 2009).

 

Le service culturel du département a choisi de sacrifier les livres ; et il le fait en s’attaquant à deux fleurons de la vie culturelle dans le département. Là où le marché est défaillant, la puissance publique est doublement fautive. Vote du budget le 8 avril.

 

23/03/2010




Un TOC en toc ?


A deux pas du siège de Simon and Schuster, au cœur de Times Square – vue sur un portrait géant de Bruce Willis - se tenait le salon Tools of Change for Publishing (TOC). Une assistance presque exclusivement américaine, très professionnelle, pile de cartes de visite en main, network à consolider. Alignement de conférences à l’anglo-saxonne. Toujours strictement à l’heure, powerpoint impeccable, un show bien huilé plutôt que quelques brins d’analyse. Plusieurs orateurs avaient choisi le confort du commentaire d’enquête. On en ressortait convaincu que l’investissement dans le numérique se fera encore pendant quelques années à l’aveugle pour l’éditeur traditionnel : perspectives de marché mal définies, peu de valorisation des fonds numérisés, hormis celles des géants de la distribution. Une des conférences s’intitulait « Are e-books dead ? ». Le ton était donné.

 

Les éditeurs traditionnels étaient relativement peu nombreux, c’était un salon centré sur le back office, sur la technologie plus que sur le contenu. On a vu toutefois plusieurs démonstrations d’e-books. On était loin du livre « homothétique » - qui sans doute serait vécu par les Américains comme une de ces incongruités à la française -, on était  même parfois loin du livre, avec des « enrichissements » qui nous faisaient frôler l’indigestion.


Amazon avait boudé l’affaire. Incompatibilité d’humeur avec l’organisateur ? L’ombre de Google planait sur la conférence, jusqu’à l’exposé de la prochaine étape de son développement tentaculaire. En écoutant un auteur à succès expliquer les ingrédients de son travail – somme toute le traditionnel feuilleton, mais transposé dans l’ère du virtuel et du versioning
, on se disait que ce qui manquait à l’affaire, c’est le nœud du métier, la rencontre entre un auteur et un éditeur ...

01/03/2010




Rapport Zelnik-Toubon-Cerutti. Arsenal de bonnes mesures ou usine à gaz ?


Le rapport Zelnik-Toubon-Cerutti, intitulé Création et Internet, est avant tout centré sur la musique. Il envisage la création d’une carte Musique en ligne destinée aux jeunes internautes. Les achats de musique en ligne des 15-24 ans transiteraient par cette carte dont 50% du coût serait pris en charge par l’Etat : 20 euros environ à la charge de l’internaute, et 20 pour l’Etat. Le dispositif devrait concerner un million d’utilisateurs. La carte permettrait à un jeune qui ne dispose pas de carte bancaire de payer pour ses téléchargements ; elle serait utilisable sur un portail de référencement de l’offre en ligne. On en attend un effet de levier sur les revenus de l’industrie musicale.

 

 

On a là une fausse bonne idée, et cela pour trois raisons au moins.

 


La première est d’ordre idéologique : comment peut-on penser qu’une sorte de chèque restaurant appliqué à la musique suffira à ruiner l’idée désormais si ancrée que le téléchargement, quoiqu’illégal, est légitime parce que la culture et le savoir relèvent de logiques de service public, et sont à disposition de tous ? Certes, une campagne d’information (faut-il écrire une « nouvelle » campagne) est prévue ; mais cela pourra-t-il inverser le cours des idées que les jeunes se font du numérique ?

 

La seconde porte sur le prix de la carte. Le même rapport évalue le « consentement à payer » moyen à 5 à 7 € par mois, toutes générations confondues, soit une somme bien moindre chez les jeunes. Il est difficile d’avancer que le jeune payera 20 euros pour la seule raison que l’Etat va lui doubler sa mise.

 

 

La troisième renvoie au principe de la subvention indirecte. Cette carte, dont la subvention est in fine destinée au soutien à l’industrie musicale, est-elle la bonne voie du retour à la légalité et du soutien à une industrie qui est à 80% entre les mains de trois majors d’envergure mondiale ? Sera-t-elle assez incitative pour renverser le cours du temps, ou ne fera-t-elle  qu’ajouter une strate supplémentaire à l’édifice de la politique culturelle, ajoutant une subvention discrète à celles que l’on connait déjà ?

 

 

Aux coûts d’application de la mesure, s’ajoute donc une efficacité peu évidente.

 

 

L’autre point litigieux du rapport, me semble-t-il, porte sur le traitement des sites de streaming comme Deezer. Tandis que le rapport refuse explicitement et fermement la licence globale, il en entrouvre la porte en prônant un versement du type rémunération équitable (autrement dit un forfait sur les recettes) : pas de forfaitisation d’un côté, forfaitisation de l’autre. Allez comprendre.

 

En revanche, plusieurs points forts du rapport doivent être évoqués : mise en place d’un système de gestion collective des droits, conseillée, et, si elle n’est pas adoptée « spontanément », imposée, pour la gestion des droits musicaux sur Internet, extension du régime du prix unique du livre au livre numérique, dont on peut discuter l’applicabilité, mais qui met pertinemment l’accent sur la question des pratiques de dumping propres à certains acteurs de l’internet, alignement des taux de TVA du livre numérique sur ceux du livre papier, révision de la chronologie des médias pour la VOD par abonnement. Y est ajoutée la préconisation de la création d’un portail commun pour le livre numérique. De même, on retrouve la volonté de développer le crédit d’impôt, d’abonder les budgets de l’IFCIC, l’organisme de financement des projets culturels, et du CNL.

 

L’ensemble du dispositif requiert au total un financement de l’ordre de 50 millions d’euros. Une taxe déjà baptisée taxe Google est envisagée. L’idée est simple et convaincante a priori : taxer les revenus publicitaires en ligne des «grands acteurs» du web, comme Google, Yahoo, Microsoft ou... Facebook, sur la base des revenus générés par les clics sur les liens sponsorisés qu'ils proposent. Puisque les moteurs de recherche tirent des revenus de la mise à disposition d’œuvres qu’ils n’ont pas financées (dans la droite ligne de ce que l’on appelle chez les économistes un « passager clandestin »), il serait logique de leur demander de participer à ce financement via une taxe sur les clics publicitaires, et cela d’autant que ces sociétés sont basées dans des pays étrangers proposant des avantages fiscaux bien connus.      

 

Question : cette taxe, somme toute justifiée, est-elle applicable ? Question centrale, car rien n’est plus ravageur que des effets de manche ou des coups de menton non suivis des actes qu’ils annonçaient.18/01/2010




Ne boudons pas notre plaisir


Deux bonnes nouvelles d’un seul coup ; la première a trait au respect de la propriété intellectuelle, du côté du procès La Martinière vs. Google, la seconde renvoie au grand emprunt et aux sommes impressionnantes dégagées en faveur de la numérisation du patrimoine. On peut articuler les deux et avancer qu’il n’est pas nécessaire de violer la propriété intellectuelle pour numériser les œuvres patrimoniales. Un message qu’il convient de répéter aux jeunes et aux moins jeunes qui auront fini par perdre leur latin dans un foisonnement de messages souvent difficilement lisibles.

 

En arrière-plan, se posent deux questions. D’un côté, celle du prix et de l’accès. Nous n’avons pas fini d’y revenir. De l’autre côté, celle de la nécessaire clarification des concepts et de leurs enjeux. On évoque la numérisation du patrimoine et sa mise à disposition de tous, gratuitement. Mais où donc commence et s’arrête le patrimoine ? Faut-il adopter un clivage entre patrimoine et création ? Mais alors, que comprendre ? Pour qui ignore les arcanes de la propriété intellectuelle, l’idée pourrait prévaloir que seule la création immédiate devrait être sous droit et que toutes les œuvres passées devraient entrer dans le pot commun du domaine dit public.

 

Ce qui apparaît évident aux acteurs du monde culturel ne l’est pas pour le grand public. Les mots prêtent à confusion, les concepts semblent mouvants. Le domaine public n’est pas nécessairement gratuit. Son accès peut même transiter par des acteurs privés. Ce sont les mêmes qui se disent attachés à une sorte de service public culturel maitrisé par des acteurs publics qui prônent la gestion par le privé de services publics requalifiés de facilités essentielles. Ces acteurs privés doivent ils être nécessairement nationaux ? Doit-on faire l’hypothèse qu’un acteur national est toujours plus sûr qu’un acteur étranger ? Quels sont les contre-feux qu’il convient d’allumer en face d’un monopole ? Il serait imprudent de se contenter de cette première victoire.  Tout demeure à construire, les mots et les choses.

 

Faisons le vœu que l’année 2010 nous aide à définir des stratégies heureuses en ce domaine du numérique où le « tout et tout de suite » est infiniment séduisant. N’ai-je pas téléchargé un roman de Henry James qui s’était égaré au milieu du fatras des livres accumulés, en un instant, et commencé de le relire hier dans la nuit ?

Bonnes fêtes à toutes et à tous.

22/12/2009




Raté !


Raté ! Les bonnes résolutions de la rentrée, répondre aux mails dès qu’ils arrivent, ne pas dépasser la date limite de réponse à certains courriers importants… tout cela ruiné ou presque.

 

Imaginez, j’ouvre mon journal. Et découvre qu’avant le 4 septembre il faut me décider. Décider de quoi ? Google ou pas Google. La loi d’airain de l’opt out…, qui pourrait bien, d’ailleurs, être illégale, m’est imposée –ainsi qu’à mon éditeur- sans que je n’aie rien demandé. Selon l’avertissement publié dans 2oo journaux, l’ayant droit doit renoncer à toute poursuite ou bien toucher quelques kopeks pour la numérisation de son texte, puis une part du prix si le livre est acheté.

 

Blurp … Sorry, I dont’ know, et pourtant je ne suis pas la moins informée des auteurs de ce pays. C’est un peu comme si un voleur publiait sans m’en avertir une annonce selon laquelle il cambriolera mon appartement si je ne lui fais pas savoir avant la fin de la semaine que je ne suis pas d’accord, sachant que  si je refuse, quelque chose de terrible pourra se passer que j’ignore encore.

 

Dure rentrée. La bibliothèque universelle, elle me plaisait, pourtant. Mais Dieu que ces gens là sont mal élevés, et pour tout dire, ignorants de ce que même l’auteur peu enclin à se soucier de ses droits patrimoniaux peut devenir plus réservé quand ses droits moraux sont en jeu.

 

L’année qui vient verra sans doute les grandes manœuvres de l’édition et des bibliothèques numériques se préciser. L’année qui vient, et les suivantes. Côté bibliothèques, il faut relever parmi les bonnes nouvelles le déblocage par la Ministre de l’enseignement supérieur et de la recherche du projet « Campus Condorcet » : une cité des humanités et des  sciences sociales à dimension internationale, qui associe notamment les universités de Paris 1, Paris 8, Paris 13, l’E.H.E.S.S., l’E.P.H.E., l'Ecole Nationale des Chartes, l'INED et le C.N.R.S, et dont le premier bâtiment sera la bibliothèque.

 

On continue donc à construire « en dur » les bibliothèques du futur. Mais le « dur » (avec à terme plus d'un million de volumes, soit plus de 40 km linéaires d'ouvrages, dont une grande partie en consultation libre) n’exclura pas le numérique : un des enjeux de la bibliothèque, qui héritera de fonds documentaires des partenaires fondateurs et lancera sa propre politique d’acquisitions, sera « de créer une plateforme documentaire et numérique mutualisée de niveau international ». Comment composer alors avec Google et son fonds de livres numérisés ? Comment pourrait-on se priver du formidable gain de temps et de savoir que constitue l’avance prise par le moteur de recherche, sans brider l’avenir, lorsque le savoir circule de plus en plus vite ? Ce sont des questions encore ouvertes. Mais pour combien de temps ?

07/09/2009




Hadopi. Un échec annoncé


En finir avec le téléchargement illégal. La mission figurait dans la lettre de mission de la Ministre de la culture. Rien de vraiment compliqué : une mission, une négociation, une menace de sanction, et le tour serait joué. On ferait assez décroître le nombre des internautes qui contournent le droit d’auteur pour inverser le cours des choses et faire cesser la chute infernale de l’industrie musicale.

Et si c’était plus compliqué que cela ? Si la réponse combinée de l’ingénieur et du juriste ne pouvait à elle seule endiguer les effets d’une révolution culturelle, aux retombées sociales et économiques majeures ?

Il faut rappeler deux évidences, si douloureuses puissent-elles être pour certains pans des industries culturelles :

1. Les données macroéconomiques sur les dépenses culturelles font ressortir une tendance longue de montée (en proportion) des dépenses pour les abonnements et les matériels et de décroissance (en proportion) des dépenses pour les œuvres.  Le paiement au stade de l’abonnement serait  mieux accepté que le paiement au moment de l’achat.

2. Les pratiques d’achat et de consommation se traduisent par un lent recul de l’achat simple à l’unité au profit de la demande d’achats et de services liés.  Internet produit une demande d’accès généralisé qu’il est très difficile de « domestiquer » ; c’est peut-être via l’offre de services, et en particulier l’offre de services qu’on pourrait qualifier de paradoxaux, parce qu’ils recréeraient de la rareté –et de la valeur- là où la surabondance détruit  cette valeur, que l’on pourra valoriser la création.  Le consommateur paierait pour le service de tri, de cheminement, de référencement, ainsi que pour toutes sortes de services « périphériques » plus aisément que pour le bien lui-même.

 
Hadopi était et demeure une mauvaise réponse à une vraie question. Hadopi est une loi difficilement applicable juridiquement et techniquement, crispant une question majeure en un débat politique, renvoyant le numérique à son aspect de menace et oubliant l’incroyable chance qu’il constitue, déniant le caractère devenu essentiel de l’accès à Internet, qu’il s’agisse de s’informer, de déclarer ses impôts, de payer ses factures, de chercher son chemin, de faire ses achats ou de s’inscrire à l’université, de retrouver les références d’un article académique ou de chercher un emploi.

Que de temps perdu ! Il est urgent que les acteurs de cette grande transformation se retrouvent tous autour d’une table, et construisent des modèles d’affaires et des modèles de remontée des droits et de répartition à partir de contributions prélevées en amont de la consommation.

15/06/2009




Le don des livres, une opération de tri sélectif


Nous avons tous la haine du pilon. Le pilon, marque de l’échec. Image inversée du trop plein. Un goût de gâchis. L’abondance sans la générosité. Envoyer une partie de ce trop-plein dans des pays où le livre manque, sans trop de scrupules quant à l’idée de donner ce dont on ne veut pas, et dans l’indifférence quant aux conditions de la réception et aux besoins de ceux qui reçoivent ?

C’est à l’exact inverse que se propose de travailler l’association Bibliothèques Sans Frontières depuis deux ans. L’objectif est de promouvoir l’accès à la lecture et à l’information dans le monde en développement et les zones défavorisées en France et aux États-Unis. Cette initiative part de l’identification de demandes, telle la constitution d’un fonds sur la mondialisation. Des programmes de promotion et de préservation des savoirs locaux et des archives sont soutenus par l’association, au Congo par exemple. En Afrique, l’urgence est aussi –et surtout - au soutien à l’éducation formelle et informelle. Au Sénégal, l’accent est mis sur la formation des bibliothécaires et le développement des collections de recherche des universités. Au Niger, il s’agit de créer des bibliothèques dans des écoles ; à Madagascar, les livres sont destinés à la création  d’espaces de lecture au sein de centres de réinsertion pour enfants. On retrouve la même volonté de promouvoir la lecture au Cameroun, mais aussi en France, avec la création d’espaces de bibliothèques dans les Centres d’accueil de demandeurs  d’asile. Il faut aussi mentionner la création d’un réseau de 200 bibliothèques de lycées en Haïti dans le cadre d’un programme multiannuel portant sur 300 000 ouvrages.

Belle initiative, qui a besoin de dons de livres (et d’argent pour payer notamment le transport des ouvrages) et de 300 adhérents afin d’accéder au statut d’association reconnue d’utilité publique.

 

27/04/2009




Gratuit ! Qui dit mieux ?


Il y a d’un côté la crise. Certes, on nous dit que la culture y échappe, les Français goûtant particulièrement les consommations culturelles en ces temps agités, car ils y trouvent les repères qui leur manquent lorsque le chômage s’accroit inexorablement.  Il est vrai que le marché du livre fut stable l’an passé. Pourtant, le prix du panier moyen de l’acheteur diminue, et certains pans du marché ne pourront que souffrir de l’inquiétude devant une éventuelle baisse du pouvoir d’achat.

A La crise, s’ajoutent les interrogations sur le numérique.  Le nombre de titres numérisés s’accroît à grande vitesse aux Etats-Unis, alors que les acteurs du marché français souhaiteraient, pour paraphraser un ancien premier ministre, donner du temps au temps. On les comprend, mais le numérique a toujours pactisé avec l’immédiateté. Comment composer avec ces rythmes décalés ?

C’est dans ce contexte qu’il faut aussi relever la schizophrénie du discours sur la culture du gratuit. Gratuits pour les moins de 26 ans, les musées ? L’idée est sympathique, n’attirera pas les rétifs mais nourrit le brouillage des messages. A moins de 26 ans, c’est tout le culturel, et tout de suite !  On voit mal pourquoi le même message ne devrait s’appliquer qu’à un pan des pratiques culturelles et pas à la totalité.

D’un côté, on fustige donc la gratuité, celle que l’on associe trop vite au seul mode d’accès dans le monde immatériel, celle qui préside au téléchargement illégal, une sorte de monde de liberté, qui n’est pas sans renvoyer au double sens du terme anglais free. Et d’un autre côté, la gratuité est adoptée : nous sommes alors dans le monde des musées, du service public ; puisque les collections appartiennent à tous, pourquoi y aurait-il lieu de payer pour les visiter ? La gratuité simplifie la visite : pas de file d’attente, l’entrée et la sortie sont libres. Les musées étaient déjà gratuits pour les moins de 18 ans et la plupart de ceux qui ne peuvent payer. Pour un effet de manche et quelques beaux discours, le ministère de la culture nourrit au plus mauvais moment le mythe de la gratuité et de son efficacité pour lutter contre les inégalités de pratiques culturelles. Il suffit de se dire que la lecture relève du service public, ce qui est vrai, pour que le pas soit franchi qui va de la gratuité de l’accès aux bibliothèques à celle des livres numérisés.

A un moment d’interrogations et de doutes, ce double discours n’est pas de nature à inciter le monde du livre éditeurs à accélérer le rythme de la numérisation.

 

17/04/2009




Tâtonnements et hésitations


Quel modèle économique pour demain, pour le livre numérique ? Et si la question était mal posée ? En effet, il ne s’agit pas d’inventer un modèle pour le numérique, mais pour l’édition de livres numériques et de livres papier.  En d’autres termes, pour avoir assisté à nombre de séances du Conseil du livre, il m’est apparu qu’il n’existe pas de modèle du livre numérique, du moins dans le court/moyen terme, et que la migration vers le numérique ne peut être pensée que comme un segment innovant de l’activité de l’éditeur qui continue de « marcher sur les deux jambes ».

Le marché du livre numérique est balbutiant. On souhaite le développer, mais au risque de faire basculer l’ensemble de l’univers du livre dans un monde dont les règles de fonctionnement demeurent à inventer.  On se méfie, donc, et à juste titre. D’un côté, se profile un nouveau marché ; et d’un autre côté, on n’aperçoit pas comment une activité économique profitable, hormis sans doute sur des créneaux étroits, pourrait s’y développer. On observe avec méfiance les leçons des autres industries culturelles. La musique enregistrée n’est pas le livre, certes, mais les trois erreurs commises méritent d’être analysées : freins mis au développement d’une offre attractive du point de vue du nombre et de la variété des titres offerts, prix excessifs, absence d’interopérabilité.

Il est aisé d’avancer que des réponses sont possibles afin d’éviter ces trois erreurs. Mais l’invention d’un modèle est d’autant plus difficile qu’elle requiert la prise en compte de la transformation des comportements d’achat. Les débats qui accompagnent la discussion de la loi Création et Internet le montrent largement : Internet, ce n’est pas seulement une offre transformée, des œuvres dématérialisées, c’est un autre rapport  à l’accès et à la propriété. Or nous ignorons tout - ou presque - de ce nouveau rapport, quand il s’agit du livre. Délinéarisation de la lecture, nouveaux cheminements, promotion des marchés de niche, interactivité : comment tous ces phénomènes, qui reviennent sous la plume des observateurs mais qui demeurent si mal connus, se manifesteront-ils pour le livre ?

Certains sites de téléchargement permettent d’imaginer les contours des nouvelles pratiques. Mais tous les acteurs du marché, auteurs (les grands oubliés du Conseil du livre), éditeurs, libraires, bibliothécaires et lecteurs dessineront de concert (mais pas toujours en harmonie) un nouveau paysage dont il n’est pas sûr que des modèles économiques soutenables puissent lui être associés.
16/03/2009




Les dégâts collatéraux du débat sur l'évaluation des chercheurs


La grève dans les universités pose la question fondamentale de l’évaluation des chercheurs. Quels sont les critères d’évaluation ? Faut-il passer du qualitatif au quantitatif, afin d’objectiver les jugements ?

Cette grève est aussi une crise d’identité, où l’autonomie proposée est en tension avec la volonté très ancrée de conserver des diplômes à valeur nationale. Elle est celle d’une université qui affronte la baisse des effectifs dans certaines disciplines, la concurrence jamais dépassée entre universités et grandes écoles, l’arrivée d’étudiants venant de pays encore absents il y a quelques années (chinois notamment) dont les formations et la culture sont encore très étrangers au système occidental.

La grève est un symptôme de la difficulté croissante des enseignants chercheurs à assurer leurs missions alors qu’une des plus fondamentales d’entre elles, la transmission, est mise à mal par la faiblesse des perspectives pour les jeunes chercheurs (barrières à l’entrée difficilement franchissables, exigence d’excellence mais faiblesse des rémunérations) et par ce qui fut compris comme une dévalorisation de la fonction enseignante sous-jacente au décret qui a mis le feu aux poudres.

La grève est encore un cri contre l’insuffisance des dépenses d’éducation. La France consacre par étudiant une dépense moyenne un peu inférieure à la moyenne de l’ensemble des pays de l’OCDE. Elle se classe en quatorzième position, loin derrière les premiers : les pays qui se situent aux deux premières places, les États-Unis et la Suisse présentent des dépenses moyennes qui sont respectivement supérieures de 53 % et de 36 % à celle de la Suède qui les suit immédiatement et qui sont égales à environ deux fois la moyenne OCDE (Source : Christine Ragoucy, « Les indicateurs de l’OCDE sur les dépenses d’éducation en 2005 : quelques tendances sur la situation comparée de la France », Éducation & formations, 78, novembre 2008).

La grève est enfin la manifestation de la défiance devant les évaluations qui, venues de l’extérieur, pourraient menacer l’indépendance du chercheur. On a bien vu avec la volte-face opérée par Axel Kahn, un temps plutôt partisan de la réforme avant de prendre plus que de la distance avec elle, à quel point cette indépendance ne saurait être entamée par une parole présidentielle qui instrumentalise les chercheurs que le pouvoir a pu croire acquis à ses projets.

Mais en arrière-plan, se profilent d’autres questions, qui ont trait aux modes de diffusion et de transmission des savoirs, dégâts qui peuvent sembler collatéraux, mais qui se révèleront peut-être majeurs à moyen terme. En effet, les instances d’évaluation valorisent quasi-exclusivement la revue scientifique dite à comité de lecture (avec double ou triple lecture « à l’aveugle » permettant de sélectionner les articles retenus) et la langue anglaise. Or il n’y a pas d’un côté ce mode d’évaluation, et de l’autre les stratégies des chercheurs en matière de publication et de prescription aux étudiants. Le temps de la recherche est amené à se focaliser sur ce mode de publication, réduisant de facto le temps consacré à l’écriture de livres et à la participation à la vie des revues plus grand public de valorisation de la recherche, celles qui constituent une richesse des débats intellectuels. De même, comment ne pas avant tout prescrire aux étudiants le travail sur ces mêmes publications académiques, qui sont considérées comme le terreau exclusif des avancées scientifiques ? L’édition de sciences humaines de qualité est à la peine, parce que le débat social migre en large partie sur Internet d’un côté, tandis que de l’autre côté le livre est moins valorisé. Il faut prendre la mesure de ce que les habitudes prises ne sont pas aisément réversibles, et affectent la place du livre dans notre société, déjà mise à mal par la concurrence des écrans. Quant au primat de la langue anglaise, peut-être est-il nécessaire à la circulation des savoirs dans un monde globalisé, mais il faut regretter l’absence de réflexion quant à l’accompagnement de cet « impératif » et aux éventuels contre-feux.

16/02/2009




Météo. Avis de grand froid


Réduction de la production dans tous les secteurs éditoriaux, réduction de tous les coûts, instauration d’un « guichet départ ». La nouvelle de cette « réorganisation » est inquiétante pour tous ceux qui sont attachés à la maison Seuil, figure historique du monde du livre. La direction a motivé ce plan par « l’évolution du marché du livre, influencée notamment par de nouvelles exigences du lecteur, l’émergence du numérique et l’instabilité du pouvoir d’achat », en d’autres termes, par des considérations de mauvais temps. Rien donc de grave au sein même de la maison : la toiture, les murs, sont donc encore en état ?

La nouvelle fait en tous cas question : si elle renvoie à un état général du secteur éditorial et à un contexte économique plus que morose, il n’est pas possible de faire l’économie de l’histoire de la maison Seuil. Plusieurs facteurs ont joué et jouent encore : l’effet toujours déstabilisant du changement d’actionnariat, mal vécu dans des maisons dont on a pu croire que l’ancienneté aurait dû justifier la pérennité et le caractère immuable de la propriété, extériorité de cet actionnariat aux logiques lentes et incertaines des industries culturelles, interrogations quant à l’adéquation d’une stratégie éditoriale aux évolutions du lectorat et de la vie des idées.

Si ce qui se passe au sein du groupe Le Seuil – La Martinière ne peut donc être imputé à la seule météo éditoriale, le trouble concerne toute la profession. En effet, se pose la question de la manière dont il faut composer avec de nouvelles formes de concurrence, avec un environnement financier calamiteux, des pratiques culturelles de plus en plus difficiles à cerner, bref, avec une météo de gros temps.

20/01/2009




Déjeuner de blogueurs


En Angleterre, le déjeuner de Noël est une tradition des entreprises. Petits cadeaux rigolos, boisson à gogo, festin à l’anglaise.

Il nous fallait bien ça pour nous remonter le moral, zéro commentaire la dernière fois, et la fois d’avant un commentaire du genre destiné à vous remonter les bretelles.

On a donc eu, nous blogueurs, notre déjeuner de Noël. Petit vin rouge, repas sans fausse note. On n’a dit du mal de personne, on a causé de la crise (et le livre… refuge ou ajustement de pouvoir d’achat ?), d’Europeana (consensus facile, diagnostic tout aussi aisé, qui se résume en un mot : raté !), des prix littéraires (un progrès mais doivent redoubler d’efforts …), du mérite respectif du papier et du numérique (bien joli le numérique, mais dans le métro pas vraiment pratique). Bref, rien de grave ; il y avait peu de femmes : un monde en ordre de marche.

Alors que vous souhaiter, pour ces fêtes ? Justement cela, sérénité, amitié, un petit coup de rouge entre amis, et une belle année. Pour la TVA à 5,5%, le droit d’auteur au risque du piratage, le reader trop cher, le marché atone, l’audiovisuel bousculé, on attendra bien la rentrée…

22/12/2008




Librairie ou library ?


Le 3 décembre 2008, dans un article paru dans le Los Angeles Times, Alana Semuels nous avertissait : les bibliothèques (les libraries) américaines doivent affronter une nette augmentation du nombre des emprunteurs qui, face à la crise qui affecte leur pouvoir d’achat, ne peuvent s’offrir de livres mais souhaitent continuer de lire.

La fréquentation de la bibliothèque publique de Los Angeles vient d’atteindre un record, avec une hausse de 12% du nombre des visiteurs. A celle de San Francisco, le nombre des objets empruntés (livres et CDs) s’est accru de 12% par rapport à l’an passé. Celle de Chicago aurait dépassé les 35% de croissance, et la New York Public Library aurait vu ses consultations croître de 11%; il est vrai qu’elle a étendu ses horaires d’ouverture.

Bref, les Américains fuiraient en partie leurs librairies pour reprendre le chemin des bibliothèques. La crise ne fait donc pas moins lire. Au contraire. Et cela pour deux raisons au moins. D’une part, les sorties sont moins fréquentes, et le temps ainsi retrouvé favorise le goût de la lecture. D’autre part, la crise crée des curiosités nouvelles, une envie de comprendre et d’apprendre qui complète celle de se distraire. Mais la crise affecte les comportements et conduit à la substitution de l’emprunt à l’achat. Inquiétude ou constat que les moyens manquent, il y a sans doute un peu des deux dans des réflexes qui consistent de même à préférer échanger des livres sur des sites comme PaperBackSwap.com plutôt que de les acheter. Le site aurait vu son trafic augmenter de 25% en trois mois (il est vrai que l’on ne sait pas de quel niveau on partait).


Bref : library ou librairie ? Espérons que la complémentarité prenne le pas sur la substitution. Cela dépendra des évolutions de la crise, mais aussi de la capacité du marché à contrer des réflexes nourris par une culture de la gratuité.
15/12/2008




Le nœud de l'affaire


Le nœud de l’affaire, la question essentielle au développement d’un marché du livre numérique, c’est le taux de TVA. Un taux « plein pot », quand le taux pour le livre (le vrai !) est de 5,5%, cela vous tue un marché. Comment proposer un différentiel de prix satisfaisant, lorsque le différentiel de TVA est de 14 points ? Le livre numérique est condamné à être trop cher, donc peu attractif, et, tandis que l’acheteur a le sentiment qu’on lui propose un marché de dupes, l’éditeur a le sentiment de creuser un peu sa tombe : numériser à grands frais et au pas de charge des fonds qu’il vendra à des prix non attractifs, au risque de voir le diable (le pirate) sortir de sa boîte et faire circuler les textes, et sans que l’auteur ni l’éditeur ne reçoivent quelque rémunération.

Voilà une perspective peu encourageante, qui risque de conduire le monde du livre à manquer la « grande transformation ». Faire entrer un nouveau produit dans la liste des biens pour lesquels la Commission européenne autorise un taux réduit de TVA est un long combat. En revanche, parvenir à faire reconnaître le livre numérisé comme un livre à part entière, figurant déjà dans la liste, est un combat qu’il est possible de gagner. Ce serait une belle victoire pour une ministre de la culture dont le bilan est encore un peu pâle. Espérons qu’elle s’en empare et le gagne.
03/12/2008




Vendus, les bijoux de famille !


Réaction courte et non immédiate ; j’ai préféré réfléchir et tenter de peser les arguments qui plaidaient pour l’accord entre Google et les éditeurs américains. Mais les arguments m’ont semblé bien légers.

L’édition américaine aura donc pactisé avec Google. Trois années pour un contrat. 125 millions de dollars (environ 100 millions d'euros). Franchement, pas grand-chose en échange, pour offrir ainsi les bijoux de famille, les yeux à moitié fermés, à ce géant dont aucun signe ne montre qu’une quelconque autorité de la concurrence ait envisagé qu’il modère son omnipotence.

Une bibliothèque universelle : quel universitaire, quel grand lecteur n’en ont pas rêvé ? Mais le prix du pacte est une forme de mise sous tutelle de la production littéraire. Auprès d’un géant dont le modèle économique demeure celui de la publicité.

>Que des contreparties aient été négociées, c’est la moindre des choses. Mais elles sont peu. Du point de vue de l’économiste, la concurrence est toujours préférable au monopole. Que le monopole de l’auteur et de l’éditeur se voie ainsi confié, en quelque sorte à un colosse du virtuel aux pieds solidement ancrés dans le réel ne manque pas de troubler.

21/11/2008




L'exception au droit d'auteur


 

Rappelons-le, si le droit international ne détermine pas de socle minimal en matière d’exceptions et de limitations aux droits exclusifs des auteurs, il fournit un cadre général. Les exceptions doivent répondre au « test des trois étapes » : ce test impose aux Etats de restreindre les limitations des droits exclusifs ou exceptions à ces droits à certains cas spéciaux (1), de sorte que les exceptions ne portent pas atteinte à l’exploitation normale de l’œuvre (2) ni ne causent un préjudice injustifié aux intérêts légitimes du détenteur du droit (3).

 

Ce test doit permettre d’encadrer la notion d’exception. Une fois définis les principes qui prévalent à la délimitation du périmètre des exceptions, le test conduit à en évaluer les incidences économiques, l’exception n’étant acceptable que si elle ne nuit pas à l’exploitation de l’œuvre et à l’intérêt des ayants droit.

 

La directive européenne sur les droits d’auteur dans la société d’information, adoptée le 22 mai 2001, retient une liste limitative d’exceptions facultatives. En France, la loi du 1er août 2006 a retenu à son tour plusieurs exceptions facultatives, parmi lesquelles « l’exception pédagogique », qui sera appliquée à compter du 1er janvier 2009. Cette dernière est destinée à permettre aux enseignants d’utiliser et de diffuser, suivant des conditions strictement définies, en contrepartie du versement d’une rémunération négociée sur une base forfaitaire, des extraits d’œuvres sans autorisation des ayants droit.

 

On connaît les arguments qui président à cette exception : la possibilité de diffusion des savoirs ne doit pas être bridée par le droit d’auteur ; il convient donc non pas de revenir ce droit mais d’en aménager les modalités d’application. Les débats furent vifs et les craintes ne sont pas éteintes.

 

L’économiste légitime le droit d’auteur par la nécessité d’inciter le créateur à produire. L’argument est spécieux, et, en matière littéraire, il est difficile d’avancer que le droit d’auteur constitue d’une quelconque manière un aiguillon de la création. En revanche, il est aisé de démontrer qu’en l’absence de ce droit, c’est le fonctionnement même de tout le processus de production – du moins tel qu’il a été à l’œuvre jusqu’à présent et l’est encore aujourd’hui- qui se trouve mis en question. En introduisant un monopole pour l’auteur sur l’usage de son œuvre, les droits de propriété intellectuelle répondent à un problème posé par le risque d’appropriation indue des textes par ceux qui ne les ont pas écrits ou par ceux qui n’ont pas pris le risque de les publier, et qui pourraient publier des manuscrits en s’affranchissant du travail de sélection.

 

Comme le monopole de l’auteur n’est guère satisfaisant, car il réduit la diffusion en assurant cette fonction dite d’incitation, on a introduit deux limitations : la durée, et le champ. L’exception pédagogique peut être interprétée comme une restriction du champ du droit destinée à amplifier la fonction de diffusion, quitte à modérer la fonction d’incitation et/ou de protection de l’équilibre économique de la filière éditoriale. La compensation de l’exception constitue donc une tentative de réconcilier diffusion et incitation en ouvrant la diffusion, tout en couvrant le manque à gagner. En d’autres termes, les exceptions doivent permettre une diffusion optimale des œuvres, la compensation permettant de réparer le préjudice subi. Mais en créant de fait des coûts transactionnels additionnels, la compensation doit être évaluée non seulement à l’aune des retombées pour les individus ou les entreprises concernées, mais encore à l’aune de leur effet pour la collectivité. La logique de la règle et de ses exceptions résout peut être une question de diffusion ; mais la compensation crée des lourdeurs et des coûts qui interrogent, selon les points de vue, le principe même de la dérogation au droit d’auteur, ou le bien-fondé de la compensation. Les exceptions, sans doute nécessaires, ne sauraient demeurer… qu’exceptionnelles !

 

07/11/2008




L'acheteur prescripteur, ou l'externalisation de la fonction de diffusion


C’est un livre qui ne parle pas des livres, hormis quelques brèves incursions dans le monde des bibliothèques (Marie-Anne Dujarier, Le travail du consommateur. De MCDO à eBay : comment nous produisons ce que nous achetons, La Découverte, 2008). L’auteure rappelle que le modèle économique qui consiste en l’externalisation de certaines fonctions de finition du produit ne date pas d’aujourd’hui. Ce fut le succès d’Ikea (avec ses meubles en kit que même le bricoleur résolument incompétent parvenait à monter à la place du vendeur), jusqu’aux chaînes de restauration qui proposent au consommateur de composer son plat tout seul. C’est là un procédé qui n’est pas réservé à des produits bas de gamme seulement, qui permet de réduire habilement les coûts supportés par l’entreprise en mettant le consommateur au travail. Les occasions de cette mise au travail, consentie et même applaudie dans la plupart des cas, se sont considérablement étendues avec Internet. On appelle ça l’interactivité, la coproduction.

 

D’une certaine manière, le modèle économique d’Amazon, c’est cela. A la place de la bonne table du libraire ou de ses conseils avisés, on trouve les rubriques : « Produits fréquemment achetés ensemble », « Les clients ayant acheté cet article ont également acheté … », « Les clients ayant consulté cet article ont également regardé …. ». On y ajoutera les commentaires et évaluations en ligne, et les commentaires jugés les plus utiles par … les commentateurs et les visiteurs du site.

 

C’est un peu le concours de beauté de Keynes. Le jeu finit en effet par se déplacer : au lieu de chercher à élire la plus jolie femme, on élit celle qui obtiendra le meilleur classement. Keynes utilisa la métaphore du concours de beauté pour illustrer le mode de fonctionnement des marchés financiers… Un texte à lire et relire tant il frappe par sa terrible modernité (chapitre 12 de la Théorie générale de l'emploi, de l'intérêt et de la monnaie). Sur Amazon, le commentaire espère les faveurs des commentateurs eux-mêmes et la critique du livre –si tant est qu’elle en soit une- oscille entre le souci de parler du livre et celui de plaire aux internautes qui ne liront pas nécessairement le livre.

 

On pourrait arguer que ce n’est pas nouveau, et qu’au sortir de la librairie le bouche-à-oreille pouvait se déclencher, comme on le retrouve à présent sur le Net. A une différence près : l’amorce était donnée dans la plupart des cas par le professionnel qui se positionnait en découvreur, et qui faisait œuvre de passeur. Le modèle Amazon allie deux caractéristiques : la délégation du travail de diffusion, son externalisation sur l’acheteur, et le renforcement de bulles informatives, à l’instar des bulles spéculatives des autres marchés aujourd’hui à la peine.

 

Le consommateur se professionnalise-t-il pour autant, en se substituant au diffuseur et en permettant ainsi des gains en productivité qui affecteraient l’évolution des coûts et peut-être même celle des prix ? Le commentaire conduit-il à la redécouverte de livres oubliés ? Permet-il de dénicher une perle que personne n’avait remarquée ? On serait alors dans le monde enchanté de la « longue traîne »… Une perspective qui a surtout beaucoup fait rêver…

 

31/10/2008




Le boomerang du virtuel qui revient vers le réel


Epatant, le livre de Pierre Assouline. Cette mise en abîme de l’écriture où le blogueur publie sur du papier les écrits autrefois virtuels de ses lecteurs assidus. Le manuscrit virtuel qui a réussi parce qu’il a gagné ses lecteurs avant même d’être publié retrouve de la chair, si je puis dire, dans un livre qu’on feuillette. C’est une œuvre collective qui revient sous une plume individuelle, une opération qui change les données de l’échange et transforme les mots envoyés en une sorte de feuilleton ordonné. Une œuvre collective d’autant plus originale que nombre de ceux qui ont écrit l’ont fait sous pseudonyme, dans quelque jeu de rôle analogue aux jeux vidéos qui vous offrent plusieurs vies.

 

Asssouline en convient : on n’échappe guère à la censure, et dans le florilège des insultes qui vous arrivent aussi, on n’en choisit que quelques unes.

 

Ça ressemble un peu à ce jeu des cadavres exquis où s’écrit une forme littéraire nouvelle et inédite par le simple fait de déplier les morceaux qui se sont juxtaposés au fil des sujets abordés (149 168 contributions, nous avoue Assouline, et on lui suppose quelque gourmandise à afficher un record pareil).

 

Ce qui est intéressant dans cette conversation numérique, c’est qu’elle ne fonctionne pas tout à fait à la façon du salon. Non seulement parce que l’aspect physique et l’appartenance sociale en sont apparemment absents, mais encore parce qu’elle se construit à la manière de réponses successives qui s’émancipent rapidement de la contribution initiale. La conversation ne se noue pas dans le cercle des présents, elle se tisse comme verticalement en une succession de réponses dont l’objet de départ s’évapore bien souvent.

 

La république des blogs est sans doute née et ce billet y participe ; on ne saurait faire l’économie des questions qu’elle appelle : le modèle publicitaire, lorsqu’il est en jeu, transforme le blog en un échange marchand biface, aux termes duquel le service offert est celui de l’échange gratuit, mais la valeur de l’espace publicitaire est étroitement corrélée au nombre des participants. Le blog se pose en marge du support qui l’accueille mais entend en grignoter un peu de l’espace central. La réussite du blog se compte à l’aune du nombre des clics, mais aussi à l’entrée dans les favoris des lecteurs. Assouline aligne le nom des écrivains qui lui sont ainsi fidèles, et rappelle que la notoriété du blog se mesure aussi au nombre des livres qui lui arrivent. Une économie de la notoriété, en quelque sorte, mais qui, en se déplaçant dans le monde virtuel, ouvre tout à la fois de nouvelles opportunités et des compétitions d’un genre jusque là inconnu.

 

24/10/2008




Numérique : vers quel modèle allons-nous ?


Sony, la Fnac, et Hachette Livre : un triumvirat de choc pour un lancement sous haute surveillance. L’invention d’un nouveau modèle, concurrent et complémentaire de l’ancien, méritait un partenariat fort. Nous l’avons.

Mais le partenariat et les premières annonces ne vont pas sans questions.

Premièrement, l’accord ne manque pas de troubler. Il ressemble à ce que les économistes désignent par des pratiques de verrouillage de la consommation. Si licites soient-elles, on considère qu’elles font plutôt fuir les consommateurs.

Deuxièmement, une remarque s’impose au sujet du prix du matériel. 299 euros, c’est cher. Le détenteur d’un téléphone mobile et d’un ordinateur devra débourser une somme plutôt coquette pour son e-book. Bien sûr, ce n’est pas le même équipement, mais reconnaissons-le : l’addition est plutôt salée. Le moins qu’on puisse dire, c’est que nous ne sommes pas dans une logique de produit d’appel. Or l’aventure des magnétoscopes puis celle des lecteurs de DVD le montrent : pour vendre, et conquérir le marché, il faut plusieurs conditions :

- la première est d’atteindre un nombre suffisant d’utilisateurs précoces pour convaincre d’autres utilisateurs de s’équiper à leur tour. En termes économiques, se produisent alors des externalités de consommation, l’engouement des premiers acheteurs suscitant celui des autres. L’industriel a intérêt à subventionner plutôt qu’à pénaliser ces utilisateurs précoces. Ils constituent en effet ce qu’on désigne par la base installée, qui doit être de taille suffisante pour donner naissance à des externalités.

- La deuxième condition est que le futur « gagnant » du marché doit proposer une offre de titres assez attractive pour que l’acheteur de l’équipement pense amortir sa dépense en matériel. On nous annonce 2000 titres en version « e-book ». Et Gallimard en annonce 8000 dans ce que l’on pourrait appeler sa contre-offre. Débuts prometteurs. Mais il faudra faire vite.

Troisièmement, l’accord qui lie la Fnac et Hachette prévoit que le prix de vente public des livres numériques, devrait se situer entre 10 et 15% au-dessous du prix de leur édition papier. Une ristourne aussi faible alors que les coûts de distribution et de fabrication disparaissent en presque totalité ? Il y a quelques années, l’économiste Robert Solow se demandait où avaient disparu les gains de productivité qui résultaient de l’intrusion de l’informatique dans les processus productifs. Autres temps, même question.

Ajoutons enfin que nombre d’autres questions sont encore à travailler.

On le sait, dans le secteur musical, l’absence de réponse à l’exigence d’interopérabilité aura constitué une incitation au piratage ; que fait-on à ce sujet ? Sur ce point il semble que l’offre de Gallimard fasse un (petit) pas : elle devrait être lisible sur le Cybook ainsi que sur d’autres lecteurs, dont le Reader de Sony. Et sur mon ordinateur ? suis-je tentée de demander.

Autre interrogation : l’achat à l’unité n’est-il pas l’achat dominant du monde réel, le numérique se prêtant à d’autres pratiques (abonnements, offre de services adjacents, etc.) ?

 

Bref, nous ne sommes sans doute qu’au tout début de l’invention d’un nouveau modèle.

01/10/2008




Convergence


On le savait. Le Quid de nos jeunesses était devenu poussiéreux. Un livre pour de la simple consultation ? A l’heure d’Internet, c’est un produit sans beaucoup d’avenir. Le nouveau Quid, le Quid numérique, nous dit-on, ce sera du sérieux : pas de contributions désordonnées du tout venant, mais un peu d’ouverture quand même, façon Web 2.0, puisque les journalistes et les enseignants pourront rédiger des articles. Logique de club plutôt que logique communautaire, on reste dans la modernité, mais on espère en modérer les travers.

Tandis que le Quid renonce au papier et s’ouvre aux contributeurs extérieurs, Wikipédia procède à l’inverse. Certes, la logique de l’ouverture à tous, celle des communautés ouvertes, à l’origine du modèle, continue de prévaloir, au point que l’on marche inexorablement vers les 7 millions d’entrées, 200 langues et plusieurs millions de contributeurs (j’hésite à écrire « auteurs » tant on s’écarte de l’acception traditionnelle de ce terme). Mais se dessine, pour Wikipédia un double mouvement : d’un côté, une volonté à peine voilée de mieux maîtriser la qualité des contenus, d’opérer de la sélection sur des critères scientifiques – ou simplement de sérieux -, et de l’autre côté la décision de produire une version papier, en Allemagne, de l’encyclopédie en ligne. Or qui dit version papier dit version arrêtée, au moins temporairement : un bon à tirer au lieu du flux incessant des entrées nouvelles et des révisions proposées.

C’est là une nouvelle forme de convergence dans l’univers des NTIC, puisque les produits d’antan (le Quid) migrent vers le numérique, tandis que ce que je suis tentée d’appeler les native Internet cultural goods (Wikipédia) se donnent avec le papier un petit air du passé pour gagner en légitimité, tout en affichant sereinement que, question qualité, ils ne sont pas si mauvais. Tandis que l’on ne manque pas de critiquer les encyclopédies les plus patentées, Wikipédia, avec tous ses défauts, résiste assez bien à l’examen. En témoigne un article de la revue Nature publié en 2005. L’auteur, Jim Giles, comparait 42 articles de Wikipédia et de l’Encyclopaedia Britannica qui traitaient un même sujet – scientifique – et montrait que non seulement la Britannica n’était pas à l’abri des erreurs, mais qu’elle était loin d’écraser en qualité l’encyclopédie numérique.

Dans un article publié dans Le Débat (148, janvier-février 2008, p. 17-30), « Le phénomène Wikipédia : une utopie en marche », Christian Vandendorpe fait état d’autres études qui concluent de même, allant jusqu’à prophétiser, sans doute emporté par l’enthousiasme : « tout comme l’ouvrage de Diderot et d’Alembert avait eu un impact considérable sur les mentalités du temps, il y a tout lieu de penser que Wikipédia contribuera de façon significative à modeler la culture virtuelle qui s’élabore en cette aube du XXIe siècle dans un monde globalisé ».

Pour revenir à des considérations plus prosaïques, il est clair, en tout cas, que ce phénomène incontournable change la donne du marché. Le chiffre d’affaires des encyclopédies et dictionnaires ne représente que 1,6% du C.A. total de l’édition, mais une proportion bien plus forte pour certaines maisons. Faudra-t-il résister à la vague du web ou bien en adopter les mouvements, ce qui implique d’inventer le modèle qui va avec ? Quelle que soit la stratégie adoptée, ce sera une gageure.

08/09/2008




La rentrée des critiques, 1er septembre 2008


Retour de Buenos Aires, et coup de chapeau à cette ville inouïe et à ses innombrables librairies qui croulent sous les titres et on vous accueille avec tant de bonhomie.

Retour à Paris, donc, et petit coup de gueule, comme on dit sur les ondes, à la lecture de la presse que j’avais laissée s’entasser.

Les éditeurs ont été plus raisonnables que l’an passé. Sans aller jusqu’au malthusianisme, ils ont évité d’accroître le nombre des nouveautés qui déferlent en librairie à chaque nouvelle rentrée littéraire (cette année, on nous annonce 676 nouveaux romans contre 727 l’an passé). Bonne nouvelle : même si le refrain du « trop de livres » lasse un peu (d’Emile Zola à Gabriel Zaid, nombreux sont ceux qui s’en sont plaints), on ne peut que faire le constat que l’excès produit des coûts, et qu’en mettant tant d’ouvrages en concurrence on laisse fort peu de chances aux livres inattendus de percer au milieu des vedettes. Bien sûr, il y a et il y aura toujours une Muriel Barbery débutante un jour et devenue la reine des listes de best-sellers, pour tant d’inconnus renvoyés à leur production solitaire, mais la place est chère et rare. Tous les éditeurs et les auteurs le savent. On dit souvent des industries culturelles qu’elles ont cela d’étonnant qu’on y gère les crises par la surproduction. Ce coup d’arrêt –relatif- à la surabondance est peut être bon signe. Sera-t-il durable ?

Alors pourquoi ce coup de gueule ? Parce que cette petite baisse ne semble pas changer grand chose à la règle qui veut que l’on parle de ce qui marche déjà (ou qui est supposé le faire) plutôt que de ce qui étonne.

J’ouvre donc, parmi d’autres, le journal Les Echos, dont j’apprécie souvent la qualité des pages Culture : page 8, donc, rubrique Rentrée littéraire (21 août), deux articles : « L’impudeur fleur bleue » (vous l’aurez deviné, sur le dernier roman de Christine Angot), et « Champagnes sans bulles » (« distrayant », nous dit-on, sur le dernier roman d’Amélie Nothomb). Soyons honnête : le quotidien Les Echos n’est guère le seul à parler de celles et ceux dont tout le monde parle. Les médias se font tous un devoir de rendre longuement compte des nouveautés des auteurs qui ne sont pas nouveaux. Pourquoi pas, pourrait-on dire. Mais comme l’espace rédactionnel est très resserré, les livres des auteurs moins connus ont toute chance de passer aux oubliettes. D’autres jours sont consacrés aux premiers romans, mais si peu, et pour tant de redondances inutiles et ennuyeuses ! Et notons au passage que la rubrique premier roman n’est pas la seule manière de parler du neuf…

Et c’est bien dommage. Allons, avec 676 romans, ce n’est pas encore la pénurie, il y a sûrement des pépites à dénicher, et il n’est pas sûr que les acheteurs/lecteurs n’aient pas envie qu’on les mène vers des territoires qu’ils hésitent à explorer si on ne leur indique pas quelques directions et quelques idées. Sans doute est-ce là le travail du libraire, mais aussi celui de tous les critiques. En matière musicale, un peu parce que les prescripteurs traditionnels omettaient de le faire, la circulation d’une large part de l’information sur les nouvelles créations a glissé vers les communautés virtuelles, sur le Web.

01/09/2008




Le classement de Shanghai et le marché du livre


La position de la France dans le classement de Shanghai n'est guère réjouissante. Rappelons-le. Le classement prend plusieurs critères en compte, avec des pondérations spécifiques : le nombre de prix Nobel et de médailles Fields parmi les anciens élèves et parmi les chercheurs, le nombre de chercheurs les plus cités dans leurs disciplines, le nombre d'articles indexés dans le Science Citation Index, et l'Arts & Humanities Citation Index, ainsi que la taille de l'institution. Le classement porte sur cinq grands domaines : sciences de la terre et mathématiques, sciences de l'ingénieur et sciences informatiques, sciences de la vie et agronomiques, sciences médicales et sciences sociales.

Le classement 2008 nous laisse une fois de plus KO : certes, quelques universités françaises se distinguent (université de Paris VI, université de Paris 11, université de Bordeaux 1, Ecole normale supérieure, université de Paris VII et université de Paris V), mais ce classement reste largement dominé par les universités américaines, et la France ne se place qu'en douzième position derrière non seulement les Etats-Unis, mais aussi le Royaume-Uni, le Japon, la Suède, le Canada, la Suisse, l'Allemagne, l'Australie, les Pays-Bas, Israël et la Chine.
On a critiqué ce classement sous l'angle de la part excessive donnée aux publications en langue anglaise ou des effets de taille des établissements. On met moins en évidence deux effets qui sont loin d'être négligeables. Le premier a trait à la place respective des livres et des revues, le second au modèle économique de la diffusion des connaissances.

Sur le premier point, le chercheur et son laboratoire sont jugés à l'aune des publications scientifiques dans des revues à comité de lecture. Les livres sont quantité négligeable. Un Tristes Tropiques vaudrait moins qu'une publication dans la revue International Journal of Anthropology. Est-ce tout à fait raisonnable ?

Le second point mérite un bref rappel. Le marché des revues scientifiques, dont une étude menée pour la Commission européenne par un groupe de chercheurs de l'Université libre de Bruxelles et de l'Université des sciences sociales de Toulouse (1) estimait le chiffre d'affaires à 7 à 11 milliards de dollars en 2001, est fortement concentré autour d'Elsevier, Kluwer, Blackwell, Springer notamment. Sur ce marché, la matière première est doublement subventionnée. D'une part, les auteurs sont des chercheurs rémunérés par leurs laboratoires publics ou privés, qui envoient régulièrement leurs travaux à des revues en vue d'une publication et qui ne sont pas payés pour celle-ci. Quant au travail des rapporteurs, qui évaluent la qualité de l'article proposé, il n'est pas rémunéré, sauf exception. D'autre part, ce sont surtout des bibliothèques publiques –financées sur fonds publics- qui s'abonnent aux revues scientifiques.

Le mode d'évaluation des universités conduit ainsi à privilégier certaines formes de publication au détriment des autres, et de manière incidente, certains éditeurs au détriment des autres. On peut certes arguer que les revues scientifiques ont deux fonctions essentielles à la communauté des chercheurs. La première est la certification, la seconde la dissémination. Certification, puisque chaque article envoyé par un chercheur à une revue dont il considère qu'elle est susceptible de le publier, doit passer le barrage de la relecture par d'autres chercheurs qualifiés. Les « relecteurs » ignorent en principe qui est l'auteur de l'article dont ils s'engagent à rendre compte ; ils remettent un rapport argumenté sur la qualité de la méthode et des résultats. Si l'article est accepté, il est publié. La dissémination peut alors intervenir. D'autres chercheurs ont en effet accès à la publication, ils la citent dans leurs propres travaux, et le nombre des citations est un critère déterminant, comme on l'a vu, de l'appréciation de la notoriété et de la qualité d'un chercheur. Le travail des éditeurs de revues est essentiel, mais considérer que ces deux fonctions – certification, dissémination - ne sauraient être portées que par des articles, et que les livres n'ont guère de valeur scientifique est un choix non neutre non seulement pour les modalités concrètes de production et de diffusion du savoir, mais aussi pour le marché de l'édition de livres.

(1) Mathias Dewatripont, Victor Ginsburgh Patrick Legros, Alexis Walckiers, Jean-Pierre Devroey, Marianne Dujardin, Françoise Vandooren, Pierre Dubois, Jérôme Foncel, Marc Ivaldi, Dominique Heusse, Study on the economic and the technical evolution of the scientific publication market in Europe,  Report commissioned by DG-Research, EC, January 2006.
19/08/2008



auteur

 
Françoise BenhamouFrançoise Benhamou, Françoise Benhamou est économiste, professeur à l'Université de Paris 13 et chercheur au CEPN. Elle enseigne aussi dans diverses universités européennes, à l'Institut National de l'Audiovisuel et à l'Institut National du patrimoine. Elle est membre du bureau exécutif de l'ACEI (Association for Cultural Economics International), du Conseil d'orientation de la fondation Jean Jaurès, du Conseil d'orientation du Centre national de la Variété, du Comité consultatif des programmes de la chaîne franco-allemande ARTE, et auteur d'une chronique hebdomadaire sur France Culture. Elle a publié de nombreux articles, rapports, ouvrages, notamment : « L'économie de la culture » ( La Découverte, 6e édition 2008), « L'économie du star system » (Odile Jacob, 2002), « Les dérèglements de l'exception culturelle. Perspectives européennes » (Le Seuil, 2006), « Droit d'auteur et copyright », (avec J. Farchy, La Découverte, 2007).

Archives

 

calendrier

<  Novembre  >
    1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30