Avis d'expert
Domaine Abonnez vous au flux RSS associé Archive RSS
Actu produit
- Etienne Michardiere

Un rapport rédigé par des experts juridiques de l'Université d'Amsterdam affirme que le Patriot Act contourne les lois européennes en matière de données à caractère personnel.

Le Patriot Act est une loi qui ne reconnaît pas la territorialité. Dans certains cas, elle va contraindre des sociétés américaines à aller à l’encontre des lois européennes. C'est essentiellement ce problème qu'il faut résoudre afin d'assurer qu'une donnée stockée en Europe reste hors de portée des requêtes US.
Ce texte donne les pleins pouvoirs aux Etats-Unis en matière d’investigation : toute entreprise américaine doit fournir les données sensibles exigées par l’Administration fédérale quel que soit l’endroit où elles sont stockées. Concrètement, des données hébergées sur le sol français par un acteur américain peuvent être réclamées par la NSA ou un autre service de renseignements, et ce, sans notification préalable auprès des autorités du pays ni de la société concernée.
Cette loi américaine concerne et  impacte la quasi-totalité des fournisseurs de service d’hébergement, de sauvegarde ou de stockage de données.
Les lois de protection de données européennes ne protègent pas les citoyens européens contre des lois extra-territoriales comme celles des USA.
Ce rapport pourrait donc avoir de très sérieuses conséquences commerciales pour l'ensemble des sociétés américaines impliquées dans le Cloud parmi lesquelles figurent la fine fleur de l'informatique et de l'Internet. 

 

Source :  zebuzzeo.blogspot.ca 

Avis d'expert
- Pierre Fuzeau

C’est le sujet traité dans le quatrième livre blanc intitulé : "ISO 30300 - 30301 : métadonnées pour les documents d’activité", publié par le CN11 de l'Afnor.

Principes directeurs, vue conceptuelle et modalités. Ce livre blanc est publié par Afnor et produit par la Commission de normalisation française Afnor (CN11) consacrée à la gestion des documents d’activités (ou records management). "Il s’agit d’un domaine particulièrement sensible puisque les « données sur les données » permettent d’identifier, de retrouver et d’échanger de l’information entre les systèmes. De plus, certaines métadonnées peuvent contribuer à donner une valeur de preuve. De fait et avec l’arrivée du Big Data et de l’activité économique autour du Cloud Computing, la gestion, et préalablement la définition des métadonnées, ont de fait un caractère stratégique."
Le ton est donné : aucun oubli sur ce sujet n’est possible dès qu’on doit mettre en place un système de gestion documentaire : gestion du courrier, gestion électronique de document, archivage (avec ou sans vocation probatoire), les métadonnées doivent être adaptées et respecter les principes exposés dans les normes ISO 23081 (1 à 3). Pour répondre aux besoins de purge, de transparence, de suivi, d’archivage, de transmission, et d’interopérabilité entre systèmes, chaque document doit être tracé, et donc enrichi et accompagné de ses métadonnées tant pour son identification que pour sa gestion. C’est d’autant plus critique que l’application ad’hoc des métadonnées s’inscrit dans la mise en œuvre des normes ISO 30301 qui sont désormais certifiables.

Pour accéder au livre blanc :

www.bivi.fonctions-documentaires.afnor.org/livres-blancs/livre-blanc-n-4-iso-30300-30301-metadonnees-pour-les-documents-d-activite.-principes-directeurs-vue-conceptuelle-et-modalites

 

Avis d'expert
- Virginie Boillet

Quelle est la différence ? En apparence, il n’y en a pas, si on se réfère à leurs caractéristiques basiques. Mark McDonald, analyste chez Gartner, nous explique qu’il y en a bien une. Il est important de reconnaitre leurs différences afin d’utiliser à bon escient chacune de ces solutions.

Avis d'expert
- Etienne Michardiere

L'étude réalisée par Dame Fiona Caldicott, pour le gouvernement britannique, au sujet de l'ouverture des données de santé a provoqué des réactions sur l'utilité du partage de ces données dans le but de faciliter la guérison des patients.

Le secrétaire d’Etat à la santé britannique, Jeremy Hunt, est favorable au partage de données de santé. Après la parution de l’étude de Dame Fiona Caldicott sur ce sujet, Jeremy Hunt estime que la guérison des patients peut être grandement faciliter par l’échange d’information entre médecins. Selon ses propos, « le partage de données de santé devrait être la règle, pas l’exception » car les systèmes d’information dans les hôpitaux britanniques sont loin d’être interopérables et souffrent de ne pas être harmonisés d’un service à un autre. Le rapport précise, bien entendu, que l’infosanté doit être surveillée et son accès contrôlé pour les limiter à la meilleure prise en charge du patient. Cependant, les données pourraient aussi être utilisées pour aider la recherche et établir de nouvelles statistiques.
La quasi totalité des médecins britanniques sont favorables aux conclusions faites par ce rapport, avec pour but d’améliorer et faciliter la guérison des patients.

Source : rslnmag.fr

Avis d'expert
- Virginie Boillet

Dans le cadre de ses recherches sur l’économie de l’Open Data, Alex Howard du radar O’Reilly a interviewé Harvey Lewis, le directeur de recherche du département d’analyses de Deloitte UK. Il rappelle, tout d’abord, quelques hypothèses émises dans un rapport publié en juin 2012 :

Avis d'expert
- Thibaut Stephan

Frederik Cailliau, chercheur chez l’éditeur Sinequa, vous aide à vous poser les bonnes questions pour choisir votre outil.

- Pertinence : Les réponses aux requêtes sont-ils pertinents pour chaque utilisateur ? Sont-ils ordonnés en fonction de leur pertinence ? Les documents sont-ils classés par catégories ?

- Convivialité de la recherche : Quelles sont les fonctionnalités permettant d’optimiser la recherche et de la spécifier au moyen de filtres ?

- Traitements linguistiques : Le moteur est-il adapté à toutes les langues utilisées dans les documents de l’organisation ?

- Performance et ‘scalabilité’ : Quelle est la capacité d’indexation des données ? Une évolution de l’architecture a-t-elle un impact sur la pertinence et la performance de la recherche ?

- Qualité des connecteurs : Le moteur est-il doté de connecteurs pour l’ensemble des sources de données de l’organisation ?

- Sécurité : Est-ce que la sécurité de l’accès aux documents définie par l’entreprise est bien respectée partout ? N’y a-t-il pas de fuites cachées par exemple à la complétion automatique de la requête ?

- Généricité : Faut-il adapter le moteur aux données de l’entreprise ? Est-ce qu’il est facile à prendre en main (installation, configuration, mises à jour) ? Fait-il du text mining de façon générique et/ou fournit-il des outils de text mining en standard ?

 

Source : industrie-techno.com

 

 

Avis d'expert
- Virginie Boillet

Article posté par Bibliobsession sur son blog :

Vous connaissez peut-être Unglue-it, cette excellente initiative de libération des livres. Le principe est simple et bien expliqué par Lionel Maurel : Unglue.it agit comme un intermédiaire qui propose à des titulaires de droits sur un ouvrage déjà édité (auteur et éditeur) de fixer un prix en contrepartie duquel ils accepteraient de placer l’oeuvre sous licence Creative Commons (en principe la CC-BY-NC-ND : reproduction et diffusion permises, mais sans usage commercial et sans modification).
 
Une fois un accord trouvé, la plateforme Unglue.it permet de lancer une campagne de financement, afin de réunir la somme demandée dans un temps donné. En cas de succès, les titulaires de droits s’engagent à publier l’ouvrage sous forme de livre numérique, gratuitement, sous licence Creative Commons et sans DRM. La somme demandée couvre donc à la fois la réalisation du livre numérique et un forfait pour « compenser » la libération de l’oeuvre.
 
L’idée est simple et efficace : l’intérêt d’une communauté pour un livre finance une fois pour toute sa libération juridique tout en permettant une opération économique viable pour l’éditeur. L’éditeur fixe le montant initial et l’intermédiaire prend une commission. A la fin du processus, les internautes ont créé une ressource informationnelle capable de devenir un bien commun de la connaissance par l’appropriation communautaire dont il peut faire l’objet, relativement à la communauté qui en a financé la transformation ! Une nuance cependant, la licence creative commons utilisée est l’une des plus restrictive, elle ne permet ni un usage commercial ni une oeuvre dérivée. Or la licence la plus favorable aux développement de biens communs de la connaissance est celle qui permet tous les usages, surtout les oeuvres dérivées et le partage à l’identique. Le système fonctionne depuis quelques mois, mais il faut bien reconnaître que le choix des titres n’est pas toujours des plus intéressants et qu’il est parfois difficile de mobiliser une communauté autour d’un titre…
 
Mais que se passerait-il si la libération portait non pas sur des titres mais bien sur des corpus de titres scientifiques ? C’est l’excellente idée qu’a eu Knowledge Unlatched. Le système n’est pas encore lancé, mais la structure existe. La promesse est similaire sauf que cette fois ce ne sont plus les internautes mais les bibliothèques qui, par l’achat de corpus, financent la libération pour TOUS des contenus scientifiques. Un programme pilote de 3 ans est lancé, il permettra de déterminer le juste prix et d’affiner le modèle économique. Evidemment, l’intermédiaire comme l’éditeur prennent une commission sur le prix de la libération.
 
A l’heure où on cherche activement à montrer que la voie platinum de l’Open Access est économiquement viable, voilà qui va en intéresser plus d’un. La voie Platinum est ainsi définie par le Conseil scientifique d’OpenEdition :
 

Nous manifestons notre préférence pour une troisième voie pour le libre accès. La voie appelée platinum est celle d’une édition en libre accès qui permet aux auteurs de publier et aux lecteurs de lire sans obstacle financier. Pour financer un tel modèle, diverses modalités existent, recensées par l’Open Access Directory. Nous privilégions un modèle hybride, le modèle  Freemium, dans lequel le texte est en libre accès, mais un ensemble de services à forte valeur ajoutée sont par ailleurs commercialisés. C’est dans cette optique qu’OpenEdition a lancé en 2011 OpenEdition Freemium pour les revues, et lancera fin 2012 un programme Freemium pour les livres (OpenEdition Books)
 
Voilà donc le genre de modèle qui montre que les biens communs de la connaissances et l’Open access ne résument pas à de gentils défenseur de l’internet ouvert ou de gentils défenseurs de services publics désargentés… Or les licences Nationales qui consistent à acheter au niveau de l’Etat des contenus sous droit pour les libérer dans les bibliothèques sont souvent considérées par les bibliothécaires comme une forme de libération ultime. Pourtant, elles font pâle figure face à une voie platinum à grande échelle telle que la propose Knowledge Unlatched. Et si au lieu de financer une libération pour les publics actuels des bibliothèques : pour les étudiants et les chercheurs estampillés comme tels, on considérait que la libération devait avoir lieu pour tous les citoyens donc tous les internautes ?
 
La démarche de l’Open Access n’est plus un supplément d’âme, on a changé d’échelle ! L’objectif stratégique suivant est énoncé par Mme Fioraso, Ministre de l’Enseignement supérieur et de la Recherche.
 

« L’information scientifique est un bien public qui doit être disponible à tous, sans restriction d’accès, et dont les bénéfices doivent être partagés par tous. Le secteur des publications scientifiques a connu de profonds bouleversements liés à la fois à l’internationalisation de la diffusion des savoirs scientifiques et à l’apparition de quelques grands groupes d’éditeurs qui ont imposé à l’ensemble des établissements d’enseignement supérieur et de recherche des augmentations tarifaires importantes.
 
Dans le même temps, les scientifiques ont exploré des modes plus directs de diffusion de leurs travaux. Ils ont été soutenus par leurs institutions et parfois encouragés par les gouvernements. Progressivement, plusieurs modèles de libre accès se sont développés, le mode de l’Open Access ou accès libre apparait sans conteste la nouvelle façon de diffuser l’information scientifique.
 
Il y a de rares moment ou en dehors de toute considération partisane, une partie de la classe politique fait son boulot : elle fixe le cap des politiques publiques. L’anglais distingue d’ailleurs l’arène partisane de la politic au nécessaire temps long de la policy (politiques publiques).
 
Le changement est profond! C’est désormais officiel : la fonction des outils de politiques publiques que sont les bibliothèques universitaires n’est plus de « donner accès à » mais bien de « libérer des contenus  POUR TOUS ». Vous travaillez en bibliothèque publique ? Sentez-vous concernés, avec plus de 80% d’une classe d’âge qui fait des études supérieures, ce serait irresponsable de dresser des frontières étanches.
 
Mesurons l’abîme entre cette démarche et le désarroi stratégique d’une BnF qui encapsule du patrimoine commun du domaine public au bénéfice de quelques marchands sélectionnés. Je m’associe au collectif SavoirsCom1 pour critiquer ces Accords. Il s’agit pour la BnF, dans le cadre du grand emprunt de vendre des licences d’accès à des bibliothèques. On vend des accès en créant des enclosures artificielles sur le domaine public. C’est bien pour ça que la démarche est choquante alors même que le domaine publique n’est la chose de personne (Res nullius).
 
Dans ce système, les bibliothèques accumulent des trésors derrières des forteresses artificielles qui sont au coeur d’un modèle économique dépassé. La démarche est strictement opposée à une voie platinum qui libère les contenus tout en se rémunérant sur autre chose que la barrière d’accès.
 
L’idée sous-jacente qui autorise, voire justifie la démarche de la Bnf est rarement explicitée. Elle est pourtant très commune chez les bibliothécaires et très dangereuse : les publics attirés par ces trésors franchiront les forteresses, d’une manière ou d’une autre. Comme nos établissements sont très souvent évalués à la lumière de leur fréquentation in situ à partir d’une communauté territoriale ou académique, le lien est vite fait : des données exclusives attirent, et le libre accès numérique éloigne des lieux. Misère de l’évaluation des performances des services publics par la dramatique absence de réflexion sur les objectifs et leur évaluation.
 
Pour mémoire ce schéma permet de comprendre en un éclair qu’une évaluation par la fréquentation n’est rien sans l’inscription d’une politique publique dans un contexte social et l’existence d’objectifs opérationnels. Désarroi stratégique, oui.
 

On voit bien ici que la réponse à un « enjeu public » en haut à gauche du schéma ci-dessus est formulable comme suit : favoriser la diffusion du Patrimoine commun, en tout cas tel qu’il est proclamé par tous les Ministres de la Culture et par les directions d’établissements. Ce qui se passe c’est qu’il est effacé par un objectif contradictoire et moins avouable des seconds par rapport aux premiers : maintenir la fréquentation du lieu pour sauvegarder les budgets. Si l’enjeu stratégique d’une meilleure diffusion du patrimoine commun était vraiment traduite en objectifs opérationnels, alors jamais de tels accords n’auraient pu être signés.
 
Voilà un problème, au delà de la BnF qui guette toutes les bibliothèques… Combien de fois ai-je lu par exemple des phrases déplorant la fermeture des bibliothèques anglaises ? Il faut pourtant savoir que la plupart des bibliothèques fermées étaient des placards à balais avec quelques livres dedans dont la fermeture était justifiée. L’objectif défendu par était-il : garder un nombre de bibliothèques le plus élevé possible sur un territoire ? Ou était-il : concentrer les moyens pour que les bibliothèques ouvertes soient les plus efficaces par rapport aux enjeux auxquels elles répondent ? Qu’il y ait eu des fermetures par pure économie est un fait, mais à trop déconnecter les moyens des objectifs on finit par défendre l’indéfendable.
 
Il y a aussi de l’ironie à voir l’intérêt que suscitent les troisièmes-lieux et le refus d’envisager ce que porte le concept même de tiers-lieux : une approche intégrée des services publics avec forte participation des habitants… et mon petit doigt me dit que ça ne se fera pas sans « quelques transformations » sur les territoires. Le déplorer c’est une chose, anticiper est une autre non ? Attention n’y voyez pas une position de surplomb de ma part, je n’ignore pas combien les réformes sont difficiles, j’exprime juste un ras-le-bol devant la question des moyens portée en bandoulière.
 
Ajoutons que l’évaluation à partir de la fréquentation du lieu est renforcée par un sous-entendu qui relève carrément selon moi de l’ethnocentrisme de classe : ceux qui identifieront les trésors et sauront franchir les forteresses pour y accéder, et le méritent. Nous voilà ramenés des années en arrière, au pires heures des intermédiaires exclusifs qu’étaient les établissements gérant jalousement des accès aux Trésors Nationaux. Nous voilà en pleine violence symbolique par ceux-là même qui ont cité Bourdieu en passant des concours…
 
Le web est passé par là… et pourtant. Alors que la levée de bouclier est quasiment unanime contre les Accords BnF , on ne peut que rester effaré en lisant que l’association Wikimédia, tout en déclarant se rallier à la cause commune, propose une voie de sortie à la BnF garantissant l’égalité d’accès des citoyens :
 

Nous pensons également que le partenariat peut être amendé. En particulier, si nous nous réjouissons que les scans soient disponibles dans les murs de la BnF (où se trouvent déjà l’exemplaire originel), il nous semble important que des points d’accès existent dans les autres régions afin de promouvoir le principe d’égalité d’accès des citoyens aux services publics et à la connaissance. Or, la BnF travaille avec un réseau de bibliothèques, qui doivent donner accès au dépôt légal du web : y proposer les scans nous semble un projet raisonnable qui concilie les besoins des lecteurs et les contingences du prestataire.
 
Belle égalité d’accès que des accès au domaine public dans les murs d’un réseau de Bibliothèques partenaires, alors même que ces contenus doivent circuler librement sur le web ! Je rejoins l’analyse de Désert de sel : cette position de la part de Wikimédia est proprement sidérante. Même si le débat interne à l’association a semble-t-il été rude, on ne peut que déplorer que de telles propositions soient avancées publiquement.
 ¦Quand cesserons-nous de hiérarchiser les usages sur place et les usages à distance ?
 ¦Quand cesserons nous de penser que la performance des services publics dont nous avons la charge se mesure à la fréquentation des lieux ?
 ¦Quand arriverons-nous à construire des métriques mesurant non pas seulement l’efficacité de l’accès aux informations que nous proposons mais aussi l’efficacité des services ?
 ¦Quand déplacerons nous le centre de gravité des établissements publics culturels du prêt ou de l’accès vers des dispositifs de médiation et les services évalué quantitativement et qualitativement ? Il devient urgent de redéfinir nos objectifs de politiques publiques.
 
Si j’ai co-fondé avec Lionel Maurel le collectif SavoirsCom1 qui est sous-titré politiques des biens communs de la connaissance, c’est parce que je crois profondément (avec d’autres) que l’approche par les biens communs est de nature à ré-orienter les objectifs stratégiques des services publics du secteur élargi de l’information-documentation. Le développement du libre accès par la voie platinum est un signe positif, les accords BnF sont un symptôme de ce qu’il ne faut plus faire. Sans fétichiser le domaine public ou l’accès libre aux informations scientifiques ou patrimoniales nous considérons qu’elles sont autant de contenus potentiellement appropriables par des communautés donc des biens communs en puissance. S’il s’agit de rendre possible le développement de biens communs de la connaissance au bénéfice de tous, alors voilà le socle que nous devons élaborer et qui se déploie dans le Manifeste du collectif SavoirsCom1. A travers ce collectif et ces prises de positions, il ne s’agit pas de défendre les bibliothèques dans le vide, mais bien au-delà, de défendre ou d’élaborer des politiques publiques contextualisées permettant le développement de biens communs de la connaissance. Les bibliothèques y prendront place, sous leurs formes actuelles, ou pas.

Source : http://www.bibliobsession.net/2013/01/29/de-la-fourniture-dacces-a-la-liberation-des-contenus-repenser-nos-politiques-publiques/



Tags : open access
Avis d'expert
- Thibaut Stephan

L’étude “Analytics: The real-world use of Big Data” a été menée l’été dernier par IBM auprès de 1144 professionnels issus de 26 industries et de 95 pays. Elle vise à comprendre l’attitude des dirigeants vis-à-vis du Big Data et à modéliser le déploiement d’un tel projet dans les organisations.

Tags : Big data, IT
Tendance
- Thibaut Stephan

Bruce Orcutt, directeur marketing des produits mobiles chez Kofax, dévoile les enjeux de la capture en situation de mobilité.

Avis d'expert
- Virginie Boillet

Selon l’analyste Kimberly Samuelson de cmswire, les tendances technologiques 2013 reflètent le désir d'authenticité actuel motivé par un monde changeant.

Les « technologues » aiment vanter les nouvelles caractéristiques et fonctionnalités de leurs logiciels. Mais les utilisateurs attendent de la technologie qu’elle soit beaucoup plus pratique. Les organisations mettent l'accent sur : « J'ai un problème et comment la technologie peut-elle le résoudre ? » Ces problèmes sont examinés de différents points de vue - technologique, utilisateurs et management. La rétroactivité est recherchée et l'agilité est pratiquée. Dans une économie incertaine, nous devons être encore plus agiles. Les acheteurs doivent de plus en plus justifier les coûts et les vendeurs doivent répondre à ces coûts, dans leurs réponses aux appels d’offres. Cela signifie que l'ECM est déployé pour améliorer des activités à fort impact (process documentaires). Ces activités, comme le case management (gestion de dossiers) ou le « contract management » (gestion de contrats), sont elles-mêmes construites pour avoir plus de productivité et assez souples par nature. Le case management, par exemple, est utilisé dans la gestion de la relation client. Cela garantit que l’ECM correspond bien aux besoins de l'entreprise. En fin de compte, ce que ces activités peuvent apporter à l'organisation est utile, mesurable et prévisible.
Source : Extrait traduit d’une analyse de Kimberly Samuelson, sur cmswire

Powered by KB Crawl