• SCOOP : L’ONU veut contrôler Internet à travers le monde entier

    Publié le 27 novembre 2012

    Oui, vous ne rêvez pas, c’est bien l’ONU. Or, qui dit ONU dit Etats-Unis. Alors, la semaine prochaine, L’Union internationale des télécommunications (UIT, ou en anglais International Telecommunication Union ou ITU), organisme de l’ONU dont le siège est à Genève, en Suisse, se réunira à Dubaï, un des pays des Émirats arabes unis, pour plancher sur les moyens adéquats menant au contrôle de l’Internet. Les représentants de 193 pays participeront à cette réunion de près de deux semaines, selon la presse. 

    Le Secrétaire général de l’ITU, le malien Hamadoun Touré, a-t-il eu l’idée d’organiser cette conférence de négociation à Dubaï ? C’est moins sûr.  Ce que l’on sait pour l’instant, c’est que les participants veulent plancher pour un nouveau traité en matière de communications en s’appuyant, semble-t-il, sur des… résolutions du Congrès américain qui, clairement, veut de la manière la plus brutale, censurer l’Internet. The Wall Street Journal a dit son inquiétude car, pour lui, ces gens-là, avec leurs propositions, ignorent comment fonctionne véritablement Internet. C’est une lapalissade.

    Quand des bureaucrates veulent repenser Internet pour leurs intérêts, de peur que leurs mensonges ne soient révélés, chacun pouvant aujourd’hui se faire une certaine idée de l’information, ça déménage. C’est comme donner à un gorille de jouer sur un Stradivarius, tout comme la marche noble d’un éléphant dans un magasin de porcelaine. Internet c’est quand même 40.000 réseaux d’interconnexion entre 425.000 itinéraires mondiaux, ce qui permet à plus de deux milliards de personnes à travers le monde, de diffuser des messages et autres contenus numériques. Internet c’est aujourd’hui, près de 500.000 nouveaux utilisateurs par jour…Excusez du peu.

    Le document sur lequel les participants à cette réunion discuteront comprend plus de 200 pages. Le contenu n’a pas encore été dévoilé, mais quelques fuites indiquent que, il y aura des propositions aussi saugrenues les unes que les autres. Il s’agira entre autres, d’appliquer à l’Internet semble-t-il, les règles de l’ITU en matière téléphonique longue distance. C’est à dire que l’Internet deviendrait payant, pour un utilisateur Français qui veut accéder à un site américain, ou un Africain qui veut accéder à un site français et vive-versa. Ensuite, une proposition serait la taxation dite « efficace » des réseaux sociaux comme Facebook, Twitter, Tumblr etc. et plus exactement, aussi, Google. Rien que ça.

    Or, selon de nombreux observateurs, l’idée en elle-même est techniquement impossible parce que, contrairement au téléphone, l’Internet ne connaît pas de frontières nationales. Google a déjà pris position contre l’ITU, faisant savoir qu’il ne se laissera pas marcher sur les pieds en expliquant que:  »Seuls les gouvernements ont une voix à l’ITU. Cela inclut les gouvernements qui ne supportent pas un Internet libre et ouvert. En revanche, les ingénieurs, les sociétés et des personnes qui construisent ou utilisent le Web n’ont pas voix au chapitre. »

    Ainsi va le monde du mensonge étatique, qu’on veut préserver par tous les moyens.

    http://allainjules.com/


    votre commentaire
  • Nouvelles technologies : nouvelle philosophie, le "Tranhumanisme"

    Le projet transhumaniste a réussi à noyauter des institutions de premier plan aux Etats-Unis. Il inspire des programmes de recherche très concrets ou la création d’universités spécialisées comme la Singularity University. Créé en 2009 avec l’appui de Google et de la Nasa, ce think tank interdisciplinaire qui réunit le gratin international de jeunes chercheurs, se présente comme le MIT du futur.

    L’humanité est au seuil de la plus grande mutation de son histoire, prédisent les technoprophètes. Avec les «transhumanistes», voyage dans un futur où l’homme connecté devient immortel.

     

    trans.jpeg

    Transhumanistes sans gêne

     

    FRÉDÉRIQUE ROUSSEL,
    MARIE LECHNER
    Libération

    L’homme percera-t-il un jour le secret de son cerveau ? Dans vingt ans, cinquante ans, un siècle ? Les spéculations les plus aléatoires circulent. Cette quête apparaît comme la prochaine frontière de l’homme, celle qui lui permettra de se dépasser, prétend le mouvement transhumaniste. Les efforts de la recherche tendraient à les conforter. Simuler le cerveau humain sur un ordinateur. Visualiser le réseau de milliards de neurones connectés les uns aux autres, suivre le trajet d’une impulsion à l’intérieur de la Toile, détecter les racines de la maladie d’Alzheimer ou de Parkinson.

     


    C’est l’incroyable défi du Human Brain Project, initié par le neurobiologiste Henry Markram, associant treize centres de recherche en Europe et réclamant un milliard d’euros sur dix ans. Ce projet d’envergure prend pour assise les travaux de Blue Brain basé à l’Ecole polytechnique de Lausanne, en collaboration avec IBM, et se vante d’avoir réussi à copier une colonne néocorticale d’un cerveau de rat en neuf ans. Parvenir à reconstituer la complexité d’un cerveau humain, ses quelque 100 milliards de cellules avec leurs connexions, paraît plus chimérique. L’aventure, qui prend des allures d’une course avec le projet Human Cognome aux Etats-Unis, est comparée à la conquête de la Lune.

     

    Orateur volontiers iconoclaste, Henry Markram prédit : «D’ici dix ans, nous pourrons savoir si la conscience peut être simulée dans un ordinateur.» Ces recherches nourrissent les spéculations les plus outrancières du transhumanisme, courant de pensée né dans la Silicon Valley à la fin des années 80. Certains y détectent les prémices de l’uploading, scénario selon lequel le contenu d’un cerveau humain pourra être transféré sur un autre support, téléchargé sur un ordinateur, dématérialisé dans le cyberespace ou réimplanté sur un corps robotique inaltérable. Et de toucher du doigt le plus vieux rêve de l’humanité : l’immortalité.

     


    «Matrix» et «Avatar»

    Une vieille lune qu’on pensait cantonnée à la littérature de science-fiction. L’uploading est le thème du livre la Cité des permutants, de l’Australien Greg Egan, qui imagine qu’il sera un jour possible de simuler son cerveau sur un ordinateur pour le faire vivre dans un monde virtuel pour l’éternité. On le retrouve dans les anticipations cyberpunk de William Gibson ou de Bruce Sterling, ou dans Accelerando du Britannique Charles Stross, classique de la littérature transhumaniste, non traduit en français. Au cinéma, la trilogie Matrix ou Avatar procède du même imaginaire. Mais l’uploading figure également sur l’agenda de chercheurs de renom, comme Marvin Minsky pape de l’intelligence artificielle au MIT (Institut de technologie du Massachussetts), ou Hans Moravec, l’un des concepteurs de la robotique intelligente à l’université Carnegie Mellon, qui voit la chose se réaliser dans un futur proche. L’informaticien Ray Kurzweil fixe lui l’échéance à 2040. Là, une machine serait en théorie capable d’émuler le cerveau humain.

     


    Le transhumanisme, frange extrême de la cyberculture californienne, professe que l’humanité se trouverait au seuil de la plus grande transformation de son histoire. Grâce à l’union des biotechnologies et des nanotechnologies, des sciences de l’information (robotique et informatique) et des sciences cognitives, l’homme pourra enfin s’affranchir des limites assignées au corps, ce tombeau de l’âme décrit par Platon. Ses capacités physiques et mentales vont être sublimées. Et le dispenseront bientôt de naître, de souffrir, de vieillir, et même de mourir.

     


    Ce courant de pensée radical se développe dans la Silicon Valley, en pleine révolution numérique. Le mot serait apparu pour la première fois sous la plume du biologiste évolutionniste, Julian Huxley, frère d’Aldous (auteur du Meilleur des mondes). Mais c’est en 1989, avec son livre Are You a Transhuman que le futuriste F.M. Esfandiary - cryogénisé après sa mort dans un bain d’azote en attendant une hypothétique résurrection - pose le concept de transhumanisme. Le mouvement se structure au début des années 90, lors de la fondation de la première organisation, l’Extropy Institute du philosophe anglais Max More, puis du Foresight Institute d’Eric Drexler, chantre des nanotechnologies et surtout, en 1998, de la prosélytique World Transhumanist Association (WTA) qui compte près de 6 000 membres, parmi lesquels des académiciens réputés, essentiellement issus de l’informatique, de la robotique, ou des nanotechnologies, une poignée de biologistes, des philosophes, des sociologues, des médecins… Mouvement très hétérogène, selon Jean-Michel Besnier, professeur de philosophie à la Sorbonne et auteur de Demain les posthumains : «C’est une nébuleuse avec des modérés qui pensent que l’humain n’est pas au bout de son évolution et peut s’améliorer et des extrémistes qui veulent en finir avec l’homme, passer au posthumain.» 


    Défiance de la chair

    L’humain est «inadapté» au monde contemporain, estime Nick Borstrom, philosophe suédois de la mouvance, et l’amélioration de la condition humaine nécessite d’abord une modification du corps par les technologies. On retrouve chez les transhumanistes cette défiance de la chair qui irrigue toute la cyberculture, analyse Jean-Claude Guillebaud, dans la Vie Vivante, plaidoyer contre «les nouveaux pudibonds». Un corps biologique, faible et imparfait, incarnation de la finitude, volontiers qualifiée de «meat», viande anachronique. «Le transhumanisme dessine un avenir où le corps n’aura plus sa part», écrit Besnier. «Le fantasme de l’homme remodelé, puis intégralement autofabriqué, fait plus que jamais partie de l’imaginaire d’aujourd’hui. Il est dans la stricte continuité des illusions générées par la modernité.»


    Devenir un homme d’acier préconisait déjà le futuriste Marinetti dans les années 20. Fusionner avec la machine, qui est, d’après Kevin Warwick, l’avenir de l’homme. Le scientifique britannique, qui s’est implanté une puce dans le bras pour lier son système nerveux à un ordinateur, se proclame «premier cyborg».«La technologie risque de se retourner contre nous. Sauf si nous fusionnons avec elle. Ceux qui décideront de rester humains et refuseront de s’améliorer auront un sérieux handicap. Ils constitueront une sous-espèce et formeront les chimpanzés du futur», déclarait-il en 2002.

     


    D’autres vont encore plus loin, annonçant l’avènement imminent d’une nouvelle espèce. C’est le cas de la frange la plus radicale du transhumanisme, les Extropiens qui récusent l’entropie, cet inéluctable processus qui conduit l’univers à sa désagrégation. Mais également des partisans de la Singularité, telle qu’énoncée par Ray Kurzweil. L’informaticien et futurologue médiatique anticipe l’avènement imminent d’une superintelligence qui rendra celle des hommes obsolètes. D’après lui, nous sommes à la veille d’un saut technologique reposant sur la croissance exponentielle de la puissance de calcul des ordinateurs. «La Singularité, écrit Kurzweil qui s’y prépare en gobant plus de 200 vitamines par jour, est une période future où le rythme des changements technologiques sera si rapide et son impact si profond que la vie humaine sera transformée de manière irréversible.»

     


    Le terme Singularité, emprunté à l’astrophysique, se réfère à un point dans l’espace-temps où les règles de la physique ordinaire ne s’appliquent plus, un trou noir inobservable. Le concept fut d’abord proposé par Vernor Vinge, mathématicien et écrivain de SF. Dans un symposium à la Nasa en 1993, il annonce que «dans trente ans, nous aurons les moyens technologiques de créer une intelligence surhumaine. Peu après, l’ère humaine cessera».


    Sculpter le corps et l’esprit

    Kurzweil, inventeur visionnaire aux 39 brevets et 19 doctorats honorifiques, a créé en 1976 la première machine capable de lire des livres aux aveugles, puis l’un des premiers synthétiseurs et des logiciels éducatifs. Sa théorie de la Singularité lui a valu moqueries et critiques de scientifiques prestigieux qui l’ont qualifié de parascience. Ce qui ne l’empêche pas de trouver un écho grandissant dans le grand public. En février, il faisait la une du Time Magazine sous le titre racoleur : «2045, l’année où l’homme devient immortel.»

    L’article, consacré à l’auteur du best-seller The Singularity is near, également héros de deux documentaires sortis début 2011, avance que la Singularité «n’est pas une idée marginale mais une hypothèse sérieuse qui mérite qu’on l’évalue sobrement et avec précaution». Sorti en France sous le titre Humanité 2.0 : la bible du changement, le technoprophète Ray Kurzweil y livre une profession de foi dont le lyrisme rappelle celui du manifeste du futurisme de 1909.  

     

    «Nous voulons devenir l’origine du futur, changer la vie au sens propre et non plus au sens figuré, créer des espèces nouvelles, adopter des clones humains, sélectionner nos gamètes, sculpter nos corps et nos esprits, apprivoiser nos gènes, dévorer des festins transgéniques, faire don de nos cellules souches, voir les infrarouges, écouter les ultrasons, sentir les phéromones, cultiver nos gènes, remplacer nos neurones, faire l’amour dans l’espace, débattre avec des robots, pratiquer des clonages divers à l’infini, ajouter de nouveaux sens, vivre vingt ans ou deux siècles, habiter la Lune, tutoyer les galaxies.» Une utopie positiv(ist)e, qui incite l’homme à embrasser joyeusement et sans crainte les mutations à venir. Comme c’est inéluctable, autant s’y préparer, disent les transhumanistes.

     


    Jean-Michel Besnier parle d’une «utopie de substitution pour une humanité fatiguée d’elle-même», et évoque la «honte prométhéenne» de l’homme contemporain qui a le sentiment d’être dépassé par ses innovations techniques, décrite par Günther Anders dans le prémonitoire l’Obsolescence de l’homme en 1956. Le désarroi que procure cette sensation de foncer vers l’inconnu expliquerait que les promesses transhumanismes, y compris les plus fantaisistes, trouvent des oreilles de plus en plus réceptives. La recherche ne fait-elle pas elle-même régulièrement des annonces spectaculaires et de plus en plus surprenantes ? Dans la course aux fonds, certains chercheurs prestigieux n’hésitent pas à se transformer en camelots, usant du même registre technoprophétique… Henri Markram et sa conscience simulée sur ordinateur en font partie.

     


    Les transhumanistes réfutent vigoureusement ceux qui les taxent d’affabulateurs, et se considèrent comme des rationnalistes purs et durs : leurs prédictions s’appuient sur des avancées techniques qu’ils se contentent d’extrapoler. Le recours de l’homme à des prothèses ne date pas d’hier. Plus de 30 000 malades atteints de Parkinson portent des implants cérébraux. Les premiers essais pour ralentir Alzheimer avec des implants viennent de débuter.

     

    Les progrès de la médecine régénérative, qui répare ou remplace des tissus et organes défectueux ou encore la télomérase, enzyme découverte par trois chercheurs américains nobelisés en 2010 qui a la capacité d’inhiber le raccourcissement des télomères impliqués dans la sénescence des cellules, sont autant d’avancées qui donnent à penser que l’on pourrait un jour cesser de vieillir. Et pourquoi pas de mourir.

     


    C’est bien ce genre de raccourcis qui irrite les détracteurs du transhumanisme. La sociologue canadienne, Michèle Robitaille s’emploie à démontrer dans la revue Futuribles comment ils instrumentalisent la science à des fins idéologiques. «Leur projet brouille les frontières entre science et science-fiction parce qu’il fait constamment appel à notre imagination tout en se référant à la science.» Ce mélange des genres rend le mouvement peu crédible, estime François Taddéi, directeur de l’Institut de recherche interdisciplinaire de Cochin-Necker, chercheur en biologie des systèmes à l’Inserm. «Bien sûr que les ordinateurs, les robots, peuvent nous aider à améliorer certaines fonctions mais avoir une technologie capable d’intégrer l’ensemble des fonctions humaines, on en est loin. Ce n’est pas parce qu’on comprend une composante d’un système qu’on est capable de comprendre un système complexe. On connaît tous les gènes, mais on ignore comment ils interagissent. Pareil pour le cerveau.»

     

     

    Le chercheur pilote l’une des rares équipes françaises en biologie de synthèse, secteur de pointe qui consiste en la reconstruction délibérée d’organismes vivants. «Pour l’instant, tempère Taddéi, on ne sait pas prédire le comportement d’une bactérie, il ne suffit pas d’augmenter la puissance de calcul pour simuler un être humain. Les cellules ne sont pas des ordinateurs. C’est une vision simpliste du monde.» Même modestie dans le domaine de l’intelligence artificielle. On est loin des utopies qu’avait suscitées l’IA lorsque les pionniers de l’informatique, Turing en tête, pensaient pouvoir doter une machine d’une intelligence similaire à l’homme.

     


    Tout ceci n’est qu’une affaire de temps, estiment les transhumanistes qui ont foi dans le progrès perpétuel et exponentiel de la science et de la technologie, érigeant la loi de Moore, selon laquelle la puissance informatique double tous les dix-huit mois sans tenir compte de l’apparition éventuelle de facteurs limitants comme la crise énergétique ou quelque catastrophe écologique.

    Leurs thèses sont prises au sérieux outre-Atlantique. Notamment la fameuse «convergence NBIC», au cœur de la rhétorique transhumaniste. Ce mariage entre bit, gène, neurone et atome est la théorie qui a fait grand bruit en 2002. Commandité par la National Science Foundation, l’objectif du rapport réalisé sous la tutelle de William S. Bainbridge, sociologue diplômé de Harvard et militant de la cause transhumaniste, et qui a mobilisé une cinquantaine de chercheurs, était explicite : «Improving Human performance». En plus de participer à la constitution d’un imaginaire, le projet transhumaniste a réussi à noyauter des institutions de premier plan aux Etats-Unis. Il inspire des programmes de recherche très concrets ou la création d’universités spécialisées comme la Singularity University. Créé en 2009 avec l’appui de Google et de la Nasa, ce think tank interdisciplinaire qui réunit le gratin international de jeunes chercheurs, se présente comme le MIT du futur.

     


    Soigner ou créer un super-soldat

    Aux Etats-Unis, les transhumanistes n’ont pas de mal à convaincre de riches donateurs, convaincus qu’il y a là un marché colossal. «Les Etats-Unis sont pilotés par des recherches de rupture, faire un super-soldat, rendre quelqu’un immortel. Ils sont dans ce mythe perpétuel de nouvelle frontière, d’abord de l’Ouest, puis de l’espace, puis d’Internet, puis de la transformation de l’homme. Ils pensent que la technologie peut résoudre tous les problèmes et sont moins sensibles à leurs effets négatifs», constate François Taddéi. En France, selon lui, «on est plus prudent concernant le vivant. On cherche plutôt à soigner les pathologies qu’à améliorer l’homme». Ce qui ne l’empêche pas de penser que la convergence est une réalité, et qu’il est nécessaire de favoriser l’interdisciplinarité dans un système de recherche français très cloisonné, anachronique.

     


    «L’Etat français n’a pas compris l’impact d’Internet, ni de la génomique et il reste aveugle concernant les NBIC, une synergie qui va entraîner une révolution du vivant, porteuse de croissance», harangue le généticien Laurent Alexandre, lors d’un débat houleux à la Gaîté lyrique le 16 mai, promouvant son thriller d’anticipation Google Démocratie, co-écrit avec David Angevin, qui vulgarise cette convergence balbutiante. D’après le généticien, toutes les NBIC ne sont pas au même niveau. Pour les nanotechnologies et surtout les neurosciences, on en est au tout début. «Ce sont surtout les sciences de l’information qui ont explosé, les biotechnologies commencent à décoller, avec la démocratisation du séquençage», analyse-t-il. «Le premier séquençage, celui de Craig Venter [biologiste et homme d’affaires qui a annoncé avec fracas avoir créé la première cellule à génome synthétique en mai 2010, ndlr], a pris treize ans et coûté des milliards. Dans dix ans, ça coûtera le prix d’une paire de baskets», assène-t-il devant un public médusé, en brandissant une clé USB de 700 Megaoctets contenant son génome.

     


    «Plus le nombre de gens séquencés augmentera et plus on pourra faire de corrélations, détecter des maladies», continue le Dr Alexandre, auteur de la Mort de la mort, et également entrepreneur (créateur du site Doctissimo) à la tête de la plus grande boîte de séquençage d’ADN d’Europe. «Bien sûr, dit-il devant les réactions outrées, on sera libre d’être séquencé ou non.»

     


    La France, berceau des Lumières, s’est longtemps montrée hermétique au transhumanisme, qui prolifère depuis des années dans le milieu fertile de la culture geek anglo-saxonne, via les listes de diffusion et forums sur Internet. Mais ses idées finissent par essaimer dans nos contrées, quoique très édulcorées. Fin 2007, une première liste de diffusion transhumaniste est lancée par Stéphane Gounari, 27 ans, spécialiste de la gestion du risque et Alberto Masala, 31 ans, philosophe italien de la Sorbonne, avant de se constituer en association, sous l’impulsion de l’enseignant Marc Roux, son président. Baptisée Technoprog, elle ne compte qu’une vingtaine de membres (informaticiens, sociologues, philosophes, et quelques biologistes), façade institutionnelle qui permet de prendre part aux débats sur la révision de la loi de bioéthique, et à celui sur les nanotechnologies… «Notre objectif, avance Marc Roux, est de diffuser la réflexion sur le transhumanisme et de promouvoir des chercheurs travaillant dans le domaine des NBIC.»


    Leur pouvoir d’influence s’arrête là. Du pain sur la planche en perspective dans un pays d’arracheurs de maïs transgéniques et de saccageurs de bornes biométriques. La méfiance envers les biotechnologies s’exprime aussi au niveau européen, où seuls 53 % considèrent qu’elles auront un impact positif sur les modes de vie au cours des vingt prochaines années, selon un récent sondage de la Commission européenne.«En présentant les NBIC comme remède à tous les maux, ces chercheurs participent d’un déterminisme technologique, écrit la sociologue Michèle Robitaille. Vous avez un sentiment de mal-être ? Les prothèses neuromorphiques, les antidépresseurs ou les nanorobots inhibiteurs de stimuli sensoriels peuvent y remédier.» Comme si seules les technosciences étaient en mesure d’améliorer la condition humaine, annihilant la confiance en tout projet politique.


    Barbares restés à l’état naturel

    L’idéologie transhumaniste - surtout sa frange la plus radicale, l’extropisme - puise ses racines dans l’anarcho-capitalisme et la droite la plus libérale, rappelle le journaliste Rémi Sussan , une approche individualiste qui ne se préoccupe guère du reste de la société. Plus encore que la transformation de l’homme, ce sont les dominations et logiques inégalitaires qu’elle porte qui dérangent. La perspective d’une humanité à deux vitesses avec d’un côté les post-humains améliorés, sort réservé à une élite fortunée et, de l’autre, les milliards de «barbares», demeurés à l’état naturel. C’est également la toile de fond du roman Google Démocratie, qui oppose transhumanistes et bioconservateurs.

     


    L’association française tient précisément à se démarquer du transhumanisme californien des origines, et s’inscrit dans la tendance techno-progressiste, plus policée, initiée sous la présidence de James Hughes qui a rebaptisé l’association transhumaniste mondiale «H+». L’ancien moine bouddhiste et expert de technologie d’amélioration cognitive promet une sorte d’«hyperhumanisme», soucieux de la collectivité, d’éthique, préoccupé d’écologie et susceptible d’être accepté par un public plus large. Un transhumanisme «démocratique de gauche», qu’Hughes développe dans son livre Citizen Cyborg, qui veut permettre l’accès à tous à ce «corps choisi», via l’instauration d’un revenu universel.

     


    «Un autre transhumanisme est possible», tente Marc Roux. L’ancien militant d’extrême gauche, syndicaliste, en catogan, animait jeudi la deuxième conférence dédiée au mouvement à la Sorbonne, donnant la parole à deux de ses éminents représentants, l’artiste Natasha Vita-More et le gourou de la jeunesse éternelle Aubrey de Grey (par visioconférence), chacun réfutant le terme d’immortalité au profit d’un plus modeste «allongement radical de la durée de vie en bonne santé». Et concluant leur intervention par des appels aux dons pour leurs fondations privées afin de faire de ce séduisant programme une réalité....

     

    Libération juin 2011

     

    Clinatec : Clinatec : cette discrète clinique où l’on implante des nanos dans le cerveau

    Des implants cérébraux contre la dépression ou l’obésité. Clinatec, rêve des ingénieurs du nucléaire. Secret industriel ou secret défense ? Premiers patients en février 2013. Bloc opératoire du futur « Transfert de connaissances à l’industrie ». Quels débouchés commerciaux ? Du traitement de Parkinson à la « médecine régénérative » « On peut changer la personnalité de quelqu’un ». Quid du principe de précaution? Des bugs dans le cerveau. Une version high tech de l’électrochoc ? Sans que […]

     

    http://www.mleray.info/article-nouvelle-technologies-nouvelle-philosophie-le-tranhumanisme-111945597.html


    votre commentaire
  • Éoliennes domestiques : comment les pouvoirs publics encouragent une vaste escroquerie

    Par Nolwenn Weiler (27 septembre 2012)

    Méfiance avec les petites éoliennes domestiques ! De plus en plus de particuliers se font arnaquer par des entreprise sans scrupules : installation là où le vent ne souffle pas, promesses de production fantaisistes, risques importants d’endommager les maisons... Ces éoliennes bénéficient pourtant d’un important crédit d’impôt. Les pouvoirs publics, sourds aux avertissements des professionnels de la filière, encouragent actuellement une vaste escroquerie. Au détriment du véritable petit éolien.

    « En installant une éolienne à votre domicile, vous pourrez réduire sensiblement votre facture d’électricité » : C’est ainsi qu’Optim’eo, entreprise spécialisée dans les « solutions d’amélioration de la performance énergétique », résume les avantages de ses petits moulins à vent domestiques. Patrice Filly, qui habite à une trentaine de kilomètres de Rennes, a été démarché par l’entreprise au cours de l’été 2011. Il se laisse tenter par les très alléchantes propositions du commercial, qui a même griffonné sur un coin de papier que son client pouvait envisager une économie de 700 euros par an sur sa facture d’électricité ! Las, trois mois après l’installation, les factures n’ont pas bougé. Et le fort sympathique commercial n’est plus joignable.

    Patrice Filly rejoint ainsi la triste cohorte des arnaqués du petit éolien, de plus en plus nombreux. « Depuis que le crédit d’impôt pour le photovoltaïque a diminué, les entreprises spéculatrices se sont rabattues sur le petit éolien », remarque un conseiller d’Info énergie, mis en place par l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) pour sensibiliser et informer le grand public. « Ils prennent les gens par les bons sentiments : qui peut être contre les énergies renouvelables ? Et puis une petite éolienne, c’est sympathique, c’est pittoresque », poursuit Franck Turlan, du Site expérimental pour le petit éolien national (Sepen). À ce capital sympathie, s’ajoute une véritable méconnaissance. « Tout le monde sait ce que sa voiture consomme, et combien cela coûte, en gros, avance Frédéric Boutet, artisan électricien. Mais en matière de production et de consommation d’électricité, les gens n’y connaissent rien. »

    Des promesses de production mensongères

    Calculs faits, Patrice Filly s’est rendu compte que pour atteindre les 700 euros d’économies promis, il aurait fallu que son éolienne de 700 watts tourne et produise de l’électricité pendant 10 000 heures ! Soit plus que n’en compte une année. « L’occasion était trop belle. C’était évident. Nous étions quelques uns à voir venir tout cela. Nous avons tenté de sonner l’alerte, en vain, » tempête Franck Turlan, qui se désole de cette très mauvaise publicité faite à une ressource pourtant prometteuse. « Il y a un vrai gisement pour le petit éolien en France. On pourrait produire des mégaWatts chaque année ! Mais plutôt en milieu rural, dans une zone dégagée, et en plaçant les éoliennes là où souffle le vent, c’est-à-dire assez haut, une vingtaine de mètres environ. » Dans une telle configuration, et avec une machine de 2kW, on peut espérer une production d’environ 3000 kWh par an. Sachant qu’une famille de quatre personnes consomme en moyenne 4000 kWh par an, hors chauffage.

    Les promesses d’autonomie avec une « éolienne de pignon », comme on les appelle, sont donc de vrais mensonges. « De toute façon, en ville, il n’y a pas assez de vent », résume simplement Jean-Marc Noël, président de l’Association française des professionnels du petit éolien (AFPPE) et ancien professionnel du secteur. « Une étude commandée par la Commission européenne vient même de conclure qu’il n’y a pas de développement possible de l’éolien en ville. Le gisement y est bien trop faible. Il est en plus traversé de turbulences. Et si vous voulez le mesurer, cela coûte plus cher que la machine que l’on installerait éventuellement ensuite. »

    15 000 euros pour une éolienne qui ne tourne pas

    Les entreprises vendeuses d’éoliennes domestiques démarchent pourtant essentiellement en milieu urbain, dans les banlieues et lotissements, ignorant (ou faignant d’ignorer) ces évaluations... L’entreprise Planétair 35 affirme qu’une petite éolienne peut fournir jusqu’à 10 000 kWh par an ! Et qu’elle produit de l’énergie avec des vents inférieurs à 10 km/h. « A 10 km/h, l’éolienne démarre. Il n’y a donc pas grand chose en terme d’énergie, rectifie Jean-Marc Noël. Chez les Anglais, qui ont une longueur d’avance sur nous dans le domaine des petites éoliennes, on considère que la vitesse moyenne du vent pour installer une machine doit être de 40 km/h. » Contacté par Basta !, l’entreprise Optim’éo assure n’avoir rien à dire sur le sujet, et que « tout va bien ». Sur la nécessité ou non de faire une évaluation préalable du « gisement » de vent, l’interlocuteur a carrément affirmé : « Il est inutile de faire une étude ». Étude qui risquerait sans doute d’empêcher l’entreprise d’empocher quelques milliers d’euros en vendant une éolienne inutile...

    Econhoma, autre société citée par plusieurs particuliers bernés, et partenaire des émissions télévisées D&CO sur M6 ou Tous Ensemble sur TF1 (et même de la fondation Good Planet de Yann Arthus-Bertrand !), n’a pas souhaité répondre à nos questions. Nous aurions pourtant aimé savoir comment leur « éco-brigade » s’y prend pour installer des éoliennes qui produisent « de l’électricité gratuite au moindre souffle de vent ». La « gratuité » étant toute relative, puisque les installations coûtent en moyenne 15 000 euros. «  Mais cela varie beaucoup selon la tête du client, remarque un conseiller Info énergie. Cela va de 7000 à 19 000 euros, pour le même matériel. » Un témoin rapporte avoir payé 15 000 euros son éolienne qui ne tourne pas. Au bout de 120 mois de traite, avec les intérêts bancaires, elle lui aura coûté… 24 000 euros ! Les banques partenaires des entreprises (Financo, Domofinance, Solféa... ) se sucrant évidemment au passage. Ce type d’éolienne coûte pourtant moins de 1000 euros en sortie d’usine !

    Des installations illégales

    « Au mieux, ces éoliennes ne marchent pas. Mais au pire, elles s’écrasent », renchérit Jean-Marc Noël, de l’Association française des professionnels du petit éolien. Et emportent avec elles une partie des murs ! « Dans mon bureau des pleurs, j’ai aussi une personne dont une partie du toit a été arrachée. Les murs d’une maison sont faits pour supporter des efforts verticaux et en aucun cas horizontaux ». L’AFPPE déconseille simplement de fixer une éolienne au bâti. « Pour la simple raison que celui-ci n’a pas été conçu pour ça ! »

    Ajoutons que nombre de ces éoliennes de pignon sont illégales. Posée sur un mât en deçà de 12 mètres, une éolienne domestique n’a pas besoin de permis. Mais accrochée à une maison, elle doit faire l’objet d’une déclaration préalable auprès de la mairie. Personne ne le fait. C’est même un argument de vente : « Ne nécessite pas de permis de travaux », prétend ainsi le site internet d’Optim’éo. Exit aussi le passage du professionnel qui doit vérifier la conformité de l’installation et du branchement. « Le raccordement au réseau de distribution doit obligatoirement faire l’objet d’une demande de convention d’exploitation auprès du gestionnaire du réseau ERDF, afin de garantir la sécurité des intervenants sur le réseau », précise l’AFPPE.

    Malgré tout, ces éoliennes bénéficient d’un crédit d’impôt (jusqu’à 40% du prix d’achat). Un financement public au bénéfice d’entreprise peu recommandables... À côté de ces arnaques, il reste toujours très compliqué de faire installer une éolienne domestique à plus de 12 mètres. Seule garantie, pourtant, pour qu’elle soit vraiment efficace. Certaines agences régionales de santé demandent des compléments d’infos sur le bruit. L’instruction des permis de construire est longue et fastidieuse. « C’est tout juste si on installe pas une centrale nucléaire ! », ironise un artisan du secteur. Le risque est grand que les particuliers perdent confiance dans cette source d’énergie, comme pour le photovoltaïque. La France va-t-elle persévérer dans le non-développement des énergies renouvelables ?

    Nolwenn Weiler

    Photos : DR


    votre commentaire
  • Aurélie Filippetti, le 14 juillet à Paris. Photo Reuters/Charles Platiau.

     

    « Dans le cadre d’efforts budgétaires, je vais demander que les crédits de fonctionnement de l’Hadopi soient largement réduits pour l’année 2012. Je préfère réduire le financement de choses dont l’utilité n’est pas avérée. » La ministre de la Culture a défendu une position très agressive, hier, dans une interview donnée au Nouvel observateur.

    Cette déclaration n’est cependant pas une surprise, puisque Aurélie Filippetti avait déjà jugé le 11 juillet, lors de son audition devant la commission des Affaires culturelles de l’Assemblée nationale, que le budget de fonctionnement de la Haute autorité — 13 millions d’euros en 2012, 12 millions demandés pour 2013 — est « cher ». « 12 millions d’euros annuels et 60 agents, c’est cher pour envoyer un million d’e-mails », a répété hier la ministre.

    Reste désormais à savoir comment va tourner l’Hadopi si son budget est revu à la baisse en cours d’année — et même si cela est possible. Depuis plusieurs mois, des informations internes font état de vives tensions au sein des bureaux de la rue du Texel, les salariés pouvant légitimement se demander si leur poste passera l’année 2013... Autre question de taille : si la Haute autorité fonctionne au ralenti, que deviendront les dossiers des internautes flashés par Trident media guard (TMG), la société nantaise missionnée par les ayants droit du cinéma, de la musique et des jeux vidéo pour surveiller la circulation de centaines d’œuvres sur Internet. Cette dernière facture ses services pour quelque 3 millions d’euros annuels, qui seraient donc payés par les artistes, éditeurs et producteurs pour rien ? Interrogé sur ces questions, le ministère de la Culture ne nous a à cette heure pas répondu.

    La question de l’existence même de la Haute autorité est donc directement posée par Aurélie Filippetti aujourd’hui. D’autant que tous les e-mails et courriers adressés par l’Hadopi d’après les constatations de TMG n’ont pour l’instant abouti à aucune condamnation. On peut s’en réjouir, ou trouver — comme la ministre — que la machinerie de la riposte graduée tourne surtout dans le vide. D’autant qu’une étude préliminaire récente de l’université de Rennes 1 a montré que les missions de l’Hadopi restent mal connues... et que ceux qui les connaissent le mieux se sont contenté de changer de méthodes pour échanger des biens culturels en ligne ou dans la « vraie vie ».

    La mission de pédagogie de l’Hadopi est d’ailleurs considérée par Aurélie Filippetti comme un échec. « Une chose est claire : l’Hadopi n’a pas rempli sa mission de développement de l’offre légale », a-t-elle dit au Nouvel obs. Malgré ce que la Haute autorité a tenté de faire croire en mars, aucune étude solide ne montre aujourd’hui un lien direct entre l’entrée en vigueur de la loi Création et Internet et la progression des offres légales de téléchargement et de streaming. Ces dernières (iTunes, Deezer, Spotify...) se seraient avant tout développées parce que les solutions techniques proposées (débit, Internet mobile, capacités de stockage...) et les habitudes de consommation des internautes ont changé.

    Revenant enfin sur la mission de concertation confiée à Pierre Lescure, qui d’après nos informations n’a toujours pas à ce jour quitté son problématique mandat au conseil de surveillance du groupe Lagardère, propriétaire des éditions Hachette, Aurélie Filippetti a rappelé que les discussions ne sont « pas centrée[s] sur l’Hadopi ou sur le post-Hadopi », qui n’est qu’un des éléments qu’elle doit étudier. « Avec un périmètre très large, la mission devra réfléchir à comment l’exception culturelle, qui a permis à la France d’être en pointe en matière de culture, peut s’adapter à l’ère numérique ». Là aussi, tout ça a déjà été dit et répété depuis des mois.

    La ministre a toutefois tenu à laisser la porte ouverte quant à l’avenir de la Haute autorité, disant « [ne pas savoir] ce que deviendra cette institution ». Une façon de rappeler sa cotutelle sur la mission confiée à l’ancien pdg de Canal+, qui s’était pour sa part ouvertement prononcé, lors du festival d’Avignon, en faveur de la riposte graduée et du principe de la sanction. On sait que la mission Lescure est aussi une bataille d’influence au sein même du gouvernement, Pierre Lescure, proche de François Hollande, ayant été placé à la tête de la mission sur une décision de l’Elysée — et notamment de David Kessler, conseiller culture et médias auprès du président —, qui tient à garder la main sur ce dossier très sensible parmi les artistes soutiens du Parti socialiste.

    http://www.ecrans.fr/


    votre commentaire
  • Orange en panne : un drame national ?

    Renationaliser France Télécom !


    Pcf Paris 15, 8 juillet 2012

     

    Orange en panne : un drame national ?


    Le vendredi 6 juillet 2012, jour de départ en vacances, de résultats du bac : Orange ne répond plus. C’est la panique dans le pays. Même plus de téléphoniste à qui se plaindre de la coupure de la ligne. 20 à 30 millions d’utilisateurs de portable, d’internet sont privés pendant 10 heures d’outils de télécommunication devenus essentiels à leur vie quotidienne comme à celle de l’économie.

    Echaudé par les précédents de la canicule ou de la grippe aviaire, le nouveau gouvernement délègue en pleine nuit Mme Fleur Pellerin, ministre à l’économie numérique, au central téléphonique de France Télécom dans le 14ème arrondissement de Paris.

    Interviewée par le JDD, Mme Pellerin souligne « le très forte dépendance de notre économie et de notre société à l’égard des infrastructures de télécommunications » puis admet que « c’est tout à la fait le rôle de l’Etat » en tant qu’actionnaire que « d’imposer à l’opérateur d’investir dans des réseaux plus solides et plus fiables ».

    Eh oui, l’Etat, avec 27% du capital, demeure le seul actionnaire de référence.

    Mais alors pourquoi le gouvernement de « gauche » vient-il, début juin, de laisser verser par FT un dividende de 3,7 milliards d’euros, les deux tiers au profit de spéculateurs d’on ne sait où ? Pourquoi la « gauche » plurielle a-t-elle lancé la privatisation de FT en 1997 ?

    Depuis, c’est pratiquement 40 milliards d’euros qui sont partis dans les poches de actionnaires en dividendes, autant dans celles de la finance en remboursement des rachats absurdes, au prix le plus fort, de marques et de réseaux étrangers, complètement surévalués. La dette de FT a culminé en 2003 à 70 milliards d’euros (30 milliards aujourd’hui).

    A l’heure où l’on enterre la prouesse d’avant-garde du service public que fut le minitel il y 30 ans, il faut constater combien la téléphonie mobile et l’accès à internet se sont développés dans des conditions de surfacturation et d’inégalité scandaleuses pour les usagers et le pays.

    Les bénéfices détournés de FT, les profits colossaux du cartel de la concurrence (FT avec SFR, Bouygues et maintenant Free qui parasite le réseau FT), sont la contrepartie des abonnements prohibitifs, de l’abandon des territoires ruraux (à moins d’augmenter les impôts locaux), des SMS si longtemps à 15 centimes alors qu’ils ne coûtent quasiment rien etc. La facture globale de télécommunication a explosé d’une façon totalement injustifiée. L’investissement productif, la recherche en France sont maintenant menacés.


    machinebroyer-s-480813.jpg Voilà aussi maintenant 10 ans que le scandale de la gestion des ressources humaines de FT par le harcèlement a éclaté, grâce notamment à des communistes (le livre « FT : La Machine à broyer » dont nous, PCF Paris 15, sommes à l’origine). Mais depuis 10 ans, les mêmes pratiques continuent d’être couvertes par les gouvernements successifs, leur médiatisation, celle du drame des suicides, d’être utilisée pour démotiver encore un peu plus les salariés, fonctionnaires ou non.

    Vraiment, cela suffit, cette hypocrisie ! Communistes, pour nous, une revendication centrale s’impose :

    LA RENATIONALISATION INTEGRALE DE FRANCE TELECOM, sans indemnité pour les personnes morales actionnaires, LA DENONCIATION UNILATERALE AU NOM DE L’INTERET PUBLIC DES DIRECTIVES EUROPENNES DE CONCURRENCE.

    POUR UN GRAND SERVICE PUBLIC NATIONAL DES TELECOMMUNICATIONS DU 21EME SIECLE!


    votre commentaire
  • Samedi, journée mondiale de lutte contre ACTALa mobilisation contre le traité international anti-contrefaçon ne faiblit pas. D’autant qu’elle semble porter ses fruits : des manifestations ont lieu dans 22 pays et le texte a été rejeté en commission consultative au Parlement.

    La mobilisation sera mondiale ce samedi, et particulièrement en Allemagne et en France, où des manifestations sont prévues dans une vingtaine de villes, à l’appel de nombreuses organisations et collectifs, tels que les mouvements Occupy, des « indignés » et des 99 %) et Anonymous.  

    Malgré de plus en plus de réticences au niveau européen, le traité poursuit son chemin : Deux commissions doivent encore se prononcer, en particulier celle chargée du commerce international (INTA), la commission de référence sur l'accord. Tout se jouera lors du scrutin en séance plénière, prévu pour le début du mois de juillet. Trois commissions parlementaires se sont déjà prononcées contre, dont la Commission des libertés civiles, la commission de l’Industrie et celle des Affaires juridiques.


    votre commentaire
  • "Flame", une cyber-arme visant peut-être l’Iran, détectée par le russe Kaspersky (fabricant d’antivirus)

    Le spécialiste russe de la lutte antivirus Kaspersky Lab a découvert un nouveau virus informatique au potentiel d’infiltration inégalé, qui serait utilisé comme une cyber-arme contre des pays tels que l’Iran, probablement au profit de l’Occident et d’Israël.

    Le logiciel malveillant, connu sous le nom de Flame, "est actuellement utilisé comme une cyber-arme dans une série de pays", et à des fins de "cyber-espionnage", a indiqué la société russe, l’un des premiers fabricants mondiaux d’anti-virus, dans un communiqué disponible mardi matin sur son site.

    Ce virus, détecté dans le cadre d’une enquête lancée par l’Union internationale de télécommunications (ITU) et qui serait dans "la nature" depuis plus de deux ans, a un potentiel d’infiltration inégalé.

    Flame est capable de dérober des informations y compris dans des fichiers stockés, des listes de contacts, ou des conversations audio, a expliqué Kaspersky Lab.

    L’éditeur d’anti-virus ne dit pas précisément contre qui le programme est utilisé, mais indique avoir commencé à enquêter après une série d’incidents avec un autre virus, encore inconnu, qui supprimait des informations sur des ordinateurs en "Asie occidentale".

    Et selon des médias occidentaux, Flame aurait été utilisé pour attaquer le ministère iranien du Pétrole et le principal terminal pétrolier de ce pays.

    L’Iran a été la cible depuis deux ans de plusieurs attaques informatiques que les dirigeants iraniens ont attribuées aux Etats-Unis et à Israël, les deux ennemis déclarés du régime de Téhéran.

    Le Centre de coordination iranien pour la lutte contre les attaques informatiques a d’ailleurs annoncé mardi, après l’annonce de la découverte de ce programme, avoir réussi à produire un anti-virus contre Flame, sans toutefois indiquer quels dégâts le virus avait déjà pu faire en Iran.

    L’agence Fars a affirmé de son côté mardi que Flame serait "particulièrement actif" en Iran, au Soudan, en Syrie, en Israël, en Arabie Saoudite et en Egypte.

    Fin avril, un haut responsable iranien avait affirmé que le ministère du Pétrole était parvenu à stopper un virus qui avait frappé une partie de son réseau informatique pilotant le secteur pétrolier du pays.

    En 2010, un autre virus, Stuxnet, qui visait à retarder le programme nucléaire iranien en attaquant les centrifugeuses enrichissant l’uranium, avait été découvert. Selon des médias, il aurait pu être développé grâce à la collaboration de services de renseignement israéliens et américains.

    Mardi, le ministre israélien des Affaires stratégiques Moshé Yaalon a d’ailleurs alimenté les spéculations sur une possible implication d’Israël dans le programme Flame, en justifiant le recours à de tels virus afin de contrer la menace nucléaire iranienne.

    "Il est justifié, pour quiconque considère la menace iranienne comme significative, de prendre différentes mesures, y compris celle-là, pour la stopper", a estimé M. Yaalon à la radio militaire.

    "Israël est en pointe dans les nouvelles technologie et ces outils nous offrent toutes sortes de possibilités", s’est targué M. Yaalon, qui est aussi vice-Premier ministre.

    Selon Kaspersky, Flame dépasse de loin tous les autres virus déjà connus. Ainsi, il est "vingt fois plus important que Stuxnet", souligne l’éditeur russe.

    Cela marque "une nouvelle étape" dans la cyberguerre, "et il est important de comprendre que de telles cyber-armes peuvent facilement être utilisées contre n’importe quel pays", a déclaré Evgueni Kaspersky, directeur général.

    29/05/2012 à 12:49 AFP

    URL de cette brève 2659
    http://www.legrandsoir.info/+flame-une-cyber-arme-visant-peut-etre-l-iran-detectee-par-le-russe-kaspersky-fabricant-d-antivirus+.html

    votre commentaire
  • Nous publions ci-dessous le texte d’un Appel/pétition lancé sur le site « Radios en luttes ». Le signer à la même adresse. (Acrimed)

    La RNT : mai 2012- État des lieux

    Il y a plus de 30 ans, le mouvement des radios libres faisait tomber le monopole d’État sur la radiodiffusion et ouvrait la bande FM aux multiples expressions sociales, culturelles, politiques et musicales. Beaucoup des « historiques » ont disparu ou basculé plus ou moins dans la pub et sont passées du côté commercial. Cependant nous restons un certain nombre à revendiquer notre indépendance et notre liberté de contenu.

     

    La diffusion hertzienne reste pour nous la plus adaptée car elle est simple, de qualité et peu onéreuse. En 2008, le CSA sommait les radios associatives de rentrer dans les rangs du numérique. A cette époque déjà, nous formulions des réticences (Voir le texte les radios au crible du numérique). Aujourd’hui, alors que le projet du numérique avait été gelé, nous avons appris par voie de presse qu’il était relancé, avec en prime un « cadeau » empoisonné : la création de la radio payante ! Le CSA, suivi par les syndicats, censés représenter les radios associatives, foncent sans concertation ni réflexion véritable vers un projet qui pourtant implique une véritable transformation du Média Radio. Il nous présente ce passage comme inéluctable : suivre ou aller crever sur la bande FM...

    Malgré l’expérience désastreuse de la télé numérique (TNT), la Radio Numérique Terrestre nous est présentée comme une innovation technologique ultra moderne  : meilleur son, meilleure diffusion, meilleure réception. Des arguments d’industriels et de financiers qui sont discutables voire mensongers.

     

    La RNT : le clonage des programmes n’est pas pluralisme : la RNT nous est présentée comme la garantie d’une plus grande diversité. Aujourd’hui, 600 radios associatives garantissent la pluralité des opinions et l’accès démocratique aux médias. Elles puisent leur richesse dans leur capacité à relayer la parole des acteurs locaux à travers des moyens d’expression peu ou pas employés par les autres médias, offrant ainsi une diversité d’expression, d’expérimentation, de création et d’innovation tant au niveau du contenu que de la forme. Or, nous voyons dans le passage au numérique une mise en danger des radios associatives non commerciales, une volonté d’uniformisation du paysage radiophonique et la consécration d’une conception technocratique de l’audiovisuel.

     

    La RNT, çà coûte cher ! Le passage au numérique représente un coût considérable pour les radios : investissement en matériel, formation à la nouvelle technologie et double diffusion pendant plusieurs années (sur la bande FM et sur la bande numérique). Or, à ce jour, dans le contexte généralisé de baisse des aides publiques qui affecte l’ensemble du secteur associatif, aucune réponse satisfaisante n’a été donnée concernant la prise en charge du financement de la diffusion en numérique des radios associatives. Les coûts liés à la double diffusion risquent de les rendre toujours plus dépendantes des subventions d’état, régionales, locales et donc du bon vouloir des élus, au risque de compromettre leur liberté éditoriale. La réalité des radios sans publicité ni profit est tout bonnement ignorée. Il en va d’elles comme, par exemple, des minimas sociaux, de la santé, de l’éducation ou de la recherche fondamentale : ce qui n’est pas rentable pourrait tout aussi bien disparaître. Si passage à la radio numérique il y a, nous demandons une prise en charge des coûts de diffusion par les pouvoirs publics (par le FSER, Fond de Soutien à l’Expression Radiophonique ou tout autre dispositif).

     

    Avec la RNT, le son ne sera pas de meilleure qualité ! La RNT proposera des taux de compression du signal sonore entre 64 kbps et 256 kbps, c’est-à-dire entre une très mauvaise qualité et une (relativement) bonne qualité. Le principe démocratique d’une qualité équivalente pour tous disparaît lors du passage à la RNT. La RNT, c’est un meilleur son pour tout le monde sauf pour ceux qui ne pourront pas se le payer.

     

    Avec le numérique un nouvel acteur privé payant entre en scène : le multiplexeur, canal dans lequel huit ou neuf radios doivent entrer, de gré ou de force. Des mariages forcés entre des radios n’ayant pas la même sensibilité devront donc être conclus. Que pèsera alors une petite radio associative face à des radios commerciales devant le conseil d’administration d’une société de multiplexage privée ? Le multiplexage signe également la fin de l’auto-diffusion et met en danger de nombreuses petites radios associatives locales telles que Radio Larzac. Une double obligation s’impose aux radios : celle de transiter par un prestataire et celle de se « pacser » avec d’autres radios pour être diffusées.

     

    Avec la RNT, pour le même coût, les zones de diffusion seront réduites ce qui privera une partie des auditeurs des radios locales de leurs programmes. En région parisienne, si nous prenons l’exemple de Fréquence Paris Plurielle, une grande partie de la population de la banlieue, celle de certaines prisons, ne sera plus couverte. Ce public auquel nous sommes attachés et qui fait la richesse de notre antenne est pourtant notre auditorat depuis la création de la radio, il y a 20 ans !

     

    Le numérique c’est aussi une logique binaire et sans nuance : ça marche ou ça ne marche pas du tout ! Adieu la bidouille et la liberté de capter la bande FM avec un vieux transistor. Le passage au numérique, c’est des nouveaux postes radio qui permettent de développer la publicité et l’image (!) sur des écrans : il intéresse principalement les radios qui souhaitent exploiter ces données associées.

    Actuellement, chaque foyer possède au moins six postes radios. Pour recevoir la radio numérique les auditeurs devront impérativement acheter de nouveaux postes récepteurs. Des millions de postes FM vont être jetés pour être remplacés par du matériel cher, à l’obsolescence programmée. Une manne pour les industriels bien sûr mais des dépenses supplémentaires pour de nombreuses personnes qui n’ont ni les moyens financiers, ni l’aisance technique, pour accéder à cette technologie. Avec d’autres, nous avons fait le choix de donner la parole à ceux qui ne l’ont pas : les habitants des quartiers populaires, les non-professionnels, les non-spécialistes, les communautés immigrées, le mouvement social, les acteurs et actrices des luttes, les initiatives culturelles non-commerciales... La radio qui est en FM un média simple d’accès et quasiment gratuit risque de devenir un outil technologique discriminant.

     

    Face à cette logique de consommation de contrainte, de rentabilité, d’uniformisation, nous, nous restons illogiques et Non, nous ne crèverons pas !

    NOUS EXIGEONS :

    - Le maintien de la bande FM sur le long terme.
    - Que les radios puissent effectuer leur transition vers le numérique quand elles le souhaiteront.
    - Que le passage au numérique n’occasionne la disparition d’aucune radio associative non-commerciale
    - Le passage au numérique doit être financé par l’Etat, aussi bien la diffusion que les fras d’équipement par le biais du FSER [1] ou autre

    [L’appel de radios en lutte de juin 2011 - [« Les radios libres au crible du numérique »>http://radiosenlutte.free.fr/spip.p...] avait recueilli plus de 4000 signatures-

    Une nouvelle pétition est ouverte !

    - À signer sur le site « Radios en luttes ».


    votre commentaire
  • Démocratie ?

    Vote par Internet : les élections législatives à haut risque débutent

    Du 23 au 29 mai, 700 000 Français de l’étranger vont voter pour le premier tour des législatives par Internet. Malgré l’opacité du processus, les risques de manquement à la sécurité et à l’intégrité du scrutin, c’est dans la plus grande indifférence des partis politiques et des médias dominants que s’opère cette grave atteinte à l’exercice démocratique des citoyens.

    Le 23 mai, pour la première fois en France, 700 000 électeurs vont pouvoir voter par Internet, pour les élections législatives. Un million de « Français établis hors de France » sont appelés à élire 11 députés, et deux tiers d’entre eux ont la possibilité de voter par voie électronique. Le scrutin du premier tour s’ouvre aujourd’hui et durera une semaine. Ce, malgré les failles d’un système électoral dont la sécurité pose de nombreuses questions (voir notre enquête) ! L’urne électronique a été mise en place, dans l’indifférence générale, alors même que beaucoup d’informaticiens alertent sur les possibilités de fraudes ou de bugs de ce système, vulnérable aux attaques informatiques. Les pouvoirs publics vont pour la première fois confier un processus électoral national à des entreprises privées, dans la plus grande opacité, alors que les conflits d’intérêts sont nombreux et évidents.

    Les opérations de vote par Internet sont supervisées par un bureau de vote électronique (BVE). Le bureau de vote le plus important de France ! Équivalent, en nombre d’électeurs inscrits, à ceux des villes de Lyon, Toulouse et Nice réunies, souligne le Parti pirate, qui pointe les « insuffisances graves » du processus choisi. « Sur le territoire français, chaque bureau de vote physique comprend en général environ 1 000 électeurs inscrits et est tenu par un président, deux assesseurs et un secrétaire. Pour le BVE qui contrôlera les opérations de vote de 700 000 électeurs, la réglementation a prévu seulement 7 titulaires (4 fonctionnaires d’État et 3 élus de l’Assemblée de Français de l’étranger) », s’étonne celui-ci (voir la liste des titulaires). Le ministère de l’Intérieur préconise pourtant de ne pas « excéder le nombre de 800 à 1 000 électeurs inscrits par bureau »...

    Opacité totale du processus électoral

    Ce bureau de vote électronique ne suscite pourtant pas beaucoup d’intérêt de la part des partis politiques. Chaque candidat pouvait envoyer un délégué assister à la clôture officielle de l’urne électronique, vendredi 18 mai, et vérifier les opérations. Mais sur 178 candidats, seuls… 5 ont fait cette démarche (4 du Parti pirate et un du Front de gauche). Ce qu’ils ont observé ne les a pas rassurés sur la sécurité et l’intégrité du scrutin : « La génération des clefs électroniques permettant l’ouverture de l’urne à l’issue du scrutin a eu lieu avec des outils informatiques dont l’intégrité n’était pas garantie », détaille le Parti pirate dans un communiqué. « Par ailleurs, les clefs, censées être uniques et soumises à la garde des titulaires du bureau de vote, pourraient être dupliquées par toute personne ayant accès aux ordinateurs ayant permis leur génération, ces matériels n’ayant pas été correctement nettoyés devant les membres du bureau de vote. »

    « Nous avons assisté à un cérémonial mis en scène pour donner une impression de sécurité et rassurer les officiels, alors qu’il y a une opacité totale des points clefs », estime Philippe Blanc, un des délégués du Parti pirate. Ceux-ci n’ont pas eu le droit d’accéder au code source du programme permettant le vote électronique. Car il appartient à l’entreprise espagnole Scytl, et est soumis au secret industriel… « Les trois élus du bureau de vote ont observé les éléments visibles lors de la cérémonie. Mais ils ne peuvent en rien attester des processus dématérialisés, dont la fiabilité repose totalement sur la parole des prestataires, techniciens venant d’entreprises privées », précise Mathilde Cameirao, déléguée du Parti pirate. Un processus électoral totalement privatisé ! Cinq entreprises sont impliquées dans le processus, pour fournir le logiciel de vote (Scytl), piloter le projet et « héberger la solution » de vote électronique (Atos Origin, présidée par Thierry Breton, ancien ministre), gérer l’édition des documents (Koba), ou l’envoi – par SMS et par courriel – des identifiants et mots de passe permettant de voter (Gedicom). Une dernière entreprise (Alti) étant en charge de mener une « expertise indépendante » sur le système.

    Les expériences récentes de vote par Internet se sont révélées être des fiascos en termes de sécurité des données. Des failles de sécurité ont déjà été décelées par des informaticiens dans le système mis en place pour ces élections législatives. Autant d’éléments venant confirmer les avertissements de la Commission nationale de l’informatique et des libertés (Cnil), qui estimait en 2010 « que les systèmes de vote existants ne fournissaient pas encore toutes les garanties exigées par les textes légaux ». Avec un risque de divulgation des opinions politiques des électeurs ou de manipulation de leur droit de vote, en cas de faille dans le système. Mais qu’importe ! Onze députés vont être désignés par un processus électoral sur lequel les citoyens n’ont aucune prise. Avec aucun moyen de vérifier la fiabilité et la sincérité des résultats. Pendant que les pouvoirs publics ignorent les critiques et les risques, les partis politiques semblent désemparés, voire totalement déconnectés de cette question.

    Agnès Rousseaux


    votre commentaire
  • Santé publique

    Nanotechnologies : l’évaluation des risques confiée aux... multinationales

    Une vaste étude sur les risques sanitaires des nanotechnologies vient d’être lancée en Allemagne. Elle sera menée, entre autres, par le géant de la chimie BASF, leader dans la fabrication de « nanomatériaux »… De quoi sérieusement douter de l’impartialité des résultats.

     

    Pourrait-on confier une étude sur les méfaits du Mediator aux laboratoires Servier ? Ou une étude sur le risque nucléaire à Areva, ou sur les cancers de l’amiante au secteur du BTP ? C’est pourtant ce que vient de proposer le gouvernement allemand. Le 15 mai, il a annoncé le lancement d’une étude sur les dangers pour la santé humaine des nanoparticules, notamment sur les effets à long terme sur les poumons. La réalisation de cette recherche a été confiée à BASF, multinationale allemande, leader mondial de la chimie, et... grand producteur de nanoparticules (et d’OGM).

    BASF réalise 2 milliards d’euros de chiffre d’affaires chaque année sur la vente de produits basés sur les nanotechnologies, dans l’électronique, les additifs pour béton, les équipements médicaux, les peintures et revêtements… Comme ceux de la marque « mincor™ » utilisés dans l’industrie textile, automobile et la construction : ce revêtement de surface de nanoparticules devient, en séchant, hydrofuge, et permet que les surfaces « restent propres plus longtemps ».

    Lésions de l’ADN

    Menée en partenariat avec le ministère de l’Environnement et de la Sécurité nucléaire (BMU) et l’Institut de la santé et de la sécurité au travail (BAuA), cette étude doit durer quatre ans – pour un budget de 5 millions d’euros. « Il n’existe aucune autre étude comparable de cette ampleur sur les effets des nanomatériaux », a souligné Andreas Kreimeyer, responsable de la recherche chez BASF. Des recherches ont cependant déjà montré les effets des nanoparticules sur l’ADN, et leur capacité à briser la barrière hémato-encéphalique qui protège notre cerveau. Ou les effets « similaires à ceux de l’amiante » des nanotubes de carbone – matériau ultrarésistant utilisé dans l’industrie –, qui provoquent des lésions de l’ADN et la formation d’aberrations chromosomiques.

    « Avec ce projet, nous allons faire une avancée majeure dans la protection de la santé et l’environnement », se réjouit la présidente du BAuA. « Les résultats rendront possible l’estimation du risque et permettront de fixer des valeurs limites. » BASF sera donc en première ligne pour fixer les valeurs limites légales, pour son activité et celle de ses concurrents ! Et que pense-t-on des nanos à BASF ? « De nombreuses solutions à des problèmes dans des domaines tels que la protection du climat, la mobilité et la médecine ne sont pas possibles sans les nanotechnologies. En tant que telles, elles sont une source majeure d’innovation, qui nous permet d’étendre notre activité sur une base rentable en offrant de nouvelles solutions pour nos clients », affirme le directeur de la recherche de BASF, sur le site de l’entreprise.

    « Pour générer l’acceptation, nous devons fournir des informations sur les nanotechnologies et en discuter en termes ouverts et facilement compréhensibles (...). Nous avons besoin d’un climat favorable à l’innovation », poursuit-il. Quant à fixer des normes et valeurs limites pour la protection des travailleurs et des consommateurs : « Les décideurs politiques doivent fixer le cap et réglementer la manipulation des nanomatériaux, de telle sorte que nous ne perdions pas les énormes possibilités offertes par cette technologie », déclare ce dirigeant de l’entreprise qui devra piloter l’étude sur les risques sanitaires de cette « source majeure d’innovation ». En toute objectivité bien sûr…

    Agnès Rousseaux


    votre commentaire


    Suivre le flux RSS des articles de cette rubrique
    Suivre le flux RSS des commentaires de cette rubrique