Quantcast
Channel: Le blog de l'habitat durable
Viewing all 2261 articles
Browse latest View live

1ère chaire industrielle en géothermie profonde

$
0
0
1ère chaire industrielle en géothermie profonde

1ère chaire industrielle en géothermie profonde

Parce que la géothermie profonde ouvre une voie nouvelle dans le domaine de l’énergie avec un fort potentiel, Electricité de Strasbourg (ES) et l’université de Strasbourg (UdS) ont lancé une chaire. Elle, permettra de réunir et diffuser les connaissances scientifiques et techniques acquises à travers les expérimentations et les travaux de recherche.

La nouvelle chaire industrielle mise en place à l’Université de Strasbourg et inaugurée le 4 avril 2014 est unique en son genre, tant dans sa thématique que par ses « porteurs » : EDF, le Groupe ÉS et l’Université de Strasbourg. Il s’agit de la toute première chaire industrielle dédiée à la géothermie profonde dans une université française !

Cette chaire n’est pas affectée à une seule personne physique mais à un regroupement de personnes morales à la fois industrielles et académiques : EDF, le Groupe ÉS, l’Unistra, l’EOST ; cette chaire mixte vient illustrer et renforcer le partenariat industrie-université engagé au travers du LabEx G-Eau-Thermie profonde lancé en 2012. Elle est le reflet d’une dynamique multi-partenariale impliquant les acteurs clés de la géothermie profonde du bassin rhénan. Une des ambitions affichées est d’être un outil de valorisation et de développement de la filière française dans ce domaine.

La filière géothermique du bassin rhénan est la 1ère filière géothermique française reconnue sur les plans européen et international. Il semblait nécessaire aux différents acteurs de la filière de poursuivre les investissements humains, matériels et financiers pour soutenir le développement industriel, la recherche fondamentale et la formation, mais aussi accroître le rayonnement de cette filière stratégique, innovante.

Les objectifs de la chaire :

La chaire s’inscrit dans la continuité des objectifs du LabEx G-Eau-Thermie profonde lancé en 2012 dans le cadre des investissements d’avenir. Les quatre axes structurants du LabEx définissent les objectifs de la chaire :

- Approfondir la recherche et le développement industriel de la géothermie profonde.

- Développer et professionnaliser l’enseignement en géothermie profonde.

- Créer de l’activité économique et de l’emploi en Alsace et en France grâce au développement des compétences et du savoir-faire de la filière géothermique en bassin rhénan.

- Faire connaître la filière géothermique et accroître son rayonnement français, européen et mondial.

Le LabEx est la première pierre de la chaire qui, en rassemblant notamment trois laboratoires de recherche académique strasbourgeois autour d’un projet commun, a apporté une crédibilité et une véritable visibilité aux recherches menées à Strasbourg. De plus la dotation de 3 millions d’euros des investissements d’avenir (IA) a été un levier pour convaincre les partenaires industriels de soutenir ces études par des moyens financiers conséquents. Cette chaire permettra également d’élargir les champs de recherche qui ne sont pas dans les objectifs directs du LabEx, comme par exemple l’étude du vieillissement des installations en surface. Si la chaire industrielle de géothermie profonde ouvre de nouveaux terrains d’étude, elle permettra également d’impliquer d’autres partenaires dans les actions de recherche académiques et industrielles.

Les enjeux de la chaire industrielle :

En résonance avec ses objectifs, la chaire répond à 2 enjeux écologiques et économiques majeurs : Favoriser le développement d’une énergie d’avenir, permanente et non polluante, disposant d’un potentiel d’applications exceptionnel, depuis la consommation courante des villes à celle des industries énergivores. Mettre en place une filière professionnelle à haute qualification, associant les savoirs techniques et scientifiques des industriels et des chercheurs, créatrice d’emplois pérennes et non délocalisables.

Les formations in concreto :

Dans la continuité de ce qui a été initié dans le cadre du LabEx, la chaire permettra la mise en place de formations continues dédiées à la géothermie. L’EOST est la seule école d’ingénieurs française dédiée à la géophysique. Elle fait partie des 10 meilleures écoles d’ingénieur françaises ouvrant à des postes à l’étranger. Les formations d’ores et déjà proposées par l’EOST apportent toutes les bases nécessaires pour comprendre la géothermie profonde (sismologie, électromagnétisme, méthodes inverses, mécanique des fluides, mécanique des roches, pétrophysique, diagraphie, géologie, tectonique, géochimie des eaux, hydrogéologie et géotechnique).

La chaire permettra : L’ajout d’un module dédié à la géothermie profonde, dans lequel interviennent essentiellement des industriels du domaine ; module déjà mis en place. Cette année, 29 élèves ingénieurs suivent ce module. Sur les 10 interventions de ce module, 6 sont données par des industriels du secteur. La mise en place de 3 diplômes universitaires (DU) qui verront le jour à la rentrée 2014. Ils sont

à destination des professionnels et donc accessibles en formation continue. Ils permettront d’approfondir les connaissances en infrastructure de surface, en forage profond, en transfert thermique ou autre.

3 DU « les métiers de la géothermie » :

Des formations en géothermie sont nécessaires pour appuyer l’essor de cette filière innovante. Les besoins sont importants, mais ciblés en fonction du métier d’origine des acteurs de la géothermie. Ainsi, un géologue ou un géophysicien travaillant en géothermie n’a pas les mêmes besoins de formation qu’un thermicien ou un mécanicien. C’est pourquoi une offre de formation aux « Métiers de la géothermie » en 3 parties constituant chacune un diplôme universitaire (DU) :

DU1 : Géosciences pour la géothermie profonde, DU2 : Infrastructures de surface en géothermie, DU3 : Gestion de projets en géothermie, garantira ainsi une formation complète, du sous-sol à la surface jusqu’aux processus administratifs ou la gestion de projet.

1ère chaire industrielle en géothermie profonde

La géothermie profonde offre les plus grandes ressources et permet des applications de grande envergure. En effet, la géothermie profonde est souvent développée dans les sous-sols où règne une température élevée à des profondeurs raisonnables. Elle est généralement caractérisée par une source à haute température (+150°C) et par une extraction allant de 1 500 m (en zone volcanique) à 5 000 m de profondeur (en zone continentale). La géothermie profonde est la seule à produire suffisamment d’énergie pour créer de l’électricité.

Alors que la géothermie basse température peut être exploitée dans la plupart des régions françaises, le bénéfice de la géothermie profonde en zone continentale est limité à quelques zones géologiques « anormales » comme le bassin rhénan.

L’Alsace, territoire d’exception pour la géothermie profonde en Europe

Il y a plus de 30 millions d’années, l’effondrement du bassin rhénan sur près de 50 kilomètres d’Est en Ouest et plus de 200 kilomètres du Nord au Sud a doté la région d’une situation géologique exceptionnelle. Il existe en particulier d’importants massifs enfouis, essentiellement du granite et du grès, naturellement fracturés et riches en eau. De quelques microns à plusieurs kilomètres de long, les fractures de ces massifs permettent une circulation facilitée des fluides géothermaux chauds, et cela à des températures anormalement élevées pour de tels niveaux de profondeur. Augmentant de 10°C par 100 m, soit 3 fois plus que la moyenne habituelle, la température de cette saumure peut atteindre 100°C dès 1000 mètres dans le Nord de la région. Cette eau captive dans les roches profondes forme le réservoir géothermique. Elle est très différente de l’eau de surface, comme celle de la nappe phréatique, car très salée (plus de 3 fois la salinité de l’eau de mer).

Énergéticien majeur en Alsace depuis plus de 100 ans, acteur local de référence au sein d’EDF, le Groupe ÉS a été pionnier dans la recherche et la valorisation de ce potentiel énergétique local exceptionnel. Co-fondateur du GEIE (Groupement Européen d’Intérêt Economique) de Soultz-sous-Forêts, le Groupe ÉS y a développé son expertise et ses compétences depuis plus de 25 ans, et a créé sa filiale ÉS Géothermie spécialisée et reconnue en Europe dans le pilotage de projets géothermiques. ÉS Géothermie compte déjà plus d’une dizaine de projets et de références en France et à l’international.

Plus de 20 ans de recherche et de mise au point du système EGS à Soultz-sous-Forêts

Depuis les premières explorations en 1985, des scientifiques et des ingénieurs de toutes nationalités ont travaillé d’arrache-pied sur le site de Soultz-sous-Forêts, dans le Nord de l’Alsace, pour faire avancer la connaissance sur la géothermie profonde. Personne n’imaginait qu’on trouverait autant d’eau dans le sous-sol. On pensait devoir créer les fractures dans les roches et apporter l’eau qui circulerait à l’intérieur. Cette technique nommée Hot Dry Rock est aujourd’hui abandonnée dans l’ensemble du bassin rhénan. Les chercheurs européens ont mis au point une technologie développée sur le site de Soultz-sous-Forêts plus adaptée et moins invasive :

« EGS » (Enhanced Geothermal System). Cette méthode «douce» de la géothermie profonde est un système unique, testé depuis 1997, dans un milieu où l’eau circule naturellement dans les fractures du sous-sol.

1ère chaire industrielle en géothermie profonde

Comment fonctionne la technique EGS ?

Un circuit colmaté qu’il faut «détartrer»

Pour pouvoir exploiter l’eau chaude géothermale, il faut tout d’abord améliorer, voire rétablir, la circulation entre les différents réservoirs souterrains en libérant les failles de leurs dépôts minéraux qui les colmatent. Un véritable défi à relever pour le projet Géothermie Soultz, qui a nécessité plusieurs années d’études, d’expérimentations et de prospections soutenues par des programmes européens de recherches et dont le

BRGM, l’ADEME et le CNRS ont été des acteurs clés côté français.

Aujourd’hui, cette méthode de «détartrage», un des objets d’étude du LabEx est en constante amélioration. Respectueuse de l’environnement, elle est réalisée en quelques jours grâce à des injections à basse pression d’eau très légèrement acide pour dissoudre les minéraux qui obstruent une partie des failles et les faire revenir à leur état initial, sans créer d’événements micro-sismiques perceptibles.

L’EGS, un système ouvert où l’eau circule librement et naturellement :

Le résultat de ce travail est un EGS (Enhanced Geothermal System ou Système Géothermal Activé) : un volume souterrain de quelques km3 où l’eau circule de façon irrégulière par des boucles de convection. Une fois la connexion du puits au réservoir réalisée et améliorée, l’eau chaude aspirée par un premier puits arrive à la surface à une température d’environ 140 °C à 170 °C selon la zone de pompage. On lui prélève une partie de son énergie thermique (appelée «calories») grâce à un échangeur de chaleur. Elle est ensuite réintroduite dans son milieu naturel à environ 70°C par un second puits. Cette boucle, entre la surface et les profondeurs, atteint un débit de plusieurs dizaines de litres par seconde.

Un nettoyage en douceur plutôt qu’un passage en force :

Le procédé EGS exploite des réservoirs d’eau chaude naturellement fracturés. Cette méthode abandonne complètement l’idée de fracturation hydraulique, très controversée, qui consiste à injecter de l’eau sous très haute pression afin de créer artificiellement un échangeur profond. À Bâle, en 2006, la fracturation hydraulique a provoqué un séisme de magnitude 3,4 sur l’échelle de Richter. Ces secousses, fortement ressenties par les riverains, ont eu comme conséquence l’arrêt immédiat et définitif du projet.

La technique employée pour créer un EGS s’appuie sur des procédés chimiques qui améliorent la productivité du puits connecté aux failles naturelles en nettoyant les dépôts minéraux obstructifs. On injecte à basse pression des acides alimentaires mélangés en faible concentration. Ce procédé permet de faire revenir les failles nettoyées à leur état initial, sans provoquer de microséisme.

Aucune interférence entre les différents fluides et les différentes couches géologiques :

L’exploitation EGS consiste simplement à remonter de l’eau chaude, récupérer ses calories puis la réinjecter dans son milieu d’origine : il n’y a pas de contact entre l’eau géothermale, la nappe phréatique et les couches géologiques sédimentaires traversées. Au moins 3 tubages en acier, séparés par du laitier de ciment, créent une barrière au niveau de la nappe phréatique. De plus, le dernier tubage dans lequel circule l’eau géothermale, est soumis à un contrôle périodique exigé par la DREAL. Cette architecture permet aussi d’éviter que les aquifères communiquent avec d’autres couches géologiques que la leur. Il n’y a pas de modification du milieu.

ÉS Géothermie a ainsi pu bénéficier d’un savoir-faire unique grâce au site pilote de Soultz-Sous-Forêts, qui a permis de valider les hypothèses thermiques, relever les défis scientifiques et asseoir les moyens techniques nécessaires à l’exploitation. Initié en 1985, le projet est devenu un site opérationnel qui alimente depuis 2008 une centrale électrique de 2,1 MW, soit l’équivalent des besoins thermiques de 6000 logements ou les besoins en électricité de 1500 habitants.

LE SITE DE SOULTZ-SOUS-FORÊTS, EN CHIFFRES

> 23 années de recherche (1985-2008)

> 80 millions d’€ investis par l’Union Européenne, la France et l’Allemagne

> 15 laboratoires de recherche européens et internationaux et plusieurs centaines d’entreprises sous-traitantes

> 11 km de longueur de puits forés

> 4 puits géothermiques à -3 600 m/-5 000 m générant 30l de débit /seconde

> 0 g de CO2 émis pour la production d’énergie électrique

Exploité par le GEIE et soutenu financièrement par l’ADEME, le site poursuit en parallèle sa mission d’expérimentation pour mieux comprendre les phénomènes souterrains, mesurer la pérennité du système mis en place et, à long terme, améliorer ses performances.

Réunissant des moyens financiers, techniques, et humains considérables, avec à la clé des avancées scientifiques majeures et internationalement reconnues, le site de Soultz-sous-Forêts a fait émerger la première filière française de géothermie profonde, avec la création d’emplois qualifiés et non délocalisables.

Aujourd’hui, le site de Soultz-sous-Forêts sert de modèle à de nouveaux projets de développement géothermique en Alsace, à destination de la consommation énergétique urbaine ou industrielle, et est aussi une vitrine internationale de la recherche en géothermie profonde.

1ère chaire industrielle en géothermie profonde

Dans un contexte de nécessaire transition énergétique face à la diminution des ressources d’énergies primaires et l’augmentation constante des besoins, la géothermie profonde apporte une solution alternative prometteuse en vertu de ses importants atouts énergétiques et écologiques.

La production énergétique issue de la géothermie profonde jouit d’un double avantage :

Une stabilité d’alimentation due au renouvellement de l’énergie en permanence, 24h/24 et 12 mois/12, sans être soumise aux aléas climatiques, contrairement à la production éolienne ou photovoltaïque.

Une capacité de rendement très généreuse : chaque doublet de puits de production peut extraire entre 10 et 30 MW de chaleur selon la ressource disponible. Celle-ci peut être utilisée en chaleur si les consommateurs sont à proximité ou la retransformer en 2 à 5 MW d’électricité brute. En y déduisant la part de consommation énergétique nécessaire au bon fonctionnement de l’exploitation (0,5 à 1,5 MW), un doublet de puits (un puits producteur et un puits injecteur) peut produire à lui seul entre 1,5 à 3,5 MW d’électricité, soit l’équivalent de la production annuelle d’une dizaine d’éoliennes en moyenne. Pour assurer un rendement énergétique maximal, l’idéal est la production d’électricité et la valorisation de chaleur résiduelle en même temps, la cogénération.

LE SAVIEZ-VOUS ?

Dans le cas de Soultz : 1,5 MW électriques produits par la chaleur géothermale et injectés dans un réseau électrique suffisent à alimenter un village de 1 500 personnes

La géothermie profonde offre donc des solutions durables en matière de chauffage urbain, de réseaux de chaleur ou de production d’électricité. Une réponse énergétique à grande échelle d’autant plus intéressante que, si les coûts d’investissement actuels sont encore très élevés, ils devraient être amortis par le niveau de production et par la réduction des coûts financiers en phase d’exploitation, pour un prix final de l’énergie compétitif et indépendant des variations du marché des matières premières (gaz, pétrole, charbon).

Du point de vue écologique, la géothermie profonde est une énergie particulièrement respectueuse de l’environnement. Pour 1 kW d’électricité consommée par les pompes, on peut produire jusqu’à 20 kW d’énergie thermique, permettant une économie d’énergie fossile considérable, sans dégager d’émission de CO2. D’autre part, la géothermie profonde présente un impact visuel et sonore faible.

Les opportunités économiques de la géothermie profonde en Alsace

ÉCOGI, une innovation mondiale au service de l’industrie :

Porté par Roquette Frères, le Groupe ÉS et la Caisse des Dépôts, soutenu par l’ADEME et mis en œuvre par ÉS Géothermie, ÉCOGI est le premier projet au monde à valoriser directement la chaleur issue de la géothermie profonde au sein d’un process industriel. Son objectif d’ici 2015 : créer une boucle de chaleur géothermale à 2 500 mètres de profondeur à Rittershoffen (Nord de l’Alsace), transporter la chaleur entre Rittershoffen et Beinheim, pour alimenter en vapeur et eau chaude la bio-raffinerie Roquette Frères. Évaluée à 190 000 MWh/an, cette production thermique produira 24 MW thermiques sur les 90 MW consommés par l’usine, et permettra la substitution de 16 000 TEP (tonne équivalent pétrole) par an assortie d’une réduction d’émissions de CO2 de 39 000 tonnes (soit 17 272 AR Paris-New-York en avion).

La première étape réussie en 2012 : la construction du 1er puits de forage a permis de confirmer la température et le débit potentiels du fluide géothermal en vue de son exploitation industrielle. Le projet engage désormais sa seconde étape : la construction d’un 2ème puits pour réinjecter l’eau refroidie et ainsi achever le circuit d’échange de chaleur. Suivront la construction de la centrale, des canalisations de transport et des équipements, pour un démarrage d’exploitation prévu courant 2015.

Bientôt les premières applications en milieu urbain :

En juin 2013, le Ministère de l’Écologie, du Développement Durable et de l’Énergie a délivré un Permis Exclusif de Recherche (PER) au Groupe ÉS pour déployer la technologie d’ÉS Géothermie au sein de la Communauté urbaine de Strasbourg, sur le site du Pôle Innovation à Illkirch-Graffenstaden.

Selon les premières études d’exploration, le projet permettrait de capter une eau thermale à 160°C dès 3 000 mètres de profondeur, laissant envisager la possibilité d’exploitation d’une centrale de chaleur géothermique destinée à alimenter directement le réseau de chaleur urbain, et potentiellement assurer la production d’électricité dans les périodes de faible demande. Outre le confort énergétique des 3 300 logements ainsi chauffés et l’avantage économique pour la commune d’une TVA à taux réduit (énergie renouvelable), les habitants bénéficieraient d’une réduction de 8 600 tonnes de CO2 par an, un vrai souffle d’air !

Le permis obtenu va permettre à ÉS Géothermie de vérifier le scénario thermique à l’issue du premier forage appelé forage d’exploration. D’autres projets similaires sont également à l’étude sur les sites de Mittelhausbergen, de Wissembourg et de Lauterbourg.

1ère chaire industrielle en géothermie profonde

Si la géothermie profonde présente un potentiel d’exploitation exceptionnel, son développement industriel se confronte à des défis techniques inédits, qui nécessitent des recherches approfondies et des connaissances scientifiques transversales pour les analyser.

Des défis proposés par le Groupe ÉS, à travers sa filiale ÉS Géothermie, que l’Université de Strasbourg et plus particulièrement l’EOST (École et Observatoire des Sciences de la Terre) et ses laboratoires rattachés souhaitent relever. Ainsi, en tant que service public, la recherche académique fait avancer les connaissances tout en favorisant le développement industriel de la France.

Principaux freins et difficultés du développement industriel :

La profondeur : Les difficultés techniques augmentent avec la profondeur. Identifier les zones d’intérêt nécessite une exploration précise. Un autre obstacle est de forer dans un environnement difficile pour accéder au réservoir.

Les microséismes : Les premières exploitations, réalisées à l’époque à base de fracturation hydraulique, comportaient un risque de microsismicité induite. Toutefois les forages de puits, leur développement et l’exploitation de l’eau circulant dans les fractures profondes modifient les forces en jeu dans le sous-sol et font apparaître des microséismes, la plupart du temps, à des valeurs très faibles. Le contrôle continu de ces paramètres permet de limiter l’événement à la magnitude 2 qui est la limite où la secousse est ressentie, sans occasionner de dégâts matériels. L’ensemble des microséismes, y compris ceux d’origine naturelle, apportent cependant des informations capitales sur le réservoir - notamment sa localisation - et sont observés avec minutie.

Le vieillissement prématuré de l’équipement industriel : sur le site de Soultz-sous-Forêts, on a constaté un endommagement rapide des équipements de pompage, dû à la corrosion des matériaux et à l’obstruction des systèmes de pompage par des dépôts minéraux (« scaling »).

La radioactivité secondaire naturellement remontée par le fluide géothermal à partir des granites profonds naturellement riches en radioactivité.

Le partenariat entre l’Université de Strasbourg, le CNRS et les industriels, tant sur le plan de la recherche que dans la formation, initié depuis plusieurs années maintenant, a pour finalité de surmonter les obstacles techniques de la géothermie profonde.

1ère chaire industrielle en géothermie profonde

1524 mètres de fret ferroviaire partis de la gare de triage de Sibelin

$
0
0
1524 mètres de fret ferroviaire partis de la gare de triage de Sibelin

1524 mètres de fret ferroviaire partis de la gare de triage de Sibelin

Une avancée majeur pour le fret ferroviaire a eu lieu le 12 avril dernier avec l’expérimentation par RFF et la SNCF du plus long train d’Europe. Une série de tests qui vise une mise en service sous deux ans répondent au besoin exprimé des chargeurs et opérateurs de combiné qui souhaitent des capacités d’emports plus importantes et optimiser les charges sur les longues distances.

Après un essai réussi de train long avec des locomotives électriques Alstom le 18 janvier 2014, un deuxième essai avec des locomotives diesel Vossloh a été réalisé le 12 avril. Ce train, parti de la gare de triage de Sibelin (Lyon), est formé à partir de trois trains commerciaux. Il est composé d’une rame de 833 mètres (avec deux trains de 410 et 423 mètres) jumelée à une rame de 691 mètres en queue. Le double train ainsi constitué est long de 1524 mètres et d’une masse de 4026 tonnes pour 72 wagons. .

Deux années de préparation et de tests techniques ont été nécessaires à la réussite de ce projet.

Les trains longs sont une réponse au marché, pour le rail-route et les autoroutes ferroviaires. Mais pas seulement : en augmentant les capacités d’emport d’un train, les entreprises ferroviaires vont pouvoir capter du trafic sans commander de ressources sillons supplémentaires (le créneau horaire nécessaire pour emprunter les voies du réseau ferré national).

En optimisant les charges remorquables, les entreprises ferroviaires qui choisiront d’exploiter les doubles trains diminueront leurs coûts de production et rationaliseront la gestion de leur parc de locomotives.

1524 mètres de fret ferroviaire partis de la gare de triage de Sibelin

L’AVIS DE KOMBIVERKEHR, opérateur de combiné et partenaire du projet :

« Par ce qu’il est nécessaire de répondre aux améliorations en termes de productivité par le biais d’une plus grande capacité (multiplication par 2,5 de la capacité de longueur /tonnage), il est important pour Kombiverkehr de participer à ce projet. Les trains de 1500 mètres peuvent en effet améliorer la situation critique en matière de compétitivité vis à vis du transport routier.

L'utilisation de trains plus longs, dotés d'un tonnage plus important sur le réseau ferroviaire français, fera par ailleurs baisser le nombre de trains nécessaires pour transporter les volumes de fret actuels. La disponibilité de sillons devrait bénéficier aux clients chargeurs des entreprises ferroviaires.

Enfin, la mise à disposition de ressources aidera à réduire les retards des trains, plus rapidement qu’aujourd’hui. »

LES AXES VISÉS PAR LA TECHNIQUE DE TRACTION RÉPARTIE :

Dès 2016 : Paris – Nord

Nord – Lorraine

Paris – Alpes

Ultérieurement, selon études :

Luxembourg – Perpignan (ouvert au 850 m)

Le Havre – Paris – Marseille (ouvert au 850 m)

Lille – Bayonne via Paris

Pour permettre à cette innovation de prendre forme, les équipes projets ont conçu un système de commande radio adaptable sur tout type de locomotive rendant possible les fonctions de « traction répartie » (une locomotive en tête l’autre au milieu du train) et de contrôle du frein. La configuration de ce kit rend possible le déplacement du train en sécurité quelles que soient les conditions d’utilisation : « Il a fallu porter une attention particulière à la conception des liaisons radio pour atteindre le niveau de disponibilité nécessaire dans toutes les conditions d’utilisation (tunnels, courbes, zones arborées, environnement urbain...)» précise Christophe Couturier responsable technique chez Createch, partenaire du projet.

La solution est basée sur un programmateur intelligent qui assure, dans la locomotive télécommandée, située au milieu, les mêmes fonctionnalités que celles existant pour une traction multiple classique (seconde locomotive placée juste derrière la 1ère et reliée à celle-ci par câble). Ce programmateur garantit, en toute sécurité, en mode nominal, comme en mode dégradé, les commandes de traction et de freinage du convoi transmises par radio de la locomotive maître à la locomotive esclave. Cette transmission s’effectue y compris en cas d’absence de liaison radio, avec une boucle de rattrapage par exploitation des informations pneumatiques reçues de la conduite générale du frein.

LES ÉTUDES DE FAISABILITÉ CÔTÉ INFRASTRUCTURE / RFF

Une première phase d’études sur les axes concernés a permis de se concentrer sur les impacts de la circulation de ce type de trains vis-à-vis de l’Infrastructure : les ouvrages d’art, les détecteurs de boîtes chaudes (DBC), les appareils de voie, les passages à niveau et les traversées de voie. D’autres études menées en parallèle, notamment sur les installations ferroviaires et de traction électrique (EALE), ont permis de mettre en lumière les réactions des installations et du matériel au passage des trains longs et d’envisager des travaux de renforcement.

Lors de l’essai, la SNCF a effectué des mesures pour vérifier les simulations numériques et pour préparer une partie des éléments du dossier de sécurité du double train (tests de freinage dans différentes configurations, efforts longitudinaux dans le train...).

1524 mètres de fret ferroviaire partis de la gare de triage de Sibelin
1524 mètres de fret ferroviaire partis de la gare de triage de Sibelin

La ville de demain, la ville biomimétique à Vélizy-Villacoublay du 16 au 23 mai 2014 à l’Onde, Théâtre Centre d’Arts

$
0
0
La ville de demain, la ville biomimétique à Vélizy-Villacoublay du 16 au 23 mai 2014 à l’Onde, Théâtre Centre d’Arts

La ville de demain, la ville biomimétique à Vélizy-Villacoublay du 16 au 23 mai 2014 à l’Onde, Théâtre Centre d’Arts

Un évènement actuel pour bâtir notre futur

Bienvenue dans une ville qui recycle tout, qui fonctionne aux énergies renouvelables, qui développe la diversité, qui utilise les richesses locales, qui puise sa créativité dans les limites qui lui sont imposées... Une ville qui s'inspire de la nature. Bienvenue dans la ville de demain !

À l’heure où l'urbanisation cristallise les défis environnementaux et où s’effectue une prise de conscience de plus en plus aigue des impacts, du poids et du rôle de nos cités, les villes se retrouvent sur le devant de la scène et posent au grand jour la question de l’évolution de nos modèles urbains.

Entre un modèle de civilisation énergivore, voué à l’épuisement des ressources et une nature qui produit sans utiliser d’énergies fossiles, une question se pose : peut-on continuer sur le mode à la fois intensif et extensif adopté par les hommes, ou doit-on renouer avec l’imitation de la nature et tirer des leçons de son équilibre dynamique ? Voilà ce que souhaite mettre en exergue l’événement « Ville biomimétique, ville de demain ».

Souvent appréhendé selon une démarche scientifique et moins comme une démarche globale et durable, le biomimétisme est ici associé au fait urbain. S’appuyant sur ce concept novateur et fortement ancré dans nos réalités urbaines, Vélizy-Villacoublay propose, au travers d’une exposition et d’un cycle de conférences, de découvrir la ville des décennies à venir : celle d’un monde urbain en mutation, compatible avec nos écosystèmes et donc avec le vivant.

Ce rendez-vous inédit sera une occasion pour tous de comprendre les enjeux du biomimétisme lié à la ville et de découvrir des applications possibles en milieu urbain. Il donnera l’occasion aux visiteurs de réfléchir à la manière de faire rimer urbanisme, agriculture urbaine et création de liens sociaux favorisés par un nouveau rapport à notre environnement.

AU PROGRAMME

§ Une exposition pédagogique sur la ville biomimétique, la ville de demain et ses applications composée de panneaux et d'objets.

§ Six conférences thématiques animées par de nombreux experts ponctueront la semaine.

§ Des projections de films.

§ Une grande soirée cinéma.

Tous ces évènements s’inscrivent comme autant de façons de faire découvrir au grand public ce que pourrait être une ville biomimétique, et ce de manière à restituer des connaissances de façon sérieuse et divertissante.

La scénographie de l’exposition adopte le parti d'une présentation thématique déclinée selon huit univers pour créer une dynamique et renvoyer au monde contemporain et urbain. Pour permettre au public d’évoluer dans l’espace au gré de sa curiosité et de s’immerger dans chacune des thématiques, huit grands panneaux quadriptyques délimitant les espaces délivreront un message accessible et impactant.

L'exposition se poursuit par un parcours divertissant et interactif : panneaux, tablettes tactiles, maquettes, vidéo projection, etc., autant de déclinaisons qui viendront attiser la curiosité des visiteurs et donner une vision globale de ce que pourrait être une ville biomimétique.

LES UNIVERS

Le vivant, source d’inspiration !

Découvrez les grandes inventions qui ont marquées l’histoire, des origines à nos jours. Bio-inspiration, bionique, bio-assistance ou biomimétisme, l’Homme s’est toujours inspiré de la nature !

Biomimétisme : source d’inspiration et principes

Introduction au concept de biomimétisme et de durabilité.

Appréhenderez les trois niveaux d’inspirations du biomimétisme et les grandes lois du vivant qu’il faudrait respecter pour rendre nos conceptions durables, en harmonie avec la nature.

L’urbanisme biomimétique, ou comment la ville s’inspire du vivant

Voyagez à travers le monde et déceler comment la ville dans sa structure même peut s’inspirer du vivant.

Les transports : vers une mobilité bio-inspirée

Pénétrez au cœur des réseaux et des modes de transports bio-inspirés, ou comment la nature peut reconfigurer nos villes et nous aider à repenser notre manière de nous déplacer.

L’architecture : habiter biomimétique

Séjournez dans des immeubles futuristes, des bâtiments intelligents, autonomes et connectés, inspirés de la nature.

Quand la nature s’invite en ville

Promenez-vous en ville, évoluez au gré du temps, et appréciez ! Intégrée ou maitrisée, la place de la nature en ville ne cesse d’évoluer.

L'interconnexion ville/ forêt : étude de cas

Imaginez l'aménagement des espaces publics où la ville serait reconnectée à la forêt.

La nature, c’est pas du cinéma !

Faites-vous une toile ! Arrêt sur image avec des films qui flirtent avec le monde du vivant. Qu'il s'agisse de chefs d'œuvre du 7ème art ou de films mineurs, le cinéma est riche en personnages bio-inspirés.

CYCLE DE CONFÉRENCES

Pour approfondir les thématiques abordées tout au long de l’exposition, mettre en avant les compétences liées au biomimétisme et découvrir des projets profondément novateurs, la ville de Vélizy-Villacoublay associe des intervenants métiers et experts du biomimétisme à travers un cycle de conférences.

Samedi 17 mai au café de l’Onde

« Biodiversité et bio-inspiration » - 14h30 par Gilles Boeuf

Gilles Boeuf, Président du Muséum National d’Histoire Naturelle, Professeur à l’Université Pierre et Marie Curie, Professeur invité au Collège de France, dévoilera toute la richesse de la biodiversité et les promesses de la bio-inspiration qui en découlent.

« Introduction au biomimétisme » - 15h30 par Olivier Allard

Conférence animée par Olivier Allard, expert en Biomimétisme, Innovation bio-inspirée et docteur en physique de l’université d’Hanovre et de Paris-Sud. Membre actif de l’association Biomimicry-Europa, Il participe aux actions de promotion du biomimétisme en France.

« Architecture symbiotique » - 16h30 par Vincent Callebaut

Vincent Callebaut, l’un des architectes les plus prometteurs de sa génération, présentera ses projets d’«archibiotique», associant le vivant, les technologies de l’information et des communications, pour une architecture en symbiose avec son environnement.

Lundi 19 mai à l’auditorium de l’Onde

« Biofaçades SymBIO2: la symbiose vertueuse de l'algoculture et du bâtiment pour des villes plus durables » - 18h30 par Anouk Legendre

Anouk Legendre, architecte à la tête du cabinet X-TU Architects, nous ferra partager sa vision d'un avenir proche où nous pourrons cultiver des algues sur les façades inexploitées de nos bâtiments pour à la fois dépolluer, consommer moins d'énergie, et produire des ingrédients naturels pour la cosmétique, la santé ou encore l'alimentation.

Mardi 20 mai à l’auditorium de l’Onde

« L’agriculture urbaine : histoire et projets franciliens» - 18h30 par Vincent Vanel

Après un tour d'horizon des formes actuelles d'agriculture urbaine à Paris, Vincent Vanel, de l’agence Greenation, présentera deux projets à l'échelle du quartier et du bâtiment.

Mercredi 21 mai

« Montez à bord du Trans-Cultural Transport Simulator» - 14h30 à la médiathèque par Didier Josselin

Comprendre comment optimiser les modes de transports urbains (taxi, bus, tramway) et les rendre flexibles en observant la nature. Didier Josselin, écologue et Directeur de Recherche au CNRS, illustrera les enjeux du biomimétisme pour les villes utopiques ou réalistes de demain.

« Spider towns : peut-on améliorer la ville grâce aux toiles d'araignées ?» - 18h30 à l’auditorium de l’Onde par Didier Josselin

Découvrez comment l'Homme peut rationaliser l'usage des ressources et réduire les coûts pour y accéder en copiant les toiles d'araignées.

Soirée cinéma – jeudi 22 mai salle Raimu à 20h

« Ville biomimétique, ville de demain » vous initie au biomimétisme à travers deux épisodes de la série documentaire d’André Rehse : Biomimétisme : Naturellement génial ! (Entrée libre, en fonction des places disponibles. Fermeture des portes à 20h10)

§ 20h :L'art du déplacement (52min)Les mouvements et modes de progression de nombreuses espèces peuvent faire évoluer les techniques de transport. Observer les oiseaux pour concevoir de nouveaux types d'avions ; imaginer des véhicules roulant sans encombre sur le sable grâce aux araignées; ou encore réfléchir sur les principes de l'hydrodynamisme grâce aux punaises d'eau ou aux truites.

§ 21h : Construire efficacement (52min)

Dans l'architecture et le bâtiment, le biomimétisme a le vent en poupe. S’inspirer de la nature pour concevoir une maison chauffée par géothermie ; améliorer les techniques de refroidissement en étudiant une plante saharienne ; modéliser le gratte-ciel idéal grâce au bambou ; ou encore résoudre des problèmes de ventilation par les coraux pour filtrer l'air pollué.

Ce rendez-vous inédit sera une occasion à ne pas manquer pour aller à la rencontre du biomimétisme, écouter des experts, percevoir les enjeux stratégiques pour la ville et découvrir les solutions d’avenir que cette approche scientifique laisse entrevoir.

Public visé : tous publics Tarif : gratuit Horaires : du lundi au vendredi de 13h à 19h, samedi et dimanche de 10h à 18h

du 16 au 23 mai 2014 à l’Onde, Théâtre Centre d’Arts

8 bis avenue Louis Breguet – 78140 Vélizy-Villacoublay

Pensée du Jour

$
0
0
Pensée du Jour

Pensée du Jour

« Comme le temps passe ! l'avenir se change en passé, ne nous laissant que du temps perdu. »

Claire Martin 1914

Éolien terrestre, biomasse, solaire photovoltaïque, coûts et rentabilité

$
0
0
Éolien terrestre, biomasse, solaire photovoltaïque, coûts et rentabilité

Éolien terrestre, biomasse, solaire photovoltaïque, coûts et rentabilité

La Commission de régulation de l’énergie (CRE) a publié son rapport d’analyse sur les coûts et la rentabilité des énergies renouvelables en France métropolitaine. Ce rapport dresse un bilan des filières de l’éolien terrestre, du solaire photovoltaïque, de la biomasse et de la cogénération.

L’analyse de la CRE a cherché a examiner la rentabilité de ces installations de production d’électricité à partir d’énergie renouvelable. Cette étude a pour objectif de s’assurer que le soutien public, financé par les consommateurs finals d’électricité sur la part CSPE de leur facture, ne donne pas lieu à « des profits excessifs » conformément à l’article 10 de la loi du 10 février 2000 relative à la modernisation et au développement du service public de l’électricité et de vérifier que les tarifs d’obligation d’achat sont adaptés aux réalités économiques, technologiques et industrielles des filières.

Sur le fondement de son analyse, la CRE a formulé un certain nombre de recommandations visant à améliorer le fonctionnement des dispositifs de soutien aux énergies renouvelables.

Effectivement, au cours des dernières années, le secteur des énergies renouvelables a connu de profondes mutations en termes d’innovations technologiques, de financement des projets et de structuration des dispositifs de soutien public. Ces évolutions conduisent à s’interroger sur la pertinence et l’adéquation de ces dispositifs, qui sont spécifiques à chaque filière.

Dans ses avis sur les tarifs d’obligation d’achat, en particulier ceux de 2006 et 2010 relatifs à la filière photovoltaïque, et ceux de 2006 et 2008 relatifs à la filière éolienne terrestre, la Commission de régulation de l’énergie (CRE) avait souligné la rentabilité élevée induite par les tarifs proposés par les ministres chargés de l’énergie successifs. Ces avis avaient été élaborés sur le fondement de données de coûts déclaratives, prévisionnelles ou normatives, généralement obtenues auprès des professionnels du secteur.

L’étude sur les filières de l’éolien terrestre, du solaire photovoltaïque, de la biomasse et de la cogénération montre que pour les deux premières filières renouvelables, elles représentent les montants de charges de service public les plus significatifs pour le consommateur, quant à la troisième, elle est celle dont le développement est le plus incertain, le taux de non-mise en service des projets lauréats des appels d’offres étant très élevé ; la dernière mérite d’être analysée du fait des nouvelles conditions tarifaires mises en place à l’automne 2013. Il sera ultérieurement procédé à l’examen des filières hydraulique et biogaz ainsi qu’à des travaux complémentaires sur les filières photovoltaïque et éolienne terrestre.

Sur la filière cogénération

Les exploitants des installations de cogénération ont fait preuve d’une très grande réticence à transmettre les éléments demandés par la CRE dans le cadre de la présente étude ; les quelques données recueillies n’ont pas permis de procéder à une analyse représentative des conditions économiques et de la rentabilité du parc de cogénération français.

La CRE réitérera au premier semestre 2014 sa demande formelle de données aux exploitants des installations de cogénération sélectionnées. Elle rappelle par ailleurs que le défaut de communication et d’informations est susceptible de constituer un manquement et, à ce titre, de faire l’objet d’une sanction.

Sur la filière éolienne terrestre

La filière éolienne terrestre est une filière mature, présentant de bonnes conditions de concurrence entre les acteurs. Le coût d’investissement, très largement prédominant dans le coût de production, est composé aux trois-quarts du coût des éoliennes, qui suit actuellement une tendance à la baisse vraisemblablement amenée à se poursuivre à l’avenir.

La faible différenciation tarifaire en fonction du productible des installations éoliennes terrestres offre aux installations les mieux situées un niveau de rentabilité très supérieur au CMPC de référence1 utilisé par la CRE pour élaborer ses avis sur les tarifs d’obligation d’achat.

Le mécanisme d’obligation d’achat est dimensionné pour rentabiliser les installations qui en bénéficient sur la durée du contrat. Celle-ci est de 15 ans dans le cas de l’éolien terrestre, alors que les retours d’expérience montrent que les installations peuvent fonctionner 20 voire 25 ans sans requérir d’autres investissements que ceux de maintenance courante. Dès lors, les installations, après avoir été intégralement amorties et rémunérées sur 15 ans, continueront à valoriser l’électricité qu’elles produisent sur les marchés pendant 5 à 10 années supplémentaires.

En raison des temps de développements des parcs éoliens à terre observés actuellement, la CRE n’a pas été en mesure d’étudier l’effet des dernières dispositions législatives et réglementaires (S3RENR, loi « Brottes ») sur le développement de la filière et sa rentabilité. Elle procédera aux analyses nécessaires dès lors que les premiers parcs relevant de ces dispositions auront été mis en service.

Ces constats conduisent la CRE à formuler les recommandations suivantes :

• Le recours aux appels d’offres doit être préféré au tarif d’achat unique.

• La structure des tarifs d’obligation d’achat doit être revue afin d’éviter la rentabilité excessive des installations bénéficiant des meilleures conditions de vent, un appel d’offres permettant également d’atteindre cet objectif.

• La durée du contrat doit correspondre à la durée d’exploitation réelle des parcs éoliens, et le niveau des tarifs doit être dimensionné en conséquence. Si la durée actuelle était conservée, le niveau des tarifs devrait être ajusté pour tenir compte de la vente d’électricité sur les marchés, possible après l’échéance du contrat.

• Le niveau du tarif, inchangé depuis 2006, doit faire l’objet d’une révision régulière afin de refléter l’évolution des coûts.

Sur la filière solaire photovoltaïque

La filière photovoltaïque a connu une baisse significative de ses coûts d’investissement et d’exploitation depuis 2010, principalement due à la diminution du prix des modules, qui représente à lui seul près de la moitié des dépenses d’investissement. Les taux de rentabilité de cette filière, supérieurs au CMPC de référence voire excessifs avant le moratoire, sont en nette baisse depuis la mise en œuvre d’une tarification dynamique.

Le développement de la filière photovoltaïque a conduit à une baisse notable des coûts de production, qui s’explique par un effet d’échelle, les parcs les plus puissants étant généralement moins chers, et par un effet d’apprentissage. La mise en œuvre d’appels d’offres sur les segments les plus concurrentiels de la filière a également permis de ramener les rentabilités à des niveaux proches du CMPC de référence.

La CRE procédera à l’avenir à de nouvelles analyses (i) sur un panel d’installations plus significatif, (ii) sur des installations bénéficiant des tarifs dégressifs de l’arrêté de janvier 2013 et (iii) sur des installations lauréates des appels d’offres de 2011, une fois mises en service, afin de comparer les coûts réels aux coûts qui avaient été déclarés dans les dossiers de candidature.

Sur la base de ces observations, la CRE émet les recommandations suivantes :

• Les appels d’offres doivent être généralisés à l’ensemble des filières matures.

• Les tarifs d’achat dynamiques doivent être maintenus.

Sur la filière biomasse

Le développement irrégulier de la filière biomasse s’explique par l’impossibilité de déterminer ex ante un dispositif de soutien national, alors même que les installations sont très diverses, tant en termes de puissance que de plan d’approvisionnement ou de débouché chaleur.

L’appel d’offres pourrait constituer un mécanisme efficace pour développer des installations avec une rentabilité raisonnable, dès lors qu’il prend en compte leur dimension régionale.

Un tarif d’achat régionalisé, comportant des clauses contraignantes en matière notamment de contrôle des plans d’approvisionnement de l’installation, pourrait également constituer une solution appropriée au développement de la filière, mais présente toutefois l’inconvénient d’une complexité de construction des grilles tarifaires.

Le profit des produits écoconçus se situe, en moyenne, à 12 % au-dessus de ceux conventionnels.

$
0
0
Le profit des produits écoconçus se situe, en moyenne, à 12 % au-dessus de ceux conventionnels.

Le profit des produits écoconçus se situe, en moyenne, à 12 % au-dessus de ceux conventionnels.

Fruit d’une étude économique menée conjointement par Institut de développement de produits (IDP) et le Pôle Éco-conception et Management du Cycle de Vie sur la rentabilité de l’écoconception a permis d’examiner l’évolution de la situation, d’élargir l’échantillon pour obtenir des résultats statistiquement plus solides et de comprendre ce qui fait qu’une démarche d’écoconception est plus rentable qu’une autre.

Cette étude arrive cinq ans après une première étude sur ce sujet menée auprès de 30 entreprises en France et au Québec (Berneman et al., 2008). La recherche de 2008 suggérait de façon assez claire que la démarche d’écoconception s’avérait rentable pour les entreprises s’y adonnant. Toutefois, comme cette première étude était exploratoire, la dernière s’est donc tourné volontairement afin :

a) d’examiner comment la situation a évolué depuis;

b) d’élargir la taille de l’échantillon pour obtenir des résultats statistiquement plus solides et donc généralisables et,

c) d’approfondir la réflexion en cherchant à comprendre ce qui fait qu’une démarche d’écoconception est plus rentable qu’une autre.

Pour ce faire, elle a procédé à une analyse statistique faisant appel à des données provenant d’une enquête originale. Cette enquête s’est faite au moyen d’un questionnaire. Quelque 750 entreprises ont été contactées et, au final, elle a recueilli des informations en concernant 119 : 49 en France; 44 au Québec et 26 dans le reste de l’Union européenne. Il s’agit de la banque de données la plus importante portant sur l’écoconception et sa rentabilité.

Dans un premier temps, l’analyse statistique est purement descriptive et elle présente les faits saillants des réponses obtenues au questionnaire. Ceci a permis d’identifier le profil-type des entreprises qui font de l’écoconception et d‘en apprendre plus sur la rentabilité de cette démarche.

Dans un deuxième temps, elle a cherché à identifier, à partir d’une analyse statistique rigoureuse, les facteurs expliquant le niveau de rentabilité de l’écoconception. Ses hypothèses sont les suivantes : plus l’intensité de la démarche d’écoconception est grande et plus la qualité générale de la gestion de l’entreprise est bonne, plus la rentabilité sera au rendez-vous. Par ailleurs, elle a tenu également compte de certaines caractéristiques intrinsèques des entreprises, comme la taille ou le secteur d’activité.

Les premiers constats montrent que la d’écoconception semble beaucoup plus répandue qu’en 2008. L’étude rapporte qu’elle a pu obtenir des informations sur plus de 90 entreprises en France et au Québec, alors qu’en 2008, elle a peiné à en trouver 30. En moyenne, les entreprises de l’échantillon comptent d’ailleurs sept années d’expérience en écoconception.

Portrait des entreprises qui font de l’écoconception

- L’écoconception reste l’apanage de l’industrie manufacturière : 62 % des entreprises de notre échantillon proviennent de ce secteur.

- Il s’agit de PME, rentables, innovantes, dont la qualité de la gestion a été reconnue et s’adressant autant aux entreprises (B2B) qu’aux consommateurs (B2C).

- Une proportion importante de répondants se fient à une norme environnementale et font appel à un outil méthodologique formel dans leur démarche.

- En moyenne, les répondants essaient de réduire les impacts environnementaux associés à quatre étapes du cycle de vie du produit et il en résulte cinq gains environnementaux.

- Dans leur démarche d’écoconception, les entreprises ont également réussi, en moyenne, à améliorer deux aspects fonctionnels du produit.

- Pour amorcer une démarche d’écoconception, la motivation première émane des convictions personnelles du premier dirigeant dont les engagements en matière de développement durable sont plutôt élevés.

- Une fois lancée, la démarche se fait en collaboration avec plusieurs unités administratives de l’entreprise.

- Environ 55 % des répondants ont recours à du soutien extérieur (professionnel ou financier) pour développer leur projet d’écoconception. Cette proportion est de 30 % au Québec.

- Une grande majorité des répondants manifestent le désir d’avoir une aide accrue des pouvoirs publics pour poursuivre leurs démarches d’écoconception.

- Une très grande majorité des entreprises qui font de l’écoconception jugent nécessaire d’orienter leur communication commerciale sur les avantages environnementaux de leurs produits écoconçus, car ils considèrent que leurs acheteurs y sont plutôt sensibles.

Impact de l’écoconception sur la profitabilité

- Alors qu’il est généralement perçu que la protection de l’environnement se fait au détriment de la rentabilité de l’entreprise, ce n’est pas le cas avec l’écoconception. En effet, pour 96 % de nos répondants, l’écoconception a un effet neutre ou positif sur les profits de l’entreprise, en termes absolus. Ainsi, du point de vue de la société, l’écoconception est une solution « gagnant-gagnant », car elle engendre des gains environnementaux, bénéfiques pour tous, sans impact négatif sur la rentabilité. Ceci confirmant le résultat de 2008, mais cette fois, avec un échantillon plus important et plus représentatif.

- La marge bénéficiaire des produits écoconçus se situe, en moyenne, à 12 % au-dessus de la marge des produits conventionnels.

- Pour une grande majorité des répondants, la démarche d’écoconception a engendré des retombées positives autres que financières.

- Certains indicateurs de l’intensité de la démarche d’écoconception sont associés à une rentabilité supérieure. Ainsi, plus l’entreprise prend en compte un grand nombre d’étapes du cycle de vie du produit dans son approche d’écoconception, plus sa rentabilité est élevée. De même, plus elle est méthodique, entre autres en faisant appel à un outil méthodologique formel, plus la rentabilité de l’écoconception est élevée.

- Certains indicateurs de la qualité générale de la gestion de l’entreprise sont également associés à une rentabilité supérieure. Ainsi, une entreprise dont la compétence a fait l’objet d’une reconnaissance extérieure formelle a plus de chance de rentabiliser sa démarche d’écoconception. Par ailleurs, plus l’entreprise est en mesure d’offrir des produits à la fois plus verts et plus fonctionnels, par rapport aux produits conventionnels, plus la rentabilité associée à l’écoconception est élevée.

- Plus l’entreprise est petite, plus ses chances de rentabiliser ses activités d’écoconception sont élevées. Enfin, toutes choses étant égales par ailleurs, les entreprises du Québec auraient moins réussi à rentabiliser leur démarche d’écoconception que celles des autres régions.

Plusieurs implications découlent de ces résultats. Certaines sont plus pertinentes pour les dirigeants d’entreprise, alors que d’autres s’adressent plutôt aux pouvoirs publics :

Implications pour les gestionnaires :

- L’écoconception est une approche prometteuse pour améliorer la rentabilité de l’entreprise. Elle peut aussi avoir des retombées positives autres que financières. Bref, l’écoconception peut devenir un avantage concurrentiel.

- Pour démarrer une démarche d’écoconception, il est important que le plus haut dirigeant soit convaincu de sa pertinence et qu’il envoie un signal clair à cet effet dans le reste de l’organisation.

Implications pour les décideurs publics :

Comme l’écoconception permet une amélioration de l’environnement sans impact négatif sur l’économie, elle mérite qu’on en fasse la promotion.

Pour favoriser la diffusion de l’écoconception, un ensemble de mesures peuvent être mises de l’avant :

- Il faudrait mettre en place des programmes de sensibilisation et de formation sur l’écoconception ou encore, mieux soutenir les programmes existants.

- Il serait possible de renforcer les critères environnementaux utilisés lorsque le gouvernement doit choisir le fournisseur d’un bien ou service.

- Il serait envisageable de développer encore plus les programmes de responsabilité élargie du producteur.

Ces recommandations sont d’autant plus pressantes au Québec, où les entreprises semblent avoir moins accès à de l’assistance, comparativement aux entreprises européennes.

Eveiller l’intérêt des entreprises pour l’éco-conception, leur donner les moyens de s’engager dans cette démarche non seulement rentable mais aussi durable, c’est ainsi que l’ADEME s’emploie depuis près de dix années à promouvoir ce modèle économique et environnemental d’avenir. Car l’éco-conception est un maillon essentiel de l’économie circulaire.

Produire autrement

Tous les biens ou services ont un impact sur l’environnement. L’éco-conception cherche précisément à réduire ces impacts environnementaux à chaque étape du cycle de vie d’un produit : des ressources nécessaires à sa fabrication jusqu’au terme de son utilisation, tout en préservant sa qualité d’usage et son niveau de performance.

Si en France l’éco-conception reste à ce jour faiblement déployée, elle contribue pourtant, selon les résultats de l’étude mentionnée ci-dessus à augmenter les ventes, réduire les coûts et valoriser l’image de l’entreprise, une solution « gagnant-gagnant », à la fois pour l’économie et l’environnement.

Ainsi, 96% des entreprises estiment que l’éco-conception a un effet positif ou neutre sur ses profits. Cette enquête révèle également que pour un tiers des entreprises françaises, la démarche d’éco-conception a favorisé l’innovation.

La création de biens ou services économiquement plus rentables et plus durables est donc aujourd’hui un enjeu de compétitivité pour les entreprises, un challenge que toutes doivent être en mesure de relever pour pérenniser leur activité (emplois, parts de marché, impact environnemental, etc.).

L’offre d’accompagnement de l’ADEME

C’est dans ce contexte que l’ADEME propose et apporte son soutien aux entreprises françaises dans leur démarche d’éco-conception. Son accompagnement s’articule en 3 étapes clés :

1. la sensibilisation : pour initier toute démarche d’éco-conception, l’ADEME met à disposition des entreprises son Bilan Produit®. Il permet de réaliser l'évaluation environnementale d’un produit par l’analyse des impacts (consommations de ressources et rejets) sur l'ensemble de son cycle de vie, depuis l'extraction des matières premières jusqu'à son élimination. A ce jour, il s’agit du seul outil d'évaluation gratuit de la qualité écologique des produits ;

2. l’information : au-delà du Bilan Produit®, l’ADEME met sur son site et à disposition des entreprises, de nombreux guides et outils gratuits. L’annuaire de l’éco-conception en est un exemple. Particulièrement pratique lorsqu’une entreprise souhaite se lancer dans une démarche d’éco-conception, il permet de recenser les ressources nécessaires pour un accompagnement technique ou encore financier ;

3. la valorisation : afin de faire valoir leur démarche d’éco-conception, affirmer et cautionner leur action auprès de leurs clients, les entreprises peuvent rechercher à apposer un logo environnemental sur leurs produits. Pour les aider dans cette démarche de transparence, l’ADEME a analysé 119 logos environnementaux et leurs critères dans un seul guide « Tout savoir sur les logos environnementaux apposés sur les produits de consommation courante » (disponible à l’achat sur le site de l’ADEME). Un exemple : l’Écolabel Européen prévoit que les critères soient déterminés sur la base de données scientifiques, en prenant en compte le cycle de vie complet des produits.

Au-delà de cet accompagnement de proximité, l’ADEME soutient également les travaux de recherche et de développement. Ces travaux permettent de lever les barrières techniques, juridiques et méthodologiques propres aux démarches d’éco-conception. A terme, les projets retenus et réalisés sont autant d’exemples pratiques à même d’inspirer d’autres entreprises vers un modèle d’économie circulaire.

Un soutien en recherche et développement

Les principaux objectifs en matière de recherche sont l'amélioration des méthodologies d'analyse de cycle de vie et d'éco-conception sous forme de recherches amont (évaluation des impacts) et de recherches opérationnelles (développement permettant d'adapter les méthodologies existantes à des secteurs ou types d'acteurs particuliers).

La 3ème édition de l’appel à projets de Recherche, lancé par l’ADEME en 2013 avait pour objectif de démultiplier l’offre de biens et services éco-conçus en favorisant la mise en œuvre de démarches d’éco-conception au sein des entreprises. Des entreprises de renoms bénéficieront du soutien financier de l’ADEME.

Une méthode Lean à la française : durable et responsable ...

$
0
0
Une méthode Lean à la française : durable et responsable ...

Une méthode Lean à la française : durable et responsable ...

Méthode de production par l'amélioration continue et l'élimination des gaspillages (muda en japonais), notamment sur la gestion des flux comme la production excessive, les tâches, le transport et manutentions inutiles. Un outil gestionnaire dont l’origine remonte sous l’ère Toyota qui avait initié cette gestion de production depuis la fabrication des moteurs jusqu'à la fin de la ligne d'assemblage. Un moyen mis en œuvre afin de livrer les véhicules de qualité en juste-à-temps. Mode de production d'origine japonaise, une culture dans laquelle la notion de groupe et de respect de l'individu est très importante. Adoptée ensuite aux États-Unis – pays qui lui a donné le nom que nous lui connaissons à présent -, le Lean s'est plus orientée vers une démarche d’optimisation des flux en impliquant le personnel afin de "faire mieux" collectivement.

Même si la pensée du Lean repose sur deux concepts, le juste-à-temps et l’automatisation à visage humain, c’est à dire la différenciation de l’homme vis à vis de l’outil en corrigeant les erreurs et en analysant les différents problèmes de production, le Lean formalise un système cohérent de concepts complexes, articulés à une pratique originale et à des moyens de formalisation et d'appropriation spécifiques ; c'est pourquoi on peut utiliser à son endroit le terme d'école. Les tenants du lean s'appliquent à l'enseigner, à l'appliquer et à répandre ses règles au sein de la communauté industrielle. Après une première vague d'engouement dans les années 1970 et 1980 pour les « méthodes japonaises », l'école du lean s'est formalisée aux États-Unis dans les années 1990, avec l’élaboration de quatre niveaux d’analyse qui distingue le système de pensée lean : une redéfinition de la valeur produite par une entreprise, le développement d’un schéma productif caractéristique, le développement d'attitudes managériales originales et la formulation d’une stratégie à long terme.

Plus communément, l’expression Lean est utilisée aux Etats Unis pour qualifier ce qui est juste nécessaire pour être performant. Par exemple, on dira qu’un muscle « lean » est à la fois fin (thin) et fort (strong). On parlera de « Lean Manufacturing » ou de « Lean Management » pour qualifier une organisation qui se développe avec le juste niveau de res- sources nécessaires. Cela traduit d’une certaine manière la recherche de l’efficience où le rapport résultats / ressources est optimal.

Les principes de la méthode Lean furent popularisés pour la première fois dans un livre intitulé « Lean Thinking » (écrit par James P. Womack et Daniel T. Jones, en 1997) dans lequel le terme Lean est utilisé pour décrire essentiellement un processus de production industrielle selon 5 principes.

1| spécifier ce qui fait ou crée de la valeur pour le client.

2| identifier le flux de valeur.

3| favoriser l’écoulement du flux.

4| tirer les flux.

5| viser la perfection.

En fait, aujourd’hui, l’objet de la méthode Lean est de créer une culture organisationnelle où tous les acteurs (managers, employés, prestataires) s’efforcent continuellement de réduire tous les types de gaspillages présents dans un processus (tels que les temps d’attente, les stocks, les manutentions, etc.) et quelle que soit la nature des objets produits (matériels, immatériels, services, etc.).

La méthode Lean permet à une organisation de créer des processus robustes (très bien maîtrisés) et optimisés, et de se concen- trer sur la création de valeur ajoutée pour répondre aux attentes des clients de façon rapide, efficace et à des coûts compétitifs

Seulement, avec le temps, cette notion offensive, qui visait à réinvestir les gains de performance dans l'innovation et la montée en compétences du personnel, s'est transformée en approche défensive : on élimine ! Le Lean est souvent synonyme de "dégraissage" dans beaucoup d'esprits, au contraire de l'idée de départ. Le Groupe AFNOR veut donc redonner ses lettres de noblesse à un mode de production efficace qui a fait ses preuves dans le domaine industriel, en intégrant la notion de responsabilité. D’ailleurs,

Associé à l'ISO 9001 et adaptable aux "services", le Groupe AFNOR lui réaffirme sa dimension responsable. Entretien avec Jean-Marie Reilhac, responsable du Développement de la Qualité et de la Performance.

Un lean responsable, basé sur la valeur, d’une part la valeur ajoutée d’une tâche contribuant à un processus qui doit être définie du point de vue du client et l'entreprise doit assurer un écoulement sans interruption de la valeur le long de sa chaîne de production (en termes plus triviaux, on fait la « chasse aux stocks »). Mettre notamment sous tension un outil de production pour réduire la non-valeur ajoutée, tout ce que le client n’est pas prêt à payer (MUDA en Japonais), avec pour conséquence l’accélération des flux. En ne produisant qu'à la demande, nous sommes donc dans une production raisonnée, dans laquelle on utilise les ressources au plus juste. Produire de façon raisonnée est l’un des principes du développement durable. 

De plus, le temps dégagé et les économies réalisées doivent permettre d'améliorer les conditions de travail et les compétences des salariés pour encore plus d'innovation au quotidien, d'efficacité et d’agilité pour l'entreprise. C'est un rapport gagnant-gagnant. Le challenge du Lean Responsable est donc de mettre sous tension les processus sans mettre le personnel sous pression !

Afin développer ce principe de "Qualité durable", Afnor a mis en rapport le Lean avec l'approche processus développée dans un système de management de la qualité telle que l'ISO 9001. Des représentants de PME, de grands groupes industriels et de services ainsi que des experts en Lean et en management de la Qualité, se sont regroupés en commission de normalisation pour travailler sur le sujet. Après 14 mois de travaux, le document normatif FD X50-819 « Qualité et management - Lignes directrices pour mettre en synergie Lean Management et ISO 9001. Le Lean Responsable repose sur la mise en harmonie de la démarche Lean avec la norme ISO 9001. Cette intégration de la démarche Lean dans les systèmes de management permet le bouclage et l’évaluation régulière auprès des parties prenantes des actions d’amélioration mutuellement bénéfiques.

Un lean à la française ! Le FD X50-819 n'a pourtant rien de révolutionnaire : il est juste une grille de lecture proposant une version de l’ISO 9001 enrichie des apports du Lean. Pourtant, cela n'avait jamais été fait auparavant. Présenté à Pékin en octobre 2011 lors de la réunion de la commission internationale « ISO / TC 176 » qui travaille sur les problématiques "Quality Management and Quality Assurance" et qui pilote notamment les travaux sur l’ISO 9001 à horizon 2015, l’accueil est allé au-delà des espérances. D'ailleurs, depuis, cette approche est dénommée "Lean à la française" ! Elle prouve que l'on peut développer la performance opérationnelle tout en préservant la satisfaction des clients, les relations avec les fournisseurs et les facteurs humains dans l'entreprise.

Un lean uniquement dédié au secteur industriel ? Il est vrai qu'historiquement le Lean s'applique aux entreprises du domaine industriel. Il y a eu des transpositions de cette démarche au secteur des services. Néanmoins, elles sont encore trop orientées outils de production et rendement par tâche. Consciente de cette problématique, le Groupe AFNOR a repensé le concept - tout en respectant les fondamentaux du Lean - au travers d'une démarche structurée selon le front-office et le back-office (Le premier gère en direct la relation avec le client, le deuxième traite la demande). L'objectif reste le même que dans le Lean, c'est-à-dire améliorer la maîtrise des processus pour apporter la valeur ajoutée au client dont il a besoin au bon moment au juste prix. Cependant, la démarché proposée ici se base sur deux composantes : l’adéquation des compétences et l'outil informatique. La notion de "service" étant avant tout de l'information valorisée, l'entreprise de ce secteur doit s'appuyer sur la capacité du personnel à évoluer en permanence et sur un outil informatique souple, évolutif et, surtout, orienté client. AFNOR Certification a donc construit un référentiel pour évaluer le Lean dans les services : "Lean Service".

"Lean Service" intègre les fondamentaux du Lean : l'engagement de la direction (exemplarité) ; "faire mieux avec ce que l'on a" ; la maîtrise des processus en éliminant les MUDA (gaspillages) ; le juste à temps ; la qualité au poste de travail, ce qui implique une responsabilisation du personnel ; et l'obligation de résoudre tout problème détecté. "Lean Service" est un référentiel pragmatique, résolument "terrain". Lors de l'évaluation, l'expert AFNOR Certification analyse les indicateurs de performance de l'organisation et réalise un diagnostic précis permettant ainsi de relever les facteurs d’efficacité. L'organisation obtient alors un score final établissant son niveau de performance et se voit remettre une attestation officielle valorisant ainsi la démarche Lean qu'elle a entreprise. Néanmoins, pour une première approche du Lean Management, AFNOR Certification propose le diagnostic "Focus Lean". Réalisée lors de l'audit de certification (a minima ISO 9001) ou indépendamment, cette évaluation révèle les synergies possibles entre le Lean et le système de management de l'organisation.

Quels sont les fondamentaux de la démarche LEAN ?

La démarche Lean repose sur 8 fondamentaux qu’il faut mettre en œuvre continuellement. Si l’un des 8 fondamentaux n’est pas appliqué, on ne peut plus se référer à la philosophie Lean.

Ces 8 fondamentaux sont :

1| manifester un engagement inconditionnel de la Direction (tout particulièrement par l’exemplarité et la proximité). 

2| satisfaire le client interne et externe en lui apportant la valeur ajoutée dont il a besoin au meilleur coût, au bon moment, au bon endroit et en lui facilitant la vie.

3| faire mieux avec ce que l’on a, en privilégiant l’amélioration continue suivant KAIZEN.

4|stabiliser les processus opérationnels avec la réduction des 7 gaspillages (MUDA), lisser la charge pour préserver la maîtrise des processus et standardiser les bonnes pratiques via la dynamique d’amélioration continue (principe du PDCA*).

5| visualiser les flux pour donner du sens à l’action, prendre les décisions au bon moment et agir de manière concertée.

6| construire la Qualité dans les processus (le JIDOKA) suivant 3 règles d’or :

A > empêcher la création du défaut ou sinon détecter le défaut à la source.

b > ne jamais livrer de mauvaise « pièce / information » à l’étape suivante.

C > arrêter le poste, mettre tout de suite une action pour contenir la non-conformité et éradiquer le plus vite possible la cause « racine » des défauts.

7| travailler en juste à temps et de préférence en flux tiré (de l’aval vers l’amont) en minimisant les stocks et les encours pour ne produire que ce qui est « consommé ».

8| impliquer continuellement les opérationnels et les faire participer dans l’amélioration en veillant à mettre en œuvre les bonnes idées venant du terrain (le GEMBA : là où la valeur ajoutée se crée).

Une méthode Lean à la française : durable et responsable ...

Quelles sont les notions de valeur ajoutée et de non-valeur ajoutée ?

La Valeur Ajoutée (VA) se définit par ce que le client est prêt à payer. Elle représente toute activité qui transforme la matière, les prestations ou les informations afin qu’elle réponde directement aux besoins et aux attentes des clients. A titre d’exemple, dans un processus agro-alimentaire, les opérations de cuisson, de hachage, de mixage ou de conditionnement sont à valeur ajoutée. Ces opérations sont la plupart du temps décrites sous forme de logigramme dans les fiches de processus. L’enjeu pour l’entreprise consiste à identifier précisément la réelle valeur ajoutée pour le client au-delà du cahier des charges et des spécifications techniques du produit.

La Non-Valeur Ajoutée (NVA) se définit par ce que le client n’est pas prêt à payer. Elle représente toute activité qui n’augmente pas la valeur du produit ou du service et qui impacte les coûts demande du temps, des ressources ou de l’espace. Par exemple, les opérations de transferts, de réparation des équipements, de saisie de données ou de contrôle non imposées par la réglementation sont à non-valeur ajoutée.

Toutefois, il faut distinguer 2 catégories d’activités à non-valeur ajoutée :

Celles qui sont nécessaires suite à une analyse de risque (un contrôle), ou qui représentent une valeur ajoutée pour une autre partie prenante que le client ou parce qu’il n’y a pas d’alternative pour s’en passer (exemple : contraintes d’infrastructures ; on parlera dans ce cas de NVA subie).

Il s’agira alors de réduire leur impact économique (temps, surface, valeur immobilisée, etc.)

Celles qui ne sont pas nécessaires car totalement inutiles pour toutes les parties prenantes et qui sont sans contrainte, comme par exemple rechercher ou recopier des données, retoucher des produits ou réaliser des contrôles redondants. Dans ce cas, ces activités sont à éliminer.

Une méthode Lean à la française : durable et responsable ...

Quels sont les différents types de gaspillage (MUDA) dans l’entreprise ?

Dans tout processus, il existe au moins 7 types de gaspillage appelé MUDA en japonais (prononcer Mouda) qui résultent des activités à non-valeur ajoutée pour le client.

1| les temps d’attente pour des personnes ou pour des équipem ents au cours desquels aucune valeur n’est créée. Ces temps d’attente sont principalement générés par de mauvaises synchronisations entre les opérations (absence de matière au poste de transformation, information manquante pour agir, équipement inopérant, compétence non disponible, etc.).

2| les transports et les déplacements inutiles d’opérateurs, de matières, de produits et d’informations entre les différentes étapes du processus. Ces déplacements ne sont pas justifiés par des raisons techniques en lien avec les exigences du client.

3| la surproduction qui résulte de produire trop tôt, trop vite ou en trop grande quantité par rapport aux exigences du client.

4| la sur-qualité ou qualité excessive consistant à réaliser et fournir des produits dont les caractéristiques dépassent les exigences du client et génèrent un impact économique (surcoût de fabrication ou prix de vente insuffisant).

5|les stocks inutiles et les encours trop élevés par rapport au niveau requis pour livrer aux clients ce qu’ils ont demandé dans les délais exigés.

6| les gestes inutiles qui sont liés à des méthodes de travail inefficaces, à des pratiques obsolètes ou à des habitudes non remises en cause.

7| les erreurs et les corrections appelées « non-qualité » constituées de rebuts, de temps d’analyse et de tri, de reprises et de processus de réparation permanents.

Une méthode Lean à la française : durable et responsable ...

Quelles sont les principales méthodes et outils LEAN mis en œuvre pour l’amélioration des performances ?

On peut identifier 10 outils ou méthodes particulièrement répandus (la liste n’étant pas exhaustive) permettant d’atteindre les objectifs d’amélioration de la performance opérationnelle et économique.

VSM : Value Stream Mapping ou «cartographie de la chaîne de valeur». Représentation graphique de toutes les étapes impliquées dont les flux d’informations et physiques pour fournir un produit, de la commande jusqu’à sa livraison, voire jusqu’à l’encaissement. La VSM permet de mettre en lumière les MUDAs et d’établir un processus amélioré par l’élimination des activités à valeurs ajoutées non nécessaires.

5S : 5S est l’abréviation de cinq termes japonais, commençant par un S, utilisés pour créer un bon environnement de travail aux opérations à valeur ajoutée :

> Seiri signifie trier et éliminer.

> Seiton veut dire ranger le poste de travail (un emplacement dédié pour chaque chose).

> Seiso traite du nettoyage quotidien qu’il faut faire pour maintenir le poste en bon état.

> Seiketsu veut dire organiser, établir et formaliser des règles.

> Shitsuke désigne la rigueur nécessaire pour maintenir les 4 S précédents jour après jour. Le 5S est une excellente entrée en matière pour l’organisation du poste de travail qui débouche sur les standards de travail d’une part, et les équipes autonomes d’autre part.

REPORTING A3 : outil de prise de décision consensuelle. Il tire son nom du format A3 et se lit du haut à gauche au bas à droite. Il raconte littéralement, et dans l’ordre : le contexte, le problème, les objectifs à atteindre, les causes probables, puis les mesures possibles pour atteindre les objectifs, le plan d’actions mis en place et les moyens de mesure et de contrôle des résultats.

Son format limité force les rédacteurs à se concentrer sur des points prioritaires, évitant ainsi une dispersion des forces. Il comporte la signature des personnes concernées, montrant ainsi leur engagement à mettre en place le Plan d’Actions défini en commun.

Obligeant ainsi les participants à se mettre d’accord, il est un puissant outil au service du management pour éviter les ambiguïtés issues de visions différentes, et donc pour accélérer l’exécution de Plans d’actions efficaces car partagés.

JUSTE A TEMPS : méthode de gestion des flux dans laquelle le fournisseur livre au client les bons produits avec les quantités exactes au bon moment et au bon endroit. La commande du client déclenche le plus tôt possible la ligne de production. On privilégie le flux tiré (voir Kanban) pour minimiser les stocks d‘encours et de produits finis.

KAIZEN : démarche d’amélioration continue mise en œuvre sur le terrain de façon graduelle qui repose sur des petites améliorations faites jour après jour, à faible coût, en impliquant tout le monde, en faisant appel au bon sens, tout le temps. Cette démarche peut également prendre la forme de chantiers kaizen, dans un délai défini, appelés parfois kaizen blitz ou kaikaku. L’objectif du kaizen est l’élimination des MUDA sous toutes ses formes. Il s’agit de rendre les tâches plus simples et plus faciles à effectuer. Pour réussir, le kaizen commence par la définition des standards de travail.

KANbAN ou « étiquette » : le terme kanban correspond à étiquettes ou fiches, qui sont un signal permettant de ne produire que les pièces qui viennent d’être consommées et dans l’ordre de leur consommation.

POKA-YOKE : signifie « anti-erreur ». Ce sont des détrompeurs pratiques qui empêchent ou préviennent l’apparition des défauts.

SMED : Single Minute Exchange of Die, changement rapide d’outils ou de réglages. Le but est de descendre en dessous de 10 minutes, puis dans un deuxième temps de pouvoir faire le changement dans le temps d’un cycle de travail.

TAKT TIME : le takt time est le rythme idéal pour répondre à la demande du client. Il est associé au lissage des commandes client. Le takt time permet d’établir des programmes de production lissés sur une ou deux semaines.

TPM : total Productive Maintenance signifie l’optimisation de la maintenance en impliquant de manière collaborative les utilisateurs et les mainteneurs. L’objectif est de réduire le taux des pannes et les durées d’immobilisation des équipements.

Référence : FD X 50-819 : 2011

Une méthode Lean à la française : durable et responsable ...

Que signifie le concept de LEAN Responsable ?

Le LEAN Responsable impose le respect permanent des 8 fondamentaux de la démarche LEAN.

A ce titre, l’entreprise doit mettre en œuvre un « comité de surveillance » constitué de parties prenantes internes telles que Direction, encadrement et instances représentatives du personnel pour s’assurer de ce respect et agir en conséquence.

Le LEAN Responsable impose de définir au préalable les conditions favorables dans l’entreprise pour permettre sa mise en œuvre.

Concrètement, les parties prenantes internes devront avoir des for- mations adaptées à leur implication dans la démarche :

- la direction sera formée aux fondamentaux et tout particulièrement à la posture de Leadership basée sur l’exemplarité, sur un manage- ment de proximité (Gemba Walk), sur le challenge permanent (y com- pris pour les processus qui tiennent leurs objectifs) et sur les facteurs affectant les conditions de travail (RPS*, TMS*, etc.).

- l’encadrement sera formé aux méthodes de mise en responsabilité du personnel (empowerment) en donnant du sens à l’action (management visuel), en lui laissant la latitude ou l’autonomie nécessaire pour agir et en veillant à reconnaître les résultats. Il sera également formé sur les facteurs affectant les conditions de travail.

- le personnel sera formé par des référents internes ou externes à l’approche Kaizen, à l’autocontrôle, aux outils basiques tels que le 5S et la résolution rapide des problèmes (Pareto, Hishikawa, etc.) et au reporting A3.

Le LEAN Responsable impose aussi d’impliquer les fonctions de l’entreprise au-delà de la production dont :

- les fonctions commerciales et techniques, qui seront formées à la notion de valeur ajoutée pour le client et aux méthodes permettant de l’identifier ;

- la fonction achat et approvisionnement, qui sera formée au Juste à Temps (JAT) et aux méthodes permettant d’optimiser les flux avec les fournisseurs ;

- la fonction logistique, qui sera formée aux techniques de lissage de la charge et à la théorie des contraintes pour tenir compte des postes « freins » (goulets) dans la planification de la fabrication.

Le LEAN Responsable repose sur la mise en harmonie de la démarche LEAN avec les systèmes de management existants et tout particulièrement avec la norme ISO 9001. Cette intégration de la démarche Lean dans les systèmes de management permet le bouclage et l’évaluation auprès des parties prenantes des actions d’amélioration suivant la logique gagnant-gagnant ci-dessus (feedback de régulation).

Le challenge du LEAN Responsable est de mettre sous tension les processus sans mettre le personnel sous pression. Jusqu’à 40% de perte de productivité (source ANDRH) a été constaté lorsque le personnel est soumis à des charges psychiques intenses (stress permanent). Aussi, la démarche Lean doit être maitrisée pour éviter que le remède ne soit pire que le mal. Cela consiste à augmenter la performance de l’organisation tout en gagnant en sérénité.

Enfin, Le LEAN Responsable est compatible avec le développement durable. Il contribue à mieux préserver les ressources naturelles, les matières premières et les énergies (chasse aux gaspillages). Il privilégie aussi la production tirée par la demande, et non pas la production de masse.

Une méthode Lean à la française : durable et responsable ...

Comment initier une démarche LEAN Responsable dans mon entreprise ?

ÉTAPE 1 : choix du processus La première étape concerne l’identification d’un processus opérationnel pour mettre en œuvre un premier chantier Lean qui servira de pilote. Ce processus doit être stabilisé par une bonne maîtrise des ressources à chacune des opérations et doit produire de façon régulière.

ÉTAPE 2 : choix du chantier pilote après diagnostic Après ce choix, l’étape suivante est de faire réaliser un diagnostic sur tout ou partie du processus pour identifier les opportunités d’amélioration dans des périmètres bien définis. A ce titre, il existe des opérations collectives permettant de réaliser ces diagnostics ou sinon il faut faire appel à des experts confirmés en Lean Management et, de préférence, certifiés par un organisme tierce partie agréé. Le choix du 1er chantier pilote est important pour en retirer une expérience positive. Il est recommandé de choisir une problématique simple parmi les pistes révélées par le diagnostic.

ÉTAPE 3 : transfert des compétences Lean La prochaine étape consiste à s’entourer d’un expert qui aura comme objectif de former la direction sur les fondamentaux et la démarche Lean, ainsi qu’un premier cercle de parties prenantes en lien direct avec le chantier. Il accompagnera l’équipe chantier sur le plan méthodologique et veillera à mettre en place les indicateurs appropriés pour mesurer les gains de performance et l’amélioration des conditions de travail. A ce stade, la communication des succès est importante pour favoriser la mise en œuvre des prochains chantiers.

ÉTAPE 4 : déploiement et intégration dans le système de management de l’entreprise Le déploiement de la démarche Lean se fera chantier après chantier dans les processus opérationnels, en veillant à appliquer les concepts du Lean Responsable.

L’enjeu est aussi de pérenniser les pratiques et les gains en réalisant la synergie avec les systèmes de management existants, en s’appuyant sur les recommandations du FD X50-819.

Quels sont les pièges à éviter ?

Les principaux écueils à éviter.

Empiler des démarches « millefeuilles » sans lien avec les systèmes existants.

Sous-estimer les enjeux humains dont les conditions de travail, charges physiques et psychologiques, etc.

Mettre en œuvre la démarche sans prendre le temps d’impliquer les parties prenantes et de faire participer le personnel.

Se concentrer sur les gains économiques en oubliant de servir le client.

Optimiser localement, mais désorganiser globalement.

Réserver la démarche aux experts.

Ne pas reproduire les succès obtenus.

Se tromper de priorité.

Se focaliser sur l’outil au lieu du résultat.

S’écarter du concept Lean Responsable.

62 MW au large de la région Nord-est de l’Angleterre à proximité de Redcar, le parc éolien de Teesside

$
0
0
62 MW au large de la région Nord-est de l’Angleterre à proximité de Redcar, le parc éolien de Teesside

62 MW au large de la région Nord-est de l’Angleterre à proximité de Redcar, le parc éolien de Teesside

Le parc de Teesside est le premier parc éolien en mer d’EDF au Royaume-Uni.

Le projet a été approuvé en 2008 après avoir réalisé une série de consultations publiques. Les travaux de construction en mer ont démarré en 2012 et ont été achevés au mois de juillet 2013. Le parc éolien a été mis en service au mois d'août 2013, et transféré à l'équipe d'exploitation au mois d'octobre 2013.

En exploitant l’énergie éolienne, EDF offre une électricité bas carbone et contribue au développement de nouvelles capacités de production pour aider à satisfaire la demande croissante en énergie du pays.

Le gouvernement britannique s’est fixé pour objectif que d’ici 2020 15% du mix énergétique de la Grande-Bretagne soit issu des énergies renouvelables. Leur plan prévoit aussi que la puissance installée d’éoliennes en mer atteigne jusqu’à 16 GW d’ici 2020 et jusqu’à 39 GW d’ici 2030.

EDF Energy Renewables est un acteur important du secteur de l'énergie éolienne au Royaume-Uni et possède et exploite 25 parcs éoliens sur l’ensemble du territoire, d'une puissance installée supérieure à 520 MW.

Les principales caractéristiques du parc éolien

Le chantier dédié à la construction de Teesside a été installé dans le port de Hartlepool. C'est d'ici que des navires spécialisés ont transporté pendant 18 mois tout le matériel et le personnel de construction, sur le site en mer.

L'équipe du parc de Teesside basée au port de Hartlepool, est composée de 16 personnes et a en charge la maintenance et l'exploitation des installations. Deux réseaux de câbles sous-marins de 33 kV assurent le transport de l'électricité entre le parc éolien et le poste électrique de Warrenby situé sur la côte.

Les pales d'un diamètre de 92,4 mètres et le moyeu central ont été assemblés au port de Hartlepool pour ensuite être acheminés en mer. La levée et le positionnement précis de ces structures extrêmement lourdes et encombrantes ont représenté une tâche très complexe exécutée dans des conditions climatiques parfois difficiles, notamment en période hivernale.

Une fois les turbines installées, Van Oord, entreprise spécialisée dans le dragage, a démarré les travaux de connexion électrique, avant que Siemens, fournisseur des éoliennes ne procède aux premiers essais.

Dans le cadre du processus de demande de permis de construire, EDF Energy Renewables a mené une étude d'impact environnemental exhaustive pour le projet envisagé. Un suivi de l'écologie marine s'est déroulé au cours de la phase de construction et se poursuivra pendant les cinq premières années de la phase d'exploitation.

Une évaluation des risques de navigation maritime a été menée ainsi qu'une consultation avec le ministère de la Défense et l'Autorité de l'aviation civile, et aucune objection n'a été soulevée.

Le projet Navitus Bay

Au Royaume-Uni, EDF Energy Renewables étudie actuellement un nouveau projet de parc éolien en mer, doté d’une puissance de 970 MW et situé au large des côtes Sud de l’Angleterre, à l’ouest de l’île de Wight. Le projet, actuellement mené par Navitus Bay Development Ltd (co-entreprise réunissant EDF Energy Renewables et son partenaire Eneco Wind UK Ltd), poursuit sa phase de consultation publique et à ce stade aucune décision d’investissement n’a été prise.

62 MW au large de la région Nord-est de l’Angleterre à proximité de Redcar, le parc éolien de Teesside
62 MW au large de la région Nord-est de l’Angleterre à proximité de Redcar, le parc éolien de Teesside

Un ciment à partir de céramiques recyclées

$
0
0
Un ciment à partir de céramiques recyclées

Un ciment à partir de céramiques recyclées

Issu des bulletins électroniques, des chercheurs de l'université Polytechnique de Valence et de l'université Jaume I de Castellon, ont mis au point en collaboration avec des équipes de l'Imperial College de Londres et de l'Université Estadual Paulista de Sao Paulo au Brésil, un nouveau type de ciment élaboré à partir de résidus de céramique.

Le béton est le matériau le plus utilisé au monde après l'eau et sa production est évaluée à 6 milliards de m3 par an. Or sa fabrication est très polluante en raison notamment des fortes émissions de CO2 nécessaires à la fabrication du ciment, qui représente 75% de la composition du béton. On estime en effet qu'une tonne de ciment conduit à l'émission d'environ 1 tonne de CO2 dans l'atmosphère. L'industrie du ciment serait ainsi responsable de 5% du total des émissions de Co2 d'origine humaine. L'enjeu associé à la recherche d'un procédé alternatif de production du ciment susceptible de se substituer aux techniques actuelles est donc majeur pour atteindre les objectifs de lutte contre le changement climatique.

Le procédé de fabrication du ciment classique (le ciment "portland") conduit en réalité à deux types d'émissions de CO2 : les émissions d'origine énergétiques sont liées à la nécessité de cuire à très haute température (environ 1450°) le mélange des matières premières utilisées, calcaire et silice, pour produire le "clinker", élément de base de la composition du ciment. Elles ne représentent cependant que 40% des émissions totales. Car les 60% restant sont des émissions de procédé qui résultent de la transformation chimique du calcaire en oxyde de calcium, précurseur du ciment, accompagnée d'un dégagement de CO2.

Deux pistes sont donc utilisables pour la recherche d'un nouveau ciment moins polluant : la mise au point d'un procédé exigeant des températures de cuisson moins élevées et d'autre part diminuer la part du calcaire dans le matériau de base du clinker, voire le remplacer en totalité pour diminuer les émissions de procédé.

L'utilisation de matériaux céramiques est l'un des réponses les plus prometteuses à ces problèmes. Les chercheurs de l'université Polytechnique de Valence et Jaume I Castellon ont ainsi utilisé des résidus de céramiques sanitaires (lavabos...) ainsi que des grès porcelainés qui ont été broyés. Ils les ont combinés avec des solutions d'hydroxyde de sodium et de silicate de sodium pour l'activation de ces matériaux. Les ciments ainsi produits sont très nettement moins polluants que le ciment portland et montrent également des propriétés de résistance supérieures. L'étude montre en outre que les ciments produits de cette manière ont en outre une résistance mécanique supérieure aux ciments classiques

Enfin, ce nouveau type de procédé présente un autre intérêt du point de vue écologique puisqu'il offre des perspectives importantes en matière de recyclage des déchets céramiques, produits en grande quantité pour le secteur de la construction notamment. Les chercheurs indiquent ainsi qu'environ 45% des déchets de ce secteur sont d'origine céramique.

Un viaduc se lance au-dessus de l’Austreberthe…

$
0
0
Un viaduc se lance au-dessus de l’Austreberthe…

Un viaduc se lance au-dessus de l’Austreberthe…

Le 18 & 19 février a vu la première opération de lançage des poutres du futur viaduc de l’Austreberthe de l’autoroute A50.

La réalisation d’un viaduc de 480 mètres de long pour franchir la vallée de la rivière Austreberthe, un affluent de la Seine, est un des grands défis du chantier de l’autoroute A150 entre Barentin et Ecalles-Alix, le tronçon manquant de la liaison autoroutière Rouen-Le Havre par le nord de la Seine.

Ce chantier a donc connu une avancée majeure avec la première phase du lançage des poutres du tablier métallique du viaduc depuis la plate-forme de lancement située en rive sud de la vallée.

Cette opération particulièrement délicate est conduite par les équipes du GIE A150 constitué des sociétés Razel Bec et NGE, avec le concours de la société belge Victor Buyck Steel Construction, l’entreprise en charge, par ailleurs, de la réalisation du tronçon neuf du pont Mathilde à Rouen.

La progression des poutres, qui s’est effectuée sous l’action de vérins très puissants, s’est réalisée depuis la rive sud du viaduc jusqu’au deuxième appui situé dans la vallée, soit environ 160 mètres de longueur à parcourir très lentement. Deux jours ont été nécessaires pour cette première étape de mise en place du tablier, qui sera suivie dans les prochains mois du lançage des deux autres tronçons. C’est 1000 tonnes d’acier qui ont été déplacées au cours de ces deux journées.

Cette phase exceptionnelle du chantier a nécessité quelques précautions, notamment la coupure momentanée des voiries se situant sous l’ouvrage le temps de leur survol par la charpente métallique.

Un viaduc se lance au-dessus de l’Austreberthe…

La réalisation du tronçon manquant de l’autoroute A150 entre Barentin et Ecalles-Alix permettra, à partir de la fin février 2015, d’assurer une continuité autoroutière, attendue depuis 20 ans, entre Rouen et le Havre par le nord de la Seine et de faciliter la liaison entre Rouen et les communes du pays de Caux au bénéfice des habitants des territoires concernés.

Le tracé de ce nouvel axe autoroutier impliquait de réaliser un nouveau franchissement de la vallée de l’Austreberthe, un affluent de la Seine, 170 ans après la construction, pour les besoins de la ligne «allant de Paris à la mer », du viaduc ferroviaire de Barentin, situé quelques kilomètres plus au nord.

Un viaduc se lance au-dessus de l’Austreberthe…

Pour ALBEA, la société concessionnaire de l’autoroute A150, et pour les équipes du GIE A150, le concepteur et constructeur de l’autoroute, la réalisation de ce nouveau viaduc représente un des défis majeurs du chantier de l’A150 : un chantier démarré en mars 2013 et qui doit s’achever à la fin février 2015.

Le tracé de l’autoroute A150 franchit la vallée de l’Austreberthe au sud de Barentin.

La différence d’altitude entre le plateau et le fond de vallée est d’une soixantaine de mètres environ.

Le viaduc qui franchit la brèche s’élève à quarante mètres au dessus du sol à la sortie d’un déblai d’une vingtaine de mètres de profondeur du coté nord.

La conception architecturale de l’ouvrage a été réalisée par le cabinet d’architecture STRATES, dont l’activité «Ouvrages d’Art» compte à son actif de nombreuses réalisations autoroutières (Viaduc du Monestier de Clermont en Isère prix 2008 du plus beau pont de la Convention Européenne de la Construction Métallique, Viaduc du Chavanon en Corrèze-prix 2003 de la même compétition).

Le viaduc a été conçu pour franchir une vallée sensible se présentant sous la forme d’une brèche dissymétrique avec un relief plus accentué du côté nord que du côté sud.

Il a fallu dessiner une structure respectueuse du site réalisant un survol franc et contemporain de la brèche.

Le choix d’un tablier mixte acier et béton est un choix technico économique adapté à ce type d’ouvrage. Les piles ont des formes douces qui laissent glisser la lumière et leurs volumes sont aériens. Enfin, la couleur grise de l’ensemble marquera discrètement le paysage de la vallée.

Un viaduc se lance au-dessus de l’Austreberthe…

LA STRUCTURE DE L’OUVRAGE

Le viaduc de l’Austreberthe est un ouvrage d’art de 480 m de longueur qui culmine au dessus de la vallée à plus de 40 m de hauteur.

5 piles sont construites en vallée pour supporter le tablier. Le viaduc aura donc 6 travées de 80 mètres de longueur chacune environ.

Chaque pile est fondée sur 6 pieux de diamètre 1,80 m enfoncés à 20 mètres de profondeur dans le sol, pour tenir compte des caractéris- tiques du sous-sol normand.

Un viaduc se lance au-dessus de l’Austreberthe…

Le tablier est constitué d’une structure mixte en acier et en béton de 5 m environ d’épaisseur. 3 100 tonnes d’acier seront nécessaires pour construire le tablier. 7 000 tonnes de béton viendront recouvrir la structure métallique pour constituer la dalle qui supportera la circulation routière.

Il s’agit d’un mono tablier. Cela signifie qu’un seul tablier sup- porte les deux sens de circulation, soit 4 voies autoroutières.

Ce mono tablier mesure 22 mètres de largeur. La dalle supérieure du tablier, réalisée en béton armé, supportera la chaussée autoroutière et est posée sur une structure métallique type bipoutre. Deux poutres en acier en forme de «I» et mesurant chacune 4,5 mètres de hauteur sont reliées l’une à l’autre par une série de raidisseurs régulièrement espacés. L’épaisseur des tôles constitutives de ces deux poutres peut atteindre dans les zones de plus forte contrainte 10 cm d’épaisseur. Des pièces en console dirigées vers l’extérieur des deux poutres assemblées viennent compléter l’ensemble.

Un viaduc se lance au-dessus de l’Austreberthe…

„ LA PRÉPARATION DU TERRAIN

Un viaduc se lance au-dessus de l’Austreberthe…
Un viaduc se lance au-dessus de l’Austreberthe…

Construction des piles :
Elle a été engagée au printemps 2013. Elle s’est achevée en janvier dernier. Cette phase du chantier aura mobilisé 20 personnes pendant 8 mois.
Les travaux de fondations ont pu être engagés dès les préparations de pistes en fond de vallée réalisées.
Ensuite, un coffrage spécialement conçu aura permis d’ériger chaque pile au rythme d’environ deux levées de 4 m par semaine. La partie supérieure de chacune des piles sur laquelle va reposer la charpente (chevêtre) est réalisée d’un seul tenant, 200 m3 de béton (soit 550 t environ) sont mis en place en une seule fois au sommet de chacun des appuis.

Un viaduc se lance au-dessus de l’Austreberthe…
Un viaduc se lance au-dessus de l’Austreberthe…
Un viaduc se lance au-dessus de l’Austreberthe…
Un viaduc se lance au-dessus de l’Austreberthe…

FABRICATION DE LA CHARPENTE MÉTALLIQUE

Toutes les pièces métalliques nécessaires à la construction de la charpente métallique ont été fabriquées en usine dans les ateliers de Victor Buyck Steel Construction, situés à Eeklo (en Belgique, en Flandres), à une vingtaine de kilomètres de Gand.

La fabrication de ces pièces a débuté en Juillet dernier.

Elles ont été livrées progressivement par camions à partir du mois de novembre 2013 jusqu’à la plate-forme d’assemblage et de lançage située du côté sud du viaduc de l’Austreberthe et construite spécifiquement à cet effet.

Leur dimension était donc limitée à la taille maximum des convois autoroutiers autorisés. Parties par parties, morceaux par morceaux, les éléments de poutres, raidisseurs et pièces en consoles ont été acheminés sur le chantier puis assemblés par soudage.

L’assemblage des premiers éléments de poutres métalliques a débuté sur le chantier au mois de novembre 2013.

Les soudures sont réalisées dans des conditions parfaitement contrôlées afin de garantir une parfaite résistance de l’assemblage. Chacune d’entre elle est radiographiée pour en vérifier la bonne réalisation.

Une dernière couche de peinture est également réalisée sur le chantier pour être certain que tous les endroits concernés par les soudures sont recouverts de leur protection anti corrosion. Cette protection anti corrosion est réalisée en trois couches de peinture dont deux sont réalisées en usine.

Un viaduc se lance au-dessus de l’Austreberthe…

FABRICATION DES DALLES DE BÉTON

Parallèlement à la fabrication de la charpente métallique, le GIE A150 a engagé la fabrication des dalles en béton qui seront posées sur la charpente et qui supporteront la circulation autoroutière.

Ces dalles, construites de part et d’autre du viaduc, seront acheminées par des transports spéciaux jusqu’aux abords immédiats du tablier. Elles seront alors repris par deux chariots spécialement conçus qui les poseront sur le tablier métallique, du centre vers les extrémités. Elles seront ensuite solidarisées entre elles par un dernier coulage de béton.

LE LANÇAGE DU TABLIER

La technique du lançage est une technique éprouvée et utilisée sur de nombreux ouvrages métalliques construits en France.

Les éléments de charpente sont construits à terre, d’un côté de l’ouvrage d’art. Leur construction se déroule au niveau du sol ce qui facilite considérablement les opérations de manutention et les travaux de soudage. L’ouvrage métallique ainsi assemblé est posé sur des calages provisoires.

Par un système de vérins et de câbles, l’ensemble, une fois assemblé, est alors poussé dans le vide en direction des piles du viaduc.

Les cales supportant l’ensemble sont recouvertes de téflon et de lubrifiant afin de faciliter la glisse de l’ensemble sous l’action des câbles et des vérins.

L’élément de charpente ainsi poussé est dimensionné pour ne pas basculer dans le vide avant d’atteindre la première pile sur laquelle il viendra s’appuyer. Pour prendre appui le plus vite possible sur la première pile puis les piles suivantes, une pièce provisoire est attachée à l’avant de la charpente métallique. Elle s’appelle l’avant-bec.

Les 480 m du tablier métallique de l’Austreberthe seront poussés en trois fois depuis la rive sud jusqu’à atteindre la rive nord.

„ Le premier des trois lançages, programmé les 18 et 19 février, a permis d’appuyer la charpente sur les deux premières piles construites dans le lit majeur de l’Austreberthe.

„ Puis un second tronçon de charpente sera assemblé sur la rive sud de l’ouvrage pour être poussé à son tour au cours du mois d’avril prochain.

„ Enfin, le dernier et troisième tronçon, sera quant à lui mis en place d’ici la fin du mois de juin 2014. Il restera alors encore 5 mois de travail pour achever complètement l’ouvrage d’art : dalle en béton armé, équipement de sécurité et chaussée

Un viaduc se lance au-dessus de l’Austreberthe…

RAPPEL DES PRINCIPALES CARACTÉRISTIQUES DU PROJET DE L’A150

„Une infrastructure autoroutière à 2 x 2 voies avec une aire de repos à Villers-Ecalles et des installations de péage à Bouville ;

„Une nouvelle liaison pour connecter deux sections autoroutières existantes au nord à la hauteur d’Yvetot et au sud, à Barentin ;

„Une nouvelle infrastructure routière située pour l’essentiel en zone rurale, à vocation principalement agricole ;

„Un tracé de 18 km traversant des réseaux de circulation et de transport dont la continuité doit être maintenue ;

„Un environnement naturel dont la richesse biologique doit être préservée ;

„D’où la réalisation de 17 ouvrages d‘art...

* le viaduc de l’Austreberthe ;

* et 16 passages routiers au dessus et au dessous de l’autoroute pour la circulation des véhicules et la libre circulation des animaux de la grande faune (chevreuils, sangliers...).

„... et de nombreux ouvrages de protection écologique.

* 9 bassins d’assainissement pour le traitement des eaux de ruissellement des chaussées ;

* 19 ouvrages hydrauliques de rétablissement des écoulements naturels sous l’autoroute ;

* 20 ouvrages dédiés au passage de la petite faune (mammifères, batraciens...).

Un viaduc se lance au-dessus de l’Austreberthe…

10ème Nuit européenne des musées

$
0
0
10ème Nuit européenne des musées

10ème Nuit européenne des musées

La 10ème édition de la Nuit européenne des musées aura lieu le samedi 17 mai 2014 en France et dans toute l'Europe.

Depuis 10 ans, le public est invité à déambuler, une nuit d’un samedi de printemps, dans les musées, à approcher les chefs-d’œuvre ou à s’intéresser à une collection atypique. Concerts et spectacles, visites thématiques, projections, performances, les musées multiplient à l’envi les propositions. Une nuit qui incite à la plus grande curiosité !

La Nuit européenne des musées est aussi un événement symboliquement fort à l’échelle de l'Europe. De Moscou à Madrid, de Londres à Sofia, de Marseille à Bucarest, des millions d’Européens s’approprient un patrimoine commun en manifestant leur curiosité.

En France, pour la deuxième fois, le ministère de la Culture et de la Communication et le ministère de l'Education nationale s'associent autour du projet "la classe, l'œuvre !". Ce projet vise à rapprocher les musées et les établissements scolaires pour permettre aux enfants de s'approprier une œuvre d'un musée de leur région. L'an dernier, la première expérimentation de ce projet avait permis à 82 classes de travailler autour d’œuvres de 94 musées. Cette année, près de 294 musées se sont manifestés pour participer à "la classe, l'œuvre !"

Enfin, cette nuit est aussi un temps de l’échange sur les réseaux sociaux : conseils, coups de cœur, photos à partager. Les noctambules vont eux-mêmes créer la dynamique de l’événement. Le programme complet de la manifestation sera par ailleurs disponible sur le site Internet de la Nuit européenne des musées : www.nuitdesmusees.culture.fr.

En 2013, ce sont 1300 musées français et 2021 musées européens qui ont participé à cette grande nuit festive. En France, plus de 2 millions de noctambules curieux ont profité de cette occasion unique pour investir les salles d’exposition à travers 5000 animations surprenantes, ludiques, scientifiques, pédagogiques... Un engouement croissant car depuis la première édition le nombre de participants a doublé !

La Nuit européenne des musées est organisée par le ministère de la Culture et de la Communication. Elle est placée sous le triple patronage du Conseil de l'Europe, de l’UNESCO et de l’ICOM (Conseil international des musées). La Nuit européenne des musées aura lieu, en 2014, le même week-end que la Journée internationale des musées organisée par l’ICOM.

Un succès qui ne se dément pas au fur et à mesure que les années se suivent…

En 2013, plus de 2 millions de visiteurs ont profité de la soirée du samedi 18 mai pour assouvir leur curiosité et découvrir les collections de plus de 1300 musées français affichant les propositions les plus insolites et originales pour faire de la Nuit une véritable fête des musées. La diversité et la pluridisciplinarité des animations proposées (spectacle vivant, cinéma ...) ont particulièrement séduit un public jeune et familial.

Quelques exemples

En lle-de-France :

Le Centre Pompidou, 21 501 visiteurs

Le Palais de Tokyo, 14 600 visiteurs

Le Grand Palais, 2 118 visiteurs

Le musée des arts décoratifs, 3 646 visiteurs

Le musée du Quai Branly, 14 631 visiteurs

Les musées d’Orsay et de l’Orangerie, 17 891 visiteurs

Les musées Bourdelle et Zadkine, 1 031 visiteurs

Cluny, musée national du Moyen Age, 1 557 visiteurs

Le musée Rodin, 3 482 visiteurs

Le musée de la chasse et de la nature, 2 882 visiteurs

Le musée des arts et métiers, 4 560 visiteurs

Le musée Guimet, 2 782 visiteurs

Le Château de Versailles, 3 823 visiteurs

Sèvres, Cité de la céramique, 1 251 visiteurs

Le C2RMF (Centre de recherche et de restauration des musées de France) et les collections de l’Unesco, ont affiché complet toutes leurs visites guidées.

En région :

La Nuit des mystères a Mulhouse, 25 000 visiteurs

Les musées de Strasbourg, 19 919 visiteurs

Le musée des Beaux Arts de Dijon, 3 475 visiteurs

Le musée des Beaux Arts de Quimper, 975 visiteurs

Le musée Toulouse Lautrec a Albi, 1 025 visiteurs

Le Centre Pompidou Metz, 2 500 visiteurs

Le musée des Augustins in Toulouse, 4 900 visiteurs

Le LAM de Villeneuve d’Ascq, 2 453 visiteurs

Le Louvre Lens, 3 900 visiteurs

Les musées de Rouen, 3 673 visiteurs

Le musée lorrain de Nancy, 3 058 visiteurs

Le musée Adrien Dubouché a limoges, 1 251 visiteurs

Le musée des Beaux Arts d’Orléans, 1 895 visiteurs

Les musées de La Rochelle, 2 678 visiteurs

Le musée des Beaux Arts de Lyon, 4 200 visiteurs

Les musées de Marseille, 7 242 visiteurs

Les musées de Bordeaux, 30 000 visiteurs

En Europe :

En Russie, environ 1 million de visiteurs a Moscou dans les 244 musées participants dont certains sont restés ouverts toute la Nuit.

En Lettonie, le musée d'Arts de Riga a reçu 6 377 visiteurs, dont 64% de jeunes.

En Serbie, la Noc muzeja a rassemblé 420 000 visiteurs dans 345 lieux culturels participants.

A Rome, 270 000 visiteurs de 20h00 a O2h00, plus de 100 lieux participants,

200 animations dont 30 expositions.

En Arménie, le musée Aram Khachaturian à Yerevan a reçu 7 800 visiteurs

A Barcelone, la Nit dels Museus a rassemblé 62 lieux participant dont le Museu europeu d'art modern qui a accueilli 6 456 visiteurs.

En Ukraine, les musées de Vinnitsa ont accueilli 53 000 visiteurs.

En Roumanie, le complexe muséal Astra a Sibiu a accueilli 19 107 visiteurs dont 60% de jeune public.

En Croatie, 50 musées se sont associés pour la première fois (à la Nuit européenne des musées et au Royaume-Uni, le Museums at Night weekend s'est déroulé du jeudi 16 au samedi 18 mai, et a donné lieu à 582 évènements dans 411 lieux culturels.

Les visiteurs de demain :

La Nuit européenne des musées est l’occasion de mettre en évidence le travail exemplaire des musées multipliant les propositions et les expériences pour rencontrer tous les publics.

L’édition 2013 a multiplié les propositions d’animation pour le jeune public et a vu la naissance d’un nouveau programme né du partenariat entre le ministère de la Culture et de la Communication et le ministère de l’Education intitulé La classe, L’œuvre !

Ce dispositif inédit a offert a des élèves de primaire, collège et lycée d'interpréter une œuvre phare issue des collections d’un musée situé a proximité de leur √©tablissement et d'exprimer ce qui, selon eux, en fait la valeur. Pendant la Nuit, ils ont ainsi pu devenir des "passeurs de culture" auprès de leurs proches et des visiteurs.

Les 94 musées ayant participé à ce programme ont ainsi insufflé une nouvelle dynamique a l’évènement « pour un accès de tous les jeunes à l'art et a la culture ».

10ème Nuit européenne des musées
10ème Nuit européenne des musées
10ème Nuit européenne des musées

Les « dangers » du formaldéhyde dans l’industrie du Bois…

$
0
0
Les « dangers » du formaldéhyde dans l’industrie du Bois…

Les « dangers » du formaldéhyde dans l’industrie du Bois…

Dans l’antre de l’auditorium de l’Institut technologique FCBA, centre technique industriel français, chargé des secteurs de la forêt, de la cellulose, du bois-construction et de l'ameublement, une table ronde a été organisée afin d’évaluer la réglementation actuelle et future sur l’exposition professionnelle au formaldéhyde dans les industries des panneaux à base de bois, de la construction bois et de l’ameublement, et découvrir les mesures de prévention adaptées à ce risque.

L’aldéhyde formique ou formaldéhyde, encore plus communément appelé « formol », intervient dans la composition de colles (urée-formol, phénol-formol, résorcine-formol, ...) très largement utilisées pour la fabrication de panneaux à base de bois (particules, fibres, contreplaqué...), d’éléments de charpente, de menuiseries et de meubles. La mise en œuvre de ces colles, dont la consommation annuelle en France est estimée à 500 000 tonnes, génère des émissions de formaldéhyde auxquelles sont exposés certains travailleurs de ces industries du bois. Compte tenu de ses effets sur la santé, il est nécessaire de prévenir les risques y compris le risque cancérogène en appliquant les prescriptions réglementaires et en adaptant les moyens de prévention aux procédés de fabrication.

Dans le cadre d’une convention nationale visant à promouvoir la prévention des risques professionnels liés au formaldéhyde, la DGT (Direction Générale au Travail), la CNAMTS (Caisse Nationale de l’Assurance Maladie des Travailleurs Salariés) , l’lNRS (Institut National de Recherche et de Sécurité pour la prévention des accidents du travail et des maladies professionnelles), l’UIPP (Union des Industries de Panneaux de Process), l’UFC (Union des Fabricants de Contreplaqués), l’UNIFA (Union Nationale des Industries Françaises de l’Ameublement) et la FIBC (Fédération de l'Industrie Bois Construction) avec le soutien du CODIFAB, ont organisé le 27 mars 2014 une journée destinée à sensibiliser les différents acteurs de ces secteurs professionnels : chefs d’entreprise, services de santé au travail, CHS-CT, services HSE ...130 participants environ ont pu suivre les présentations et débats.

Lors de cette manifestation, les effets sur la santé du formaldéhyde, les dispositions réglementaires, les moyens de prévention et les pistes de substitution des colles au formaldéhyde ont été exposés par des experts appartenant à divers organismes tels que la DGT, l’ANSES, la CNAMTS, l’INRS, le FCBA, l’UIPP, la FETBB.

La table ronde a donc pu confronter les différentes approches en matière de prévention « du risque professionnel formaldéhyde » et de répondre aux questions des participants.

La notion de danger du formaldéhyde par Michel Falcy, de l’INRS. Le mot danger et non risque, est à comprendre dans le sens des propriétés intrinsèques d’une substance indépendamment de la notion d’exposition réelle. De ces propriétés découle la réglementation et notamment la classification et l’étiquetage de la substance chimique. La substance formaldéhyde qui est connue sous de nombreuses appellations est identifiée par son seul numéro CAS le 50-00-0, utilisé par tous. Les utilisations des polymères à base de formol sont multiples (ex : colles pour les composants bois, fonction biocides dans les tissus). À noter que cette substance formaldéhyde est produite par tout organisme vivant dont l’homme. Pourquoi le formaldéhyde est-il dangereux ? Il est dangereux par :

· sa volatilité ; il est plus volatile que l’eau et l’oxyde de diéthyle, ce qui présente un risque fort par inhalation ;

· son « LogPow » ou potentiel de bioaccumulation qui est de 0,35 à 25°C, très bas et inférieur à 2, ce qui induit une forte probabilité de pénétrer dans la peau ;

· son inflammabilité qui peut conduire à un risque d’explosion et d’incendie.

Les données en toxicité aigüe sont :

· CL50 à 400 ppm (4h)

· DL50 cutanée = 270 mg/Kg

· DL 50 orale = 800 mg/Kg pour le rat et 260 pour le cobaye.

· Irritation chez l’homme.

Bilan : cette substance est irritante par voie cutanée et orale, mais avec une variation importante selon les animaux. En toxicité aigüe, le produit est classé selon les 3 voies : respiratoire, orale, cutanée.

Il reste que le phénomène essentiel est l’irritation respiratoire. Mais l’odeur du formaldéhyde est perçue très tôt (entre 0,1 et 1ppm), l’irritation entre 1 et 3 ppm, la tolérance entre 4 et 5 ppm et les lésions au niveau des muqueuses commencent à partir de 10 à 20 ppm, avec des lésions caustiques graves à partir de 50 ppm.

Le problème important reste celui de l’allergie. Les effets sur la peau sont bien connus avec eczéma et urticaire. Pour la muqueuse respiratoire, le test est peu fiable, des effets de rhinites d’asthmes avec des tests de provocation peuvent être observés, ce qui confirme le mécanisme allergique.

La toxicité chronique est également liée le plus souvent à l’effet irritant du produit, problème essentiel chez l’homme avec des altérations dans les épreuves respiratoires.

L’effet génotoxique (sur les chromosomes) est étudié expérimentalement in vitro avec des mutations géniques. Alors qu’in vivo, les effets sont essentiellement locaux. Ont été cherchées les anomalies dans les cellules nasales et buccales. Dans les études réalisées dans l’industrie du bois, le problème essentiel recherché est le cancer, par voie orale, mais ce résultat est controversé. Des différences inter espèces classiques sont notées pour les voies respiratoires avec les hypothèses : « effet d’irritation chronique entraînant une régénération cellule qui peut transformer des cellules saines en cellules cancéreuses ».

Si l’existence de cancers pharyngés est reconnue, ces effets surviennent chez des professions à forte exposition, avec l’intégration de la notion de pics d’exposition. Une discussion est ouverte sur les cancers des sinus avec une co-exposition notamment dans l’industrie du bois à cause des poussières de bois enduites de formol. Le plus préoccupant est la reconnaissance d’un certain nombre de leucémies dans des professions à fortes expositions, ce qui implique une pénétration de la substance mais elle n’entraîne pas d’anomalie sur la reproduction.

Les « dangers » du formaldéhyde dans l’industrie du Bois…

Recommandations en matière de valeurs limites d’exposition professionnelle par Dominique Brunet de l’ANSES.

En 2008 des travaux réalisés à partir de revue de la littérature avec l’expertise du SCOEL (The Scientific Committee on Occupational Exposure Limits), ont permis de donner des recommandations avec un consensus sur « cancérogène génotoxique à seuil avec un effet irritant oculaire, jugée plus critique que l’effet respiratoire ».

Les auteurs de ces travaux mettent en avant les concentrations sans effets. A partir de la concentration maxi sans effet, la recommandation d’une valeur limite tenant compte de la variabilité de la population peut être proposée.

L’ANSES a donc réévalué l’ensemble des publications pour arriver à des recommandations dont l’objectif est de protéger des effets d’irritation, et de limiter les irritations oculaires lors des pics d’exposition. Ces valeurs protègent à fortiori contre les risques cancer.

Le comité d’experts s’est basé sur plusieurs études pour recommander de nouvelles Valeurs Limites d’Exposition Professionnelle (VLEP) :

· la VME 8 h (Valeur limite de Moyenne d’Exposition) à 0.2 ppm (soit 0.25 mg/m3)

· la VLCT 15 min (Valeur Limite Court Terme), qui prend en compte les effets de pics, est proposée à 0,4 ppm (soit 0,5 mg/m3).

Cette recommandation ANSES donne les mêmes valeurs que celles obtenues lors des recommandations effectuées par le Comité d’Experts européens du SCOEL.

La règlementation française par Olivier Calvez, DGT (Direction Générale du Travail)

En France, l’arrêté du 13/06/2006, dont l’origine est le reclassement du formaldéhyde CMR 1 par le CIRC en 2004 a renforcé la réglementation depuis le 01/01/2007.

Le champ d’application est lié à une exposition dans le cadre d’une activité professionnelle sur un lieu de travail. Une des obligations du chef d’entreprise est d’évaluer les risques. S’il y a un risque pour la santé de l’opérateur, le code du travail s’applique avec obligation de substitution, à défaut de réduction des expositions, de formation, du suivi des expositions et une prise en compte de l’interdiction de travaux pour des jeunes, apprentis ou stagiaires.

Une distinction doit être effectuée entre les CMR (Cancérogènes, Mutagène, Toxiques pour la Reproduction) pour lesquels, il n’y a pas de risque faible, et les agents chimiques où le risque peut être faible avec une notion de quantité et d’exposition. Le risque peut être réduit ou éliminé grâce à la recherche de substitution, de mesures techniques, et de mesures organisationnelles.

S’il y a exposition à un composé CMR, le chef d’entreprise doit obligatoirement essayer de substituer cette substance CMR. Il peut se rapprocher des CARSAT (Caisses Assurance Retraite et de la Santé Au Travail); son autre obligation est l’information et la formation des travailleurs : « Ici souvent le bas blesse... ».

En ce qui concerne le suivi des expositions, l’employeur doit établir une fiche de prévention des expositions, et mettre en place une surveillance médicale renforcée. Depuis octobre 2013, les travaux exposant aux agents CMR sont interdits aux jeunes 15-18 ans, aux apprentis et stagiaires.

En France, une valeur limite indicative mais non réglementaire existe et implique la notion de contrôle. Si au niveau européen une valeur limite règlementaire est introduite, cette décision impliquera une valeur limite avec un contrôle annuel par site de production par un organisme accrédité.

L’échéance sera fonction de la voie retenue : si le choix est fait d’une valeur indicative, elle sera effective à fin 2014 ; si la voie consultative est retenue, une valeur limite contraignante sera déterminée et dans ce cas, plutôt à l’horizon fin 2015 au mieux.

La réglementation européenne ? Patrick Levy, UIC (Union des Industries Chimiques)

Deux règlementations avec deux compartiments s’appliquent au formaldéhyde : la réglementation « sécurité des produits » et la règlementation « santé et sécurité au travail. »

Concernant la réglementation « sécurité des produits », existent les règlements CLP/SGH (Classification, étiquetage et emballage des substances et mélanges), REACh (Règlement Européen pour les Substances Chimiques), biocides, phytosanitaires, qui, en tant que règlements européens ne nécessitent pas de transposition nationale et sont d’application immédiate dans les 28 pays de l’UE.

La réglementation « santé au travail » n’a pas la même approche. Une prescription minimale est fixée dans une directive européenne, avec la possibilité aux états membres de sévériser lors de la transcription en droit national. Actuellement, la directive cadre européenne relative à la sécurité et à la santé au travail (directive 89/391 CEE) adoptée en 1989, et la directive européenne 98/24 sur les agents chimiques au travail, n’ont pas de transpositions harmonisées dans les 28 pays de l’UE. Toutes deux garantissent des conditions minimales de sécurité et de santé à travers l'Europe tout en autorisant les États membres à maintenir ou à mettre en place des mesures plus strictes.

Le formaldéhyde a déjà une classification partagée (cancérogène de catégorie 2 selon CLP), mais ce classement devrait évoluer à horizon avril 2015, en catégorie C1B et M2 pour cancérogène avéré et mutagène catégorie 2. Ce nouveau classement des répercussions très significatives. En effet, le risque est de ne plus attribuer d’Autorisations de Mises sur le Marché ou AMM, pour certains produits (cosmétiques, biocides...). Avec le règlement REACh, une meilleure option en matière de gestion des risques pourrait conduire à une autorisation ou à une restriction :

· si le formaldéhyde est soumis à autorisation, cette option conduit à une interdiction sauf autorisation accordée par la Commission Européenne tous les 5/7 ans.

· si le formaldéhyde est soumis à restriction, l’option conduit à une interdiction ciblée.

L’évaluation du formaldéhyde, conduite par la France et les Pays Bas, est attendue pour les prochaines semaines. Un nouveau classement pourra entraîner une évolution des valeurs limites d’exposition professionnelles comme précisé plus haut. Il faut également prendre en compte la directive 2004/37 concernant la protection des travailleurs contre les risques liés à l'exposition à des agents cancérigènes ou mutagènes au travail qui peut conduire soit à une valeur limite indicative soit une valeur limite contraignante.

Les Options pour les valeurs limites d’exposition professionnelle :

· Si la voie « sanitaire » est choisie, le processus est simple, la substance est gérée par la directive européenne sur les agents chimiques et/ou sur les agents cancérogènes au travail. Cela conduit à la fixation soit d’une valeur limite indicative soit d’une valeur limite contraignante.

· Si la voie « socio-économique » est préférée, le chemin est plus complexe, la substance est gérée dans le cadre des règlements REACh et « PRODUITS ». Il faut obtenir un accord du Conseil et du Parlement européen. Cette option peut conduire alors à une valeur limite contraignante qui intègre la notion de faisabilité dans le cadre de la seule directive sur les agents cancérogènes au travail/

L’industrie est en faveur d’une valeur limite contraignante dans le cadre de la directive sur les agents chimiques avec en résumé :

· le classement C1B acquis à compter de avril 2015, le formaldéhyde sera alors considéré comme une substance CMR avérée au niveau européen.

· la règlementation du travail modifiée avec une valeur contraignante

et des « utilisations dispersives » ou à expositions fortes probablement interdites.

Les « dangers » du formaldéhyde dans l’industrie du Bois…

Démarche et actions de prévention par Daniel Bertrand, CARSAT Aquitaine

Pour pouvoir substituer un agent chimique dangereux, notamment le formaldéhyde, la démarche doit intégrer les 5 volets dont la faisabilité technique (cahier des charges, comptabilité des équipements, facilité de mise en œuvre, les possibilités de recyclage, les aspects de maintenance). Cela va nécessiter des moyens humains et financiers. Le choix va résulter d’un compromis technique validé par les donneurs d’ordre ou les clients. Concernant le point relatif au coût, il faut garantir la productivité, l’utilisation des équipements de production, les EPI. Dans le contexte concurrentiel actuel, il y a une difficulté d’évaluer les coûts. Tout cela engendre des coûts supplémentaires par des investissements non productifs.

En ce qui concerne les facteurs humains et organisationnels, il faut une implication à tous les niveaux, et des compétences internes ou externes, cela peut entraîner la modification de procédés, modification des gestes techniques, la formation, l’information. Il faut vaincre l’inertie et la résistance au changement.

Pour la santé au travail, il faut tenir compte de la classification réglementaire des produits et substances. Bien sûr, il faut s’intéresser aux VLEP, les procédés doivent soit fonctionner en système clos soit en maîtrisant mieux les systèmes dispersifs. Mais, il faut d’abord anticiper. Actuellement, il n’y a pas de solutions miracles, la démarche est souvent longue et difficile, il faut faire preuve d’imagination. Il n’y a pas une solution unique, mais il y a une solution. Dans l’attente de la substitution, le volet information des travailleurs est très important, et il faut mettre à disposition des EPI adaptés.

Quelques exemples d’actions concrètes : · Identifier les postes exposés avec les Groupes Homogènes d’Exposition ou postes pour ensuite mettre en œuvre des mesures de préventions collectives. Il faut ensuite confiner la presse pour limiter les émissions de formaldéhyde. · Au niveau des mesures collectives, l’objectif est d’essayer de limiter la migration des gaz de presse vers l’amont et l’aval (cantonnement par exemple par des hottes), d’installer des extracteurs d’air supplémentaires en toiture au dessus du volume cantonné (réchauffer ou refroidir l’air, d’où des coûts supplémentaires en énergie). Pour effectuer des mesures d’épaisseur, est présenté un exemple avec une buse qui repousse l’air pollué des parois respiratoires de l’opérateur. Les capotages peuvent être améliorés.

Enfin, il faut informer et mettre à disposition des EPI pertinents et performants. L’intervenant souligne le guide de l’INRS sur la ventilation qui donne d’assez bons résultats.

Les « dangers » du formaldéhyde dans l’industrie du Bois…

La substitution des colles aminoplastes est-elle possible par Camille Demaille, RESCOLL

La fabrication de panneaux fait appel à des résines aminoplastes donc à base d’urée-formol ou UF, mélamine urée-formol ou MUF, et UF dopées, ce sont les résines les plus confrontées aux dégagements de formaldéhydes. Il faut bien sûr optimiser la quantité de liant, diminuer la quantité ou la substituer, ou trouver d’autres moyens de réduction. Il faut évaluer les dégagements de formaldéhyde, les aspects santé et sécurité, prendre en compte la disponibilité des matières premières, la réactivité, la performance mécanique des panneaux obtenus, et à plus long terme la durabilité des panneaux dans l’usage.

Dans les différentes options, il y a 3 types de voies : 1) chimique /pétrole, 2) végétale, et 3) des voies qui vont mixer les approches.

1. Pour la voie chimique :

· Utilisation des capteurs (ajout d’urée par exemple), ce qui entraîne généralement une diminution des propriétés mécaniques du panneau.

· Une autre solution est de doper à la mélamine, solution déjà utilisée dont le gros inconvénient reste le coût.

· Enfin, les Polyhydrazides peuvent venir capter le formaldéhyde.

· On peut essayer de modifier les résines urée formol avec des nano particules, ce qui peut diminuer de 20% les émissions de formaldéhyde, mais on ne connaît pas les risques d’utilisation des nano-particules !

· Enfin l’option de modifier les UF par des agents d’expansion par trichlorofluorométhane n’est pas validée sur le plan des propriétés mécaniques.

· L’utilisation de résine Phénol Formol moins émissive, mais très colorée, une piste de solution est d’ajouter des additifs pour rendre ces résines plus claires, plus réactives.

· Enfin se tourner vers des liants à base d’isocyanate (pMDI seul ou en combinaison UF et isocyanates), mais il reste un problème de coût (l’isocyanate n’est peut-être pas une solution pérenne à cause de son classement).

Dans le projet européen dont l’acronyme est « DIPP pour Développement d’un panneau environnemental pour l’ameublement », l’intervenant a signalé que des essais avaient été effectués avec des adhésifs à base PVAC. D’autres solutions ont été étudiées comme la substitution des catalyseurs dans les formulations (Forintek au Canada), ou l’amélioration des durcisseurs (FIFF), enfin il peut être imaginé des revêtements pour bloquer les émissions de formaldéhyde.

Toutes les solutions limitent les émissions mais elles présentent des inconvénients, soit environnementaux, soit en terme de coût, soit en terme de mise en œuvre (ex. isocyanate) soit des problématiques de manipulation par opérateur.

À l’heure actuelle, aucune solution chimique n’est économiquement viable.

Remarques de FCBA sur le projet DIPP :

Dans le cadre de ce projet européen les colles type PVAC ont été utilisées pour coller des revêtements de type papiers décors ou finish foils et ensuite remplacer les colles UF utilisées pour cet emploi. Concernant le remplacement des colles UF ou MUF pour la fabrication de panneaux de particules, le partenaire italien a utilisé des colles de nature acrylique différentes. La synthèse des résultats de cette étude avait été présentée à FCBA le 10 juin 2008.

2. Du coup, on s’est orienté vers la voie végétale avec :

· L’utilisation de la fibre de bois pour augmenter la capacité de feutrage ou encore en utilisant de la lignine qui est une matière première malheureusement peu réactive.

· L’utilisation des tanins mais dont l’extraction est difficile.

· Des travaux visant à utiliser du bois liquéfié, mais sont constatés des problèmes de couleur des panneaux de bois par la suite.

· L’utilisation de protéines végétales pour modifier les résines PF (Aswoodtm) ou des huiles insaturées, les résultats étaient encourageants mais étaient observés des problèmes de cohésion du matériau, ce qui conduisait à devoir augmenter la température de presse.

· Les carbohydrates ont également été testés comme co-réactants,

· L’extrait d’aiguilles de conifères

· Ou des solutions mixtes à base de lignine.

Mais tout comme pour la voie chimique, ces solutions végétales ont plusieurs inconvénients :

. La disponibilité des matières premières

· Les propriétés d’usage car il faut garantir les propriétés mécaniques et physico-chimiques

· Les incertitudes sur les conditions d’hygiène et sécurité

· Et enfin, le degré de maturité des différentes options qui n’ont pas été testées à l’échelle industrielle

3. Les options mixtes avec l’utilisation de :

· lignine glyoxalisée avec tannins et pMDI

· lignine glyoxalée avec résines PF et pMDI, tannins et pMDI ou tannins.

· Lignine glyoxalisée et agent réticulant comme l’urée par ex.

En conclusion, les résines utilisables doivent répondre à différentes caractéristiques comme : permettre l’utilisation de l’outil industriel actuel, avoir une disponibilité en grande quantité des matières premières, ne pas engendrer de surcoûts inacceptables, et enfin respecter les caractéristiques attendues des panneaux pour l’usage visé.

Il y a de nombreuses pistes de travail mais aucune solution miracle. Il faut améliorer la qualité technique des résines végétales, pour aboutir à des produits économiquement rentables.

Les « dangers » du formaldéhyde dans l’industrie du Bois…

Une lampe solaire self-made, une éclaircie pour les pays en développement…

$
0
0
Une lampe solaire self-made, une éclaircie pour les pays en développement…

Une lampe solaire self-made, une éclaircie pour les pays en développement…

La lampe solaire développée par la start-up LEDsafari constitue une manière de s’éclairer plus efficace, plus sûre et moins onéreuse que la lampe à pétrole traditionnellement utilisée par plus d’un milliard de personnes dans le monde. Partie intégrante du programme de cette jeune start-up lausannoise, un atelier formatif de trois jours dispensés par des globe-trotter formés par la start-up est organisé sur place afin de sensibiliser et de former les populations bénéficiaires.

Pour pallier aux nombreux problèmes que posent les lampes à pétrole utilisées par 1,6 milliard de personnes dans le monde, LEDsafari a mis au point un ingénieux système de lampe à faire soi-même avec du matériel à disposition sur place tels que fil électrique, batterie de téléphone portable et bouteilles vides. Plus de 200 personnes en Inde, au Kenya et en Tanzanie ont ainsi réalisé grâce à l’atelier l’avantage économique et sanitaire de cet ingénieux système et s’éclairent déjà quotidiennement grâce à ce procédé.

L’utilisation du kérosène pose de nombreux problèmes. Financiers d’abord: les 2 à 3 dollars par semaine dépensés pour le carburant représentent souvent 20% du budget de la famille. Sanitaires également : très toxique lorsqu’il brûle, une utilisation journalière correspond à l’inhalation de la fumée de 40 cigarettes, augmentant souvent le risque de maladies pulmonaires graves d’après une récente étude de l’Université de Berkeley. Au niveau global c’est 265 millions de tonnes de CO2 qui sont dispersées dans l’atmosphère. A cela s’ajoute le danger de l’installation qui cause chaque année de graves brûlures à des millions de personnes.

La mise au point d’un nouveau système d’éclairage pour le Tiers-monde se heurte à deux problèmes récurrents : le coût et l’intégration à long terme de celui-ci dans la vie quotidienne. Govinda Upadhyay, doctorant au Laboratoire d’énergie solaire et physique du bâtiment, a eu la lumineuse idée de mettre au point une lampe réduite à l’essentiel mais efficace. Conçues pour pouvoir être fabriquées par tout un chacun, ces lampes ne nécessitent quasiment que du matériel présent localement. Seuls les panneaux solaires sont commandés à l’étranger. Cinq à six heures de chargement au soleil suffisent à donner quatre à cinq heures de lumière.

Aucun brevet ne pèse sur le système mis au point par le chercheur. Du câble électrique, une batterie de téléphone portable, un bouton on/off et des LED sont nécessaires. L’abat-jour peut-être personnalisé: bouteilles vides, boîtes de diverses formes etc. Un concept déjà éprouvé puisque le fondateur de la start-up et son équipe, Elisa Wepfer, Vincenzo Capogna, Naomi Savioz et Parag Rastogi, se sont déjà rendus dans plusieurs régions d’Inde, de Tanzanie et du Kenya pour divulguer ce savoir. Le jeune doctorant compte sur les globe-trotters pour diffuser son savoir-faire.

Le matériel nécessaire pour fabriquer 100 lampes pèse 1kg : facile à transporter dans ses bagages. « Les globe-trotters qui souhaitent joindre l’utile à l’agréable peuvent suivre un jour de formation auprès de la start-up en Suisse, souligne-t-il. Ils iront ensuite dispenser leurs nouvelles connaissances dans un village des pays en développement durant trois jours avant de poursuivre leurs vacances. Ça ajoute une touche humanitaire que les amateurs de voyage hors des sentiers battus aiment bien. »

Pour aborder au mieux le concept de développement durable auprès des populations bénéficiaires et favoriser ainsi leur compréhension de l’importance de l’énergie solaire, Govinda a développé une méthode d’apprentissage centrée sur la lampe. Il commence par la sensibilisation aux problèmes que cause la lampe à kérosène à la santé et à l’environnement à l’aide d’exemples très concrets, de manière à ce que les gens comprennent pourquoi il est important de changer de manière de faire. Il aborde également le thème du recyclage des déchets liés aux lampes. La seconde journée de l’atelier est consacrée à l’apprentissage du montage des lampes. Chaque personne va ensuite pouvoir enseigner ce nouveau procédé à d’autres membres de sa communauté. « C’est important que l’apprentissage vienne aussi des gens eux-mêmes, qu’ils s’approprient le système et que ce ne soit pas un élément importé des pays riches qu’ils oublient aussitôt. Trois jours, c’est tout ce que nécessite la formation de tout un village à la fabrication de ces lampes. »

Crédits photographiques : © LEDsafari

 © LEDsafari

© LEDsafari

Un « Remake » de White Rock Line de Richard long retrouve l’éclat du blanc…

$
0
0
Un « Remake » de White Rock Line de Richard long retrouve l’éclat du blanc…

Un « Remake » de White Rock Line de Richard long retrouve l’éclat du blanc…

Les origines périgourdines de White Rock Line

En 1990, à l’occasion de travaux de rénovation, le CAPC commande au sculpteur Richard Long une œuvre destinée à être placée sur la terrasse du bâtiment. L’artiste, un des grands noms du Land Art, présente la particularité de réaliser des œuvres à partir de matériaux naturels : "J’ai commencé à travailler en extérieur, utilisant des matériaux naturels comme l’herbe et l’eau et c’est ainsi que je suis venu à l’idée de faire de la sculpture en marchant." (Source : catalogue de l'exposition de Richard Long - Royal West of England Academy, Bristol, 2000).

C’est une sculpture de 18 tonnes composée de moellons, disposés au sol selon un rectangle prédéterminé. La pierre calcaire claire provient des carrières de Bourg-sur-Gironde. C’est la même pierre que celle utilisée pour la construction de l'Entrepôt et cette citation du site est délibérée.

« Je choisis la ligne et le cercle parce qu’ils font l’affaire », dit l’artiste. Ce "chemin minéral" est d'une grande rigueur géométrique malgré le chaos hasardeux de l’entassement des matériaux. C’est une invitation à parcourir l’œuvre dans sa longueur, selon un précepte de la sculpture minimaliste. Pour Long aussi, la marche invite à la réflexion : « Marcher, c'est comme dessiner le temps qui passe ».

Il en va ainsi de White Rock Line, un vaste rectangle de 40 mètres de long et 1,50 mètre de large, constitué de 18 tonnes de blocs de calcaire. Ceux-ci proviennent de la carrière Lafarge de La Tour Blanche, située à Bourg des Maisons, en Dordogne (24). Réputée pour la qualité de son calcaire, elle doit la blancheur si particulière de son matériau à la région qui, voici 140 millions d’années, était une mer chaude, riche en coraux et coquillages.

Richard Long, Ligne de pierres blanches, 1990 (détail) © Christoph Kicherer

Richard Long, Ligne de pierres blanches, 1990 (détail) © Christoph Kicherer

Une restauration ou un "remake" ?

Malgré les soins réguliers apportés à cette sculpture d’un blanc éclatant, les moellons adoptent au fil du temps une teinte grisâtre qui dénature son propos. L’idée coûteuse de restaurer les granulats, pièce par pièce, est rapidement abandonnée. Interrogé par la direction du musée, Richard Long accepte alors, selon ses propres mots, "un remake" de son œuvre, qui consiste à remplacer la totalité des moellons.

La carrière de la Tour Blanche est alors sollicitée pour extraire de son sol le matériau immaculé.

Lafarge a donc participé au "remake" de White Rock Line. La carrière Lafarge de La Tour Blanche (24) fournit, comme à l’origine, les 18 tonnes de granulats nécessaires à la reconstitution de l’œuvre "White Rock Line", de l’artiste anglais Richard Long. Cette œuvre est installée depuis 1990, date de sa création, sur la terrasse du CAPC musée d'art contemporain de Bordeaux.

Ce remake s’est effectué en deux temps. En décembre 2013, un important dispositif est mis en place pour "évacuer" de la terrasse du CAPC la sculpture de 18 tonnes. Aujourd’hui, White Rock Line est en cours de restauration. Elle sera inaugurée le 19 septembre 2014, à l’occasion des Journées du Patrimoine.

Un « Remake » de White Rock Line de Richard long retrouve l’éclat du blanc…

Un empire en Afrique, combat d’un chef d’entreprise camerounais contre un géant de l’agroalimentaire…

$
0
0
Un empire en Afrique, combat d’un chef d’entreprise camerounais contre un géant de l’agroalimentaire…

Un empire en Afrique, combat d’un chef d’entreprise camerounais contre un géant de l’agroalimentaire…

Diffusion le mardi 29 avril à 21h45... Le Monde en face... sur France 5...

Depuis plus de dix ans, Pius Bissek bataille en justice contre la filiale d’un géant de l’agroalimentaire. A l’heure de la mondialisation, Judith Rueff retrace le combat de ce chef d’entreprise camerounais contre un pot de fer qui a fait du continent africain un de ses nouveaux leviers de croissance.

A ses belles heures, Codilait a employé à Douala jusqu’à deux cents personnes. De ses ateliers sont sorties chaque jour des centaines de boîtes de lait concentré sucré. Fabriqué à partir d’un mélange de lait en poudre importé – la production laitière du Cameroun est insuffisante –, de matières grasses animales, de sucre et d’eau, le Super Milk de Codilait trônait en bonne place dans les rayons des commerçants camerounais. En 1994, pour aider la compétitivité des entreprises locales face aux produits importés qui inondent le continent africain, la France, le FMI et la Banque mondiale décident d’une dévaluation de 50 % du franc CFA. Devenues moins chères que les marques étrangères, les boîtes de Codilait grignotent de nouvelles parts de marché. La success-story entrepreneuriale aurait pu durer si, l’année suivante, le numéro un mondial de l’alimentation n’avait riposté avec son produit lacté Gloria. Alertés par des prix incroyablement bas, Pius Bissek et ses partenaires font pratiquer des analyses par un laboratoire indépendant. Verdict : « Ce n’est pas du lait, commente le chef d’entreprise. On y trouve des matières grasses végétales, c’est-à-dire de l’huile de palme raffinée et de l’huile de coco, et pas de matières grasses laitières. » Dans un pays où 30 % de la population est analphabète, décrypter une étiquette n’est pas chose facile pour différencier les deux recettes. La politique du prix bas de ses concurrents finit par avoir raison de Codilait, qui fait faillite en 2004.

Un parcours judiciaire semé d’embûches

« Nous avons constaté que nous étions face à une concurrence déloyale et nous avons engagé une action en responsabilité contre les importateurs, les distributeurs et la filiale du groupe Nestlé », explique Me Charles Tchoungang, l’avocat de Codilait. Au terme d’une décennie d’un parcours judiciaire semé d’embûches, la multinationale suisse et six autres importateurs d’aliments lactés sont condamnés par la justice camerounaise à verser 740 millions de francs CFA à Codilait. Une somme jugée insuffisante pour rouvrir l’usine par le petit patron, qui décide de poursuivre son combat en appel. Quand, en 2012, Nestlé est finalement mis hors de cause par la cour d’appel, le groupe vient d’annoncer l’implantation d’une usine de café soluble au Cameroun. Pius Bissek, qui ne désarme pas, se tourne alors vers la Cour suprême, dont le verdict est attendu prochainement. Depuis que l’usine est fermée, les trois quarts de ses ex-employés n’ont pas retrouvé de travail. Un drame humain terrible dans un pays où la protection sociale est encore quasi inexistante. « Nous voulons nous battre, s’indigne Pius Bissek, pour que la croissance et le développement de notre pays soient une réalité. Pour que nos enfants aient des emplois au Cameroun. Vous trouvez normal, vous, que nos enfants aillent mourir à Lampedusa ? »

Pour aller plus loin, un dispositif transmédia inédit

Nestlé nourrit le monde... et vous ? Que savez-vous de l’empire qui se cache dans votre placard ? Un empire dans mon assiette est le volet Web d’un projet transmédia consacré au géant de l’agro­alimentaire. Une plongée dans les coulisses de la multinationale suisse. Le webdocumentaire se déroule dans les placards de notre cuisine. L’internaute répond à un quiz sur des produits ultracélèbres. En naviguant d’un emballage à l’autre, il découvre une enquête filmée sur le numéro un mondial de l’alimentation. Derrière les marques du quotidien, il y a des stratégies marketing et commerciales, des marchés et des matières premières, un réseau d’influences et une image à soigner.
En ligne dès le 24 avril sur : un-empire-dans-mon-assiette.france5.fr.
En partenariat avec France Info, Le Monde, Terra Eco.

Documentaire
Durée 52’
Auteure-réalisatrice Judith Rueff, en collaboration avec Raynald Lellouche
Production Les Films d’Ici / Ligne 4 / Les Films de la Passerelle / RTBF, avec la participation de France Télévisions
Année 2014


Pensée du Jour

$
0
0
Pensée du Jour

Pensée du Jour

« Le bruit ne fait pas de bien, et le bien ne fait pas de bruit. »
Vincent de Paul 1581 - 1660

L’urgence à réagir pour sauver le photovoltaïque, 43% d'emplois perdus depuis 2010

$
0
0
L’urgence à réagir pour sauver le photovoltaïque, 43% d'emplois perdus depuis 2010

L’urgence à réagir pour sauver le photovoltaïque, 43% d'emplois perdus depuis 2010

Dans un courrier publié dans le Huffington Post, David Haïun, Président de Groupe Solaire de France, entreprise spécialisée dans le photovoltaïque résidentiel en France, interpelle la nouvelle ministre de l’Ecologie, Ségolène Royal, afin de sauver la filière photovoltaïque.

Spécialiste du photovoltaïque résidentiel depuis 2010, Groupe Solaire de France qui distribue la gamme GSDF avec ses panneaux 250PSI et 185MBL convennant à tous les types d’installations résidentielles est sorti de sa réserve par l’intermédiaire de son Président David Haïun appelant ainsi à l’aide auprès de la ministre de l’Ecologie.

En reprenant les chiffres de la Cour des Comptes révélant que « la filière photovoltaïque a connu une perte d'emplois depuis 2010 passant de 31.550 emplois à 17.980 en 2012", soit 43% d'emplois perdus depuis 2010 qui indiquent une situation très compromettante en terme économique mais aussi sur le plan social. Ce message de SOS adressé à Ségolène Royal n’est que la copie de ceux lancés aux ex-ministres, sera-t-il lu ???

En effet, pour réussir la transition énergétique, le photovoltaïque comme toutes les énergies renouvelables ne constitue pas une alternative mais plutôt une exigence compte tenu de l’essor constaté et à venir à l’échelle mondial.

David Haïun estime que si rien n’est fait, c’est toute la filière qui va s’écrouler laissant donc le secteur aux géants du fossile.

La situation actuelle est donc le résultat « des efforts entrepris par le géant de l'énergie fossile pour nous affaiblir » explique David Haïun. Et rajoute qu’ « ainsi, le tarif de raccordement est défini de manière discrétionnaire par EDF: en 4 ans, il a quintuplé sans raison, passant de moins de 500 euros à plus de 2500 euros dans certain cas, pour une prestation restée rigoureusement identique. Ce sont sans doute d'autres éléments de ce type qui ont récemment conduit l'autorité de la concurrence à condamner EDF à une amende record pour abus de position dominante sur le marché des panneaux solaires. »

Aussi, le Président de Groupe Solaire de France propose 3 mesures d’urgence pour sauver la filière…

- donner la possibilité aux installateurs de poser des compteurs photovoltaïques pour rendre plus efficace, plus rapide et moins coûteux le processus d'installation ;

- réintégrer le photovoltaïque au CIDD (Crédit d'Impôt Développement Durable);

- geler pour un an le tarif de rachat qui s’est effondré en 3 ans (il est passé de 46 euros/kWh en 2010 à 29 euros/kWh fin 2013, soit une baisse de 37%), ce qui permettrait de garantir un cadre stable à la filière.

David Haïun conclut : « Il ne s'agit pas seulement de sauver la transition énergétique, mais de sauver l'emploi: le photovoltaïque a permis la création de plusieurs dizaines de milliers d'emplois directs en France depuis 2006, emplois à 100% non délocalisables. Il ne s'agit pas seulement de sauver la transition énergétique, mais d'aider les Français. En 2014, équiper son foyer de panneaux solaires relève du parcours du combattant, alors que la mise en oeuvre de la transition énergétique est l’affaire de chacun. Il ne s'agit pas seulement de sauver la transition énergétique mais d'être fidèle à nos engagements: si le photovoltaïque française s'effondre, plusieurs dizaines de milliers de particuliers producteurs d'énergies se retrouveront sans garantie. Madame la ministre, êtes-vous prête à vous engager pour sauver le photovoltaïque français? »

Vulnérabilité des réseaux d’infrastructures, des évaluations lacunaires face aux risques naturels

$
0
0
Vulnérabilité des réseaux d’infrastructures, des évaluations lacunaires face aux risques naturels

Vulnérabilité des réseaux d’infrastructures, des évaluations lacunaires face aux risques naturels

Une réflexion s’est portée sur l’évaluation des réseaux de transport de personnes et de marchandises et sur les réseaux de transport et de distribution d'électricité, réseaux qui relèvent tous, directement ou à travers des opérateurs, de la compétence du Ministère de l’Ecologie par le Conseil général de l’Environnement et du Développement Durable. Elle a notamment permis d’appréhender l'ensemble des réseaux de transport de personnes, de marchandises et d'énergie.

Le regain d'intérêt pour la question de la vulnérabilité des réseaux d'infrastructure et de services et pour la mise en œuvre de politiques de résilience de ces réseaux trouve son origine dans les grandes catastrophes naturelles survenues dans le monde, notamment l'ouragan Katrina aux États-Unis (Louisiane, Mississippi..., août 2005), Sandy (côte est des États-Unis, octobre 2012) et la catastrophe de Fukushima au Japon (mars 2011); ou, en France, la canicule de l'été 2003, le black out « importé » d'Allemagne du nord en novembre 2006, les tempêtes Lothar et Martin (décembre 1999), Klaus (janvier 2009), Xynthia (février-mars 2010). Ces événements ont montré la vulnérabilité de réseaux concourant à des services publics essentiels, l'interdépendance entre plusieurs réseaux avec des conséquences en cascade et la difficulté à les rétablir dans des délais admissibles pour la population.

Ainsi dans son rapport, le CGEDD fait part de ses conclusions et montre que l’approche des risques naturels et technologiques par les pouvoirs publics (notamment direction de la sécurité civile et direction générale de la prévention des risques) a privilégié comme cela est légitime la sécurisation des populations. Un traitement adéquat des risques affectant l'intégrité des réseaux d'infrastructures et du service qu'ils assurent, requiert une adaptation de cette politique.

Le rapport montre également qu’au terme de l'examen de la prise en compte des risques naturels par les opérateurs, il convient en premier lieu de remarquer que la liste des risques mis en avant au niveau central (cf. § 2.1 du présent rapport) paraît lacunaire : ainsi, le risque de tempête est plus significatif que le risque de feux de forêts qui n'a jamais été cité par les opérateurs, et le risque de tsunami en France métropolitaine apparaît marginal et localisé .

De même, le CGEDD mentionne que les réseaux ne figurent pas en priorité dans les constructions et ouvrages à protéger. Par exemple, le récent Cadre d'actions pour la prévention du risque sismique, publié début 2013, ne mentionne que très ponctuellement les réseaux, dans la seule action « 22b » qui s'intitule : « Poursuivre le recensement et le diagnostic des bâtiments, ponts et équipements nécessaires à la gestion de crise (catégorie IV) ».

S’agissant du risque d'inondation, le rapport observe qu’il apparaît le plus structuré et le mieux pris en compte dans les zonages et la planification accidentelle des opérateurs. Toutefois, les conséquences d'une crue centennale de la Seine sur l'agglomération parisienne se répercuteraient bien au delà de la seule zone inondée, et le retour à une situation normale demanderait plusieurs mois. Il en irait de même, avec des effets plus limités, d'une crue centennale du Rhône et de la Saône.

De plus, l’analyse précise que les risques « classiques » bien cartographiés, notamment le risque inondation et le risque sismique, sont pris en compte par les pouvoirs publics (dans leur planification spatiale à travers les PPR) et les opérateurs (dans leurs plans de mise en sécurité et notamment dans les PCA) d'une manière qui a priori apparaît satisfaisante.

Par contre, le rapport estime que la prise en compte de l'émergence de nouveaux risques liés au changement climatique et/ou à l'évolution technologique, ou de l'intensification de risques connus, reste à approfondir.

A cet égard on peut citer :

• le risque de submersions marines, lié à l'élévation continue du niveau de la mer, impose de reconsidérer le dimensionnement des ouvrages à la mer, notamment des digues de protection (cf. les réflexions des grands ports maritimes en liaison avec le CETMEF concernant ce type d'ouvrages) ;

• des phénomènes de plus en plus récurrents comme les températures extrêmes prolongées (fortes chaleurs, gel), affectant la fiabilité des composants électroniques, ou provoquant leur défaillance, sont peu ou pas étudiés alors même que les matériels de transport (tant ferroviaires que routiers) et les infrastructures (transmissions, signalisation, équipements de sécurité...) et recourent de plus en plus massivement aux systèmes électroniques ;

• enfin, des chutes de neige récurrentes, avec des qualités de neige difficiles, peuvent, sans altérer les infrastructures proprement dites, paralyser pour une période plus ou moins longue le fonctionnement des réseaux, comme l'a démontré l'épisode neigeux de décembre 2010 en région parisienne. Les réseaux routiers sont les plus immédiatement concernés, mais d'autres réseaux peuvent être également perturbés, par « effet domino ».

S’agissant des réseaux de transport et de distribution d'énergie (électricité, gaz, hydrocarbures), le rapport pointe que les communications électroniques (opérateurs de téléphonie fixe, mobile et internet) apparaissent de plus en plus critiques pour la résilience des autres réseaux, notamment de transport, mais aussi les réseaux d'eau et d'assainissement, de santé, et tous les réseaux dits « de proximité » ou « de solidarité ». La loi de modernisation de la sécurité civile du 13 août 2004 a bien identifié cet élément, mais les conséquences n’en apparaissent pas à l’heure actuelle.

Ainsi, le rapport estime que le durcissement des réseaux électriques et de télécommunications devrait revêtir une certaine priorité, dans la mesure où le fonctionnement de ces derniers est une condition nécessaire de la résilience des autres réseaux.

Un point qui fait l'objet d'un consensus de la plupart des acteurs rencontrés et a été mis en évidence tant dans des exercices « sur table » comme l'exercice « En Seine » organisé par la Préfecture de Police de Paris (2010) que dans des crises réelles comme l'ouragan Sandy (2012) dans l'agglomération new-yorkaise ; par ailleurs, il fait actuellement l'objet de travaux sous l'égide du SGDSN, rajoute l’analyse du CGEDD.

Le rapport mentionne que la fonction risques apparaît bien identifiée et prise en charge par les opérateurs de réseaux relevant du ministère chargé du développement durable, mais les risques sont approchés de manière globale (risques de malveillance, risques technologiques, risques naturels), leur dissociation apparaissant arbitraire aux opérateurs.

Des autorités externes aux opérateurs (établissement public de la sécurité ferroviaire, direction de la sécurité de l'aviation civile...) ont été constituées pour établir des règles de sécurité et pour en contrôler l'application. Ces autorités ont un pouvoir de blocage du trafic. Par ailleurs, les opérateurs disposent de leurs services de sécurité internes.

Toutefois, le contrôle par l’une ou l’autre de ces entités porte en priorité sur la sécurité opérationnelle (i. e. de l'exploitation) et non sur la préservation de l'intégrité physique des réseaux : c'est notamment le cas dans le domaine des transports ferroviaires et dans celui du transport aérien notre l’analyse.

La note montre que l'organisation interne de chaque opérateur reflète bien l'importance accordée à la sécurité, qui est généralement confiée à une structure bien identifiée placée sous l'autorité d'un responsable proche du dirigeant de l'opérateur (généralement un membre du COMEX). Le domaine ferroviaire fait exception à cet égard, et reproduit la dualité entre gestionnaire de l'infrastructure (GI) et entreprise ferroviaire ; en outre, au sein même du GI, la fonction sécurité du réseau et la fonction risques (en approche globale) sont confiées à des structures différentes.

L’étude ajoute que la coopération entre opérateurs différents ne s'établit pas naturellement, comme en témoignent les crises réelles et les exercices de crise. De tels exercices, mettant en jeu les pouvoirs publics ainsi que l'ensemble des opérateurs de réseaux, devraient être organisés systématiquement et leurs retours d'expérience être partagés entre les acteurs et largement diffusés, afin d'amorcer une « boucle d'apprentissage » vertueuse.

Les interdépendances entre réseaux font actuellement l’objet d’une réflexion qui reste à approfondir. Il serait souhaitable que les pouvoirs publics affirment davantage leur rôle de coordination dans la gestion de la crise. Par ailleurs, les retours d'expérience tant des exercices que des crises réelles ne semblent pas faire l'objet d'une diffusion ni d'une capitalisation suffisante. Le CGEDD pourrait jouer un rôle plus affirmé dans ce double rôle de diffusion et de capitalisation (entendue comme mise en commun d'expérience et constitution d'un corps de doctrine).

Concernant les retours d'expérience (REX), la pratique consistant pour une autorité publique à procéder après une crise réelle avec l'ensemble des opérateurs de réseaux à un véritable REX et donnant lieu à un compte rendu diffusé à l'ensemble des parties intéressées ne semble pas bien ancrée dans les comportements, et doit être systématisée. Ainsi, l'épisode neigeux de mars 2013 ne semble pas avoir été perçu par les acteurs comme d'un caractère exceptionnel, alors qu’il a fortement perturbé pendant plusieurs jours la vie de millions de personnes. Il en est peut-être de même pour les crues des Pyrénées survenues en juin 2013.

Enfin, l’analyse du CGEDD conclut que la réflexion sur les enjeux économiques de la résilience des réseaux reste à approfondir chez les opérateurs et leurs tutelles. Cette réflexion, étonnamment peu développée actuellement, incombe tant aux pouvoirs publics (l'étude d'impact d'une nouvelle réglementation en matière de sécurité doit comporter un bilan prévisionnel de ses coûts et de ses bénéfices attendus) qu'aux opérateurs de réseaux (analyse de la rentabilité économique d’une mesure de prévention). En outre, ces derniers doivent élargir leur évaluation prévisionnelle au-delà de leur périmètre propre, pour une prise en compte des coûts directs et indirects, pour la collectivité dans son ensemble, d'une défaillance de leur réseau entraînée par la matérialisation d'un aléa naturel.

Risques naturels, miniers et technologiques, droits et devoirs de chacun…

Bien concevoir et dimensionner son système de ventilation naturelle…

$
0
0
Bien concevoir et dimensionner son système de ventilation naturelle…

Bien concevoir et dimensionner son système de ventilation naturelle…

Nos bâtiments rendus imperméable à l’air que ce soit en rénovation ou en construction, il devient impératif que les équipements de ventilation, naturelle ou hybride soient conçus, dimensionnés et mis en œuvre dans le respect des règles communes afin d’atteindre les objectifs de débits hygiéniques.

Première étape : Aide à la décision ; approche générale

Les interactions et impacts des éléments caractéristiques du système de ventilation, la configuration du bâtiment et les paramètres sensibles (pertes de charge, température, vitesse de vent, % d’assistance...) sont présentés et ordonnés dans un logigramme d’aide à la décision.

Deuxième étape : Exemple d’application Un exemple d’application par l’utilisation du logiciel DimVNHy® donne une approche concrète d’un dimensionnement réalisé pour un bâtiment collectif d’habitation de type R+4.

Sur la base de l’application de l’arrêté du 24 mars 1982, article 3 : « Les dispositifs de ventilation, qu’ils soient mécaniques ou à fonctionnement naturel, doivent être tels que les exigences de débit extrait [...] soient satisfaites dans les conditions climatiques moyennes d’hiver ».

Comme point de départ théorique pour le dimensionnement, l’AVEMS recommande l’utilisation d’une règle générale de base fixant les hypothèses de dimensionnement ci-dessous. Ces dernières sont définies sur l’étude du fichier météo de Trappes (fichier météo de référence pour les Avis Techniques) pendant la période de chauffe s’étendant du 1er octobre au 30 avril.

Conditions moyennes d’hiver :

Température 50% des occurrences = 6,65°C ; moyenne arithmétique = 7,06°C.

Vitesse de vent 50% des occurrences =3 m.s-1 ; moyenne arithmétique = 3,28 m.s-1.

Recommandations AVEMS (éléments de base pour le pré-dimensionnement)*

• Température extérieure de référence = 7°C

• Vitesse de vent de référence = 3. m.s-1

* S’agissant de recommandations générales pour un dimensionnement de base, en complément de cette première étape, le dimensionnement du système de ventilation naturelle et/ou ventilation hybride nécessite un calcul des débits suivant un fichier météorologique adapté au projet étudié.

La variation des paramètres sensibles aura un impact direct sur le temps de fonctionnement de l’assistance et/ou le dimensionnement des conduits. Cette option est automatiquement proposée par le logiciel DimVNHy® si les débits ne peuvent être atteints, en tout ou partie, selon les hypothèses recommandées ci-dessus.

L’objectif principal étant de trouver un équilibre entre l’exploitation des conditions météorologiques et le temps d’utilisation de l’assistance (bascule entre ventilation naturelle et ventilation hybride).

Bien concevoir et dimensionner son système de ventilation naturelle…

La conception dès l’avant Projet…

À ce stade, il faut choisir entre une solution de ventilation naturelle et une solution de ventilation hybride selon le type et l’usage prévu pour votre bâtiment. Ce choix est essentiellement lié à la valeur de renouvellement d’air nécessaire. Le processus de décision est présenté Figure 7.1.

Le prédimensionnement des conduits et le choix des options telles que le mode de régulation et la technologie du système, sont des éléments importants qui interviendront en APD (Avant-Projet Détaillé).

Impact sur l’approche architecturale :

Le choix de cette solution va orienter l’approche architecturale de la conception du bâtiment. La situation géographique, les conditions météo, l’orientation, sont des paramètres sur le fonctionnement de la ventilation naturelle.

Dans le bâtiment, le dimensionnement des conduits va déterminer leur encombrement. L’implantation des conduits de ventilation va influer sur le positionnement et la superposition des pièces techniques de même usage (cuisines, salles de bains, WC).

Une approche architecturale par l’empilement de logements ou de pièces techniques identiques permet de simplifier l’implantation des conduits de ventilation naturelle.

En toiture, il est nécessaire de prévoir la création de souche(s) pour l’émergence des conduits de ventilation. Ces souches pourront être coiffées par des extracteurs pour un fonctionnement en ventilation hybride et naturelle.

Bien concevoir et dimensionner son système de ventilation naturelle…

Le dimensionnement…

Le dimensionnement complet d’une installation de ventilation naturelle et ventilation hybride par conduit peut être réalisé conformément à la norme NF EN 15242 et au projet français complémentaire sur les conduits shunts (NF E 51-766). Cette méthode est à l’origine du logiciel de dimensionnement de la ventilation naturelle DimVNHy®.

Cependant, lorsque les conditions climatiques de dimensionnement sont déterminées, il reste à équilibrer forces motrices et résistives pour obtenir le débit souhaité. Plusieurs paramètres liés aux composants peuvent agir et créer des pertes de charge, c’est pourquoi il est recommandé ici un prédimensionnement par défaut de ces composants qui permettra ensuite, plus facilement, par le calcul complet, de valider les débits obtenus.

Pour mener à bien le projet, il est nécessaire de déterminer les données à intégrer dans le logiciel DimVNHy®, associé à ce guide, avec des recommandations de prédimensionnement.

L’objectif concernant l’aération des logements est d’atteindre les objectifs stipulés dans l’arrêté du 24 mars 1982, « Aération des logements », en termes de débits d’air à atteindre pour les logements neufs en période hivernale moyenne.

En réhabilitation, il est obligatoire de respecter à minima la réglementation en vigueur lors de la construction et si possible de passer en ventilation générale et permanente, conformément aux objectifs définis dans des guides de recommandations.

Il est recommandé d’utiliser les cahiers des charges des fabricants pour définir les prescriptions en fonction du système de ventilation choisi.

Bien concevoir et dimensionner son système de ventilation naturelle…

Données climatiques…

Le calcul intègre :

• la température extérieure (Text)

• le vent (vitesse et orientation par rapport aux façades / Vvent)

• la protection du bâtiment (zone rurale ouverte, zone périurbaine protégée par des bâtiments de faible et moyenne hauteur, zone urbaine plus protégée)

Les données climatiques de températures extérieures doivent être corrigées avec l’altitude ; dans le logiciel DimVNHy®). On pourra par exemple utiliser la règle issue du règlement thermique (Tableau 2 : Exemple de correction de la température de dimensionnement en fonction de l'altitude):

Exemple de correction de la température de dimensionnement en fonction de l'altitude selon la démarche RT2005.

T°C Réf.*                       

Altitude

Correction

7°C

inférieure ou égale à 400 m

0 °C

supérieure à 400 m et inférieure ou égale à 800 m

-2°C

supérieure à 800 m

-4°C

 

                 

Configuration du bâtiment

Le calcul intègre :

• la géométrie du bâtiment

• l’exposition des façades et effets de masque

• la hauteur des émergences et la forme du toit

• la hauteur des entrées d’air et des fuites de chaque logement (perméabilité)

• la température intérieure des logements

• la section des bouches installées sur chaque conduit

• les passages de transit

Pour chaque façade :

• son exposition au vent selon l’orientation de celui-ci (il est recommandé de dimensionner sans vent et de n’intégrer ce dernier que pour des calculs énergétiques ou QAI).

• la présence d’éventuels obstacles masquants

• la largeur de façade

• la hauteur et section des entrées d’air

NOTA : Les entrées d’air et la perméabilité sont à considérer façade par façade pour le calcul. La perméabilité n’étant connue qu’en valeur globale, elle est à répartir au prorata des surfaces des murs. Dans le logiciel de dimensionnement DimVNHy®, 2 types de façades sont prises en compte :

• façade exposée

• façade sous le vent

 

Force motrice disponible

La force motrice (chapitre 4) disponible se calcule en fonction des effets du tirage thermique et de l’impact du vent sur les différents organes du bâtiment. En approche par fichier météorologique, l'assistance sera utilisée en complément des forces motrices naturelles.

Le tirage thermique dépend essentiellement de la hauteur du bâtiment et de la différence entre température extérieure et intérieure.

 

Pertes de charge

Tous les composants de ventilation entrant dans le cheminement de l’air sont à considérer pour calculer les pertes de charge :

• Entrées d’air

• Passage de transit

• Bouches d’extraction

• Conduit shunt (dimensions et rugosité)

• Sortie toiture (hauteur du débouché, raccord...)

• Extracteur (coefficient de perte de charge, coefficient d’aspiration Cext)

 

Calcul du débit extrait

Le calcul des débits extraits se fait sur le principe d’un équilibre des débits entrants et sortants dans chaque logement et d’un équilibre entre la force motrice disponible et les pertes de charge de l’installation. Les équations de ces calculs sont décrites dans la NF EN 15242.

Le calcul défini suivant la norme est résolu par le logiciel DimVNHy®.

 

Débits et foisonnement

L’objectif est de dimensionner les conduits et composants pour obtenir :

•le débit nominal (minimum) sans assistance selon les données climatiques définies dans le chapitre 7.3 Données climatiques

• le débit de pointe foisonné avec assistance

Le foisonnement est le fait de considérer que toutes les bouches de cuisine d’un même conduit ne sont pas simultanément actionnées en grand débit, lorsqu’elles sont temporisées ou asservies. Le pourcentage d’utilisation simultanée du grand débit diminue avec le nombre d’étages desservis par une même colonne.

Il permet une prise en compte plus adaptée du débit total à extraire pour dimensionner le réseau et l’apport de l’assistance en ventilation hybride.

Pour calculer le taux de foisonnement, se reporter soit au CPT (Cahier des Prescriptions Techniques) disponible auprès du CSTB soit aux Avis techniques ou ATEx (Appréciations Techniques Expérimentales) des systèmes.

 

Paramètres sensibles

Il convient de s’assurer que le dimensionnement envisagé permet d’obtenir les débits souhaités, sinon il faut ajuster les paramètres sensibles selon deux stratégies possibles :

• réduire les pertes de charge : en augmentant la section du conduit, celle des bouches ou celle des entrées d’air

• recourir davantage à l’assistance en modifiant la température de délestage

La gestion des paramètres sensibles pour l’optimisation du dimensionnement des conduits est réalisable en utilisant le logiciel DimVNHy®.

Bien concevoir et dimensionner son système de ventilation naturelle…

Choix de régulation

Le système de régulation doit être conçu de façon à optimiser les consommations d’énergie tout en assurant des conditions de confort acceptables via un ou des capteurs.

Types de capteurs possibles

a) Capteurs dans le bâtiment

• Température

Les capteurs de température dans le conduit sont fiables et peu chers. Les capteurs de température de surface existent mais il n’y a pas encore assez de retours d’expériences.

• CO2

La mesure du CO2 est un indicateur de confinement de l’air.

• Infrarouge Les détecteurs de présence sont fiables et peu chers. Ils sont faciles à tester et peuvent aussi être utilisés à d’autres fins par exemple pour le contrôle de l’éclairage. Seuls des capteurs susceptibles de détecter une occupation (faibles mouvements) doivent être employés.

• Vitesse d’air Les sondes de vitesse d’air sont utilisées pour mesurer le débit d’air dans les conduits. Ces capteurs sont assez chers et nécessitent un nettoyage et un étalonnage réguliers.

Remarque concernant les COV (Composés organiques volatils) : Les COV sont des indicateurs de la Qualité de l’Air Intérieur (QAI). Il y a peu de retours d’expérience sur ces capteurs. Il faut considérer ce qu’ils mesurent (en général certains COV), la façon dont il faut les étalonner et la manière de les combiner avec d’autres mesures (souvent CO2).

b) Capteurs en toiture (station météo)

• Température extérieure : Capteurs fiables et peu chers. Le problème est souvent de trouver un endroit pour les installer là où la température ne peut être influencée par le rayonnement du bâtiment ou du soleil.

• Vent : La vitesse du vent est mesurée avec un anémomètre et la direction du vent est mesurée avec une girouette.

• Pression : Ces capteurs sont difficiles à maîtriser en ventilation naturelle du fait des très faibles pressions motrices en jeu. Il est préférable d’avoir ce type de capteur proche des ventilateurs ou autres éléments assurant la dépression.

• Rayonnement solaire : Ces capteurs n’ont pas besoin d’être très précis pour un contrôle. Un capteur en partie haute de chaque façade principale est suffisant.

 

Fonctionnement de la régulation

On peut distinguer 2 types de régulation :

a) La régulation par les composants : Elle adapte le débit en fonction des conditions intérieures au logement et/ou de l’activité humaine. La régulation par les entrées d’air et les bouches d’extraction n’est pas nouvelle. Les systèmes autoréglables et hygroréglables en sont l’illustration et font référence en termes de fiabilité et de résultat. Ces dernièrs sont les plus couramment rencontrés mais d’autres types de régulation peuvent exister.

b) La régulation par le système :

Les systèmes actuels de ventilation hybride en application pour le logement bénéficient de coffrets d’alimentation et de pilotage relativement simples à mettre en œuvre et à maintenir. Ils régulent suivant un ou deux paramètres :

• température de consigne

• vitesse de vent de consigne Pour activer le passage en débit de pointe, la régulation peut également être couplée avec une horloge pour passer en mode mécanique pendant des plages horaires quotidiennes prédéfinies.

Ces deux paramètres sont définis dans les systèmes proposés par les industriels et sont à intégrer dans le logiciel pour les calculs de débit extrait. Ils utilisent le plus souvent des moyens d’interface homme / machine afin de faciliter la compréhension du fonctionnement.

 

Sur-ventilation

La sur-ventilation nécessite des débits très importants (2 à 5 Vol/h). Cela entraîne des sections d’entrées d’air et de bouches d’extraction plus grandes qu’en débit hygiénique. Par ailleurs, la sur-ventilation nécessite la nuit, le passage d’air par les fenêtres.

Il faut donc poser des protections solaires du type persiennes, pour que l’air puisse passer (tout en respectant l’anti-intrusion et le confort visuel) ou prévoir des ouvertures. On peut cependant noter que le confort thermique en hiver est un peu moins bon avec ce type de protections.

La sur-ventilation constitue une solution de rafraîchissement pour un confort d'été sans climatisation, basée sur un apport d'air frais extérieur. Elle permet d’évacuer la chaleur et de rafraîchir les locaux lorsqu’elle est pratiquée aux heures où la température extérieure est inférieure à la température intérieure et lorsque l’inertie thermique du bâtiment est suffisante.

Bien concevoir et dimensionner son système de ventilation naturelle…

Confort sensoriel

La mise en place d’un système de ventilation permet d’obtenir une bonne qualité d’air pour préserver la santé et améliorer la pérennité du bâti. En complément, les systèmes de ventilation doivent assurer le confort sensoriel des occupants. Ces aspects doivent être pris en compte depuis l'élaboration du projet jusqu'à l'utilisation du système par les occupants en intégrant les paramètres suivants :

• les bruits venant de l’extérieur

• le bruit transmis par le réseau

• le bruit propre des ventilateurs

• la propriété d’encrassement des produits

• l’esthétique des produits selon leur destination et application

• le niveau de technicité du produit pour l’utilisateur

• l’ergonomie pour une utilisation pratique

Des solutions acoustiques existent et permettent en général de bien atténuer et limiter les bruits.

Pour traiter l’encrassement des produits (pouvant rendre les produits inesthétiques, déficients et insalubres), il convient de bien prévoir et vérifier leur entretien (pouvant être réalisé soit par une entreprise, soit par l’occupant selon le niveau de technicité). Certaines matières ou même la façon de placer le canal de diffusion ou d’aspiration de l’air peuvent modifier les propriétés d’encrassement des produits.

Bien concevoir et dimensionner son système de ventilation naturelle…

Aide au Pré dimensionnement des composants

Cette partie donne des exemples de prédimensionnement appliqués aux bâtiments d’habitation.

Prédimensionnement des entrées d’air

Les entrées d’air sont caractérisées par leur « module M » correspondant au débit du composant exprimé sous 20 Pa. En ventilation naturelle ou en ventilation hybride, on examinera la section de passage d’air qui en résulte (ou équivalence sous 10Pa).

La formule utilisée pour trouver la section équivalente d’un module (sous 20Pa) est la suivante : S= M/√2 ou Mx 0,707

Par exemple, un module 45 a une section de passage d’air de 32 cm2, soit un débit d’environ 32 m3/h sous 10 Pa.

a) Répartition des entrées d’air

Chaque pièce principale doit être équipée d’au moins une entrée d’air. Cette disposition vise à respecter le principe de ventilation générale et permanente du logement (voir Figure 3.1 : Ventilation générale et permanente).

Dans le cas où une, ou des entrées d’air additionnelles sont prévues dans les pièces de service, des dispositions doivent être prises pour assurer leur obturation automatique en régime réduit d’extraction.

Le Tableau donne des exemples de répartition des entrées d’air (à pleine ouverture pour les produits modulants) en ventilation naturelle (sans présence d’appareil gaz dans le logement).

En présence d'appareils à combustion non étanches, le respect des arrêtés relatifs à l'aération des logements du 22 octobre 1969 ou du 24 mars 1982 modifié le 28 octobre 1983 suffit à assurer leur alimentation en air. En présence d'appareils gaz raccordés sur conduit, il convient de s'assurer que la somme des modules des entrées d'air vérifie les 2 relations suivantes:

• somme des modules au moins égale à 6,2 x Pu (Pu étant la somme des puissances utiles maximales en kW des appareils gaz raccordés)

• somme des modules au moins égale à 90 En cas d'entrée d'air modulante, il conviendra que le débit d'air de combustion puisse toujours être fourni à l'appareil.

Il est recommandé d'utiliser les cahiers des charges des constructeurs validés par un organisme de contrôle et/ou les avis techniques des systèmes.

Tableau de répartition entrées d'air :

Type de logement

Entrées d'air séjour

Entrées d'air par chambre

T1

2 x Module 45

 

T2

2 x Module 45

1 x Module 45

T3 et +

2 x Module 45

1 x Module 45

 

 b) Cas des entrées d’air montées en série (loggia fermée)

En présence d’une loggia fermée, il convient de mettre en place des entrées d’air « transitoires » entre la loggia et l’extérieur, et entre les pièces adjacentes et la loggia (Figure 7.3). Le module de ces entrées d’air « transitoires » est donné dans les 2 dernières lignes du Tableau 4. La première ligne correspond au module résultant de ce transit.

Tableau de module des entrées d’air en série :

Module résultant

30

45

60

90

Somme des modules entre la loggia et l’extérieur

45

60

90

120

Somme des modules entre l’intérieur et la loggia

45

60

90

120

 

Prédimensionnement des bouches d’extraction

Selon les objectifs de débits nominaux fixés par les articles 3 et 4 de l’arrêté du 24 mars 1982 « Aération des logements », les débits à atteindre, en conditions moyennes d’hiver, dans les pièces techniques des logements neufs sont définis dans le Tableau ci-dessous.

Toutefois, pour les systèmes modulants, les débits à extraire peuvent être réduis selon leurs Avis Techniques.

Tableau des débits hygiéniques :

Type de logement

Bouche cuisine

Bouche SdB

Bouche WC

T1

20 m3/h

15 m3/h

15 m3/h

T2

30m3/h

15 m3/h

15 m3/h

 T3

45 m3/h

30 m3/h

15 m3/h

T4 et +

45 m3/h

30 m3/h

30 m3/h

 

Passages de transit

Les passages de transit permettent à l’air de circuler des pièces principales vers les pièces de service ; les dimensions données dans le Tableau correspondent à des valeurs minimales.

Tableau de passage de transit :

Passage de transit

Section en cm2

Toute porte à l’intérieur du logement

120

Porte de la cuisine

180

Porte donnant dans une pièce avec un appareil à gaz

250

 

 

Conduits horizontaux

Pour une application en ventilation naturelle ou ventilation hybride, il est nécessaire de limiter les pertes de charge au maximum en évitant si possible l’utilisation des coudes, dévoiements.

Les limites d’utilisation d’un conduit horizontal de raccordement peuvent être déterminées :

• soit par calcul (nous recommandons que la perte de charge du conduit horizontal soit inférieure à 1,5Pa pour le débit nominal prévu),

• soit par une règle conventionnelle présentée ci-dessous

Ce tableau de dimensionnement donne les longueurs maximales admissibles pouvant être mises en œuvre en fonction de la section du conduit et du débit à extraire. Un coude est considéré comme une longueur droite de 6 mètres. Les longueurs indiquées sont données en mètres.

Toutefois, certains conduits ont été développés spécifiquement pour la ventilation naturelle et la ventilation hybride et permettent de diviser par 2 les pertes de charge des différents types de coude.

Tableau de dimensionnement conduit horizontal :

Section en cm2

Débit = 30 m3/h

Débit = 60 m3/h

80

6

/

120

15

5

180

40

10

240

50

20

 

Conduits collectifs

Pour chaque conduit collectif, il faudra considérer :

• sa forme et sa section (partie individuelle et partie collective)

• sa rugosité (calcul des pertes de charge)

• les formes des piquages et raccordements (pertes de charge singulières)

 

Pertes de charge linéiques

Quelques valeurs de rugosité données à titre informatif par l’AICVF :

Tableau de valeur de rugosité :

 

Tôle

Fibre de verre

Plastique, PVC

Maçonnerie ordinaire

Rugosité absolue (μm)

50 à 160

90 à 450

10 à 50

96 à 192

NOTA : Si des joints ou raccordements sont présents, ils peuvent conduire à des valeurs supérieures.

Bien concevoir et dimensionner son système de ventilation naturelle…

Cassiopée, un plafond diffusant monobloc pour salles d’opération hospitalières qui recycle jusqu’à 90 % l’air soufflé...

$
0
0
Cassiopée, un plafond diffusant monobloc pour salles d’opération hospitalières qui recycle  jusqu’à 90 % l’air soufflé...

Cassiopée, un plafond diffusant monobloc pour salles d’opération hospitalières qui recycle jusqu’à 90 % l’air soufflé...

Conçu par France Air qui possède une véritable maîtrise de la chaîne aéraulique en développant une offre complète sur le traitement de l’air, Cassiopée® est un plafond diffusant monobloc pour salles d’opération hospitalières comprenant des unités de ventilation permettant de recycler localement jusqu’à 90 % de l’air soufflé du plafond. Il allie polyvalence et sécurité des salles d’opérations en disposant d’un système de gestion des débits permettant aux équipes médicales la pratique dans la même salle de différents types d’opérations correspondant à des risques infectieux plus ou moins importants (risque 3 ou risque 4). Ainsi, Cassiopée® garantit une qualité d’air optimale dans le champ opératoire.

Une vraie réponse à la maîtrise des consommations énergétiques, ce plafond ventilo-diffusant a été développé pour réduire les consommations énergétiques, le plafond Cassiopée® permet de minimiser la consommation en période d’inoccupation (nuits, week‐ends...).

Il constitue donc un atout considérable pour les responsables des bâtiments HQE. En effet, ces moteurs nouvelle génération à courant continu (type ECM) consomment très peu d’énergie. Pilotés électroniquement, ils permettent d’obtenir un débit constant quelque soit l’encrassement des filtres en garantissant le respect des débits imposés dans le zones à risque des établissements de santé par la Norme NFS 90‐351.

L’une des principales caractéristiques est que la surface de local technique est minimisée. Avec un débit d’air neuf réduit au strict nécessaire permettant l’utilisation de CTA de petites tailles et des unités de recyclage situées en faux plafond, la technologie Cassiopée® minimise les surfaces des locaux techniques.

Le Cassiopée® est doté des dernières technologies

• Une diffusion d’air optimisée évitant toute induction entre les filtres garantissant ainsi une meilleure maîtrise de la contamination aéroportée grâce à un flux pleinement unidirectionnel.

• Des unités de recyclages intégrant des moto‐ventilateurs basse consommation de type ECM.

• Une filtration de l’air à très haute efficacité H14.

• Une option batterie pour la gestion des températures.

• Une régulation permettant de gérer plusieurs débits de fonctionnement.

France Air

France Air

Principaux avantages :

• Particulièrement adapté aux bâtiments de santé HQE.

• Économies d’énergie :

- Minimisation du débit d’air neuf.

- Plusieurs modes de ventilation possible (nominal, veille, arrêt...).

- Batterie terminale pour une meilleure modulation des températures.

- Moteur ECM à basse consommation.

• Polyvalence d’utilisation des salles d’opération :

- La gestion de débit permet un passage immédiat de risque 3 à risque 4 et inversement.

• Réduction des coûts d’installation :

- Gain de place dans les locaux techniques.

- Permet l’utilisation de CTA de petite taille.

• Adaptabilité et qualité :

- Reprise d’air en plafond ou en parois murales.

- Spécialement adapté à l’intégration de filtres Très Haute Efficacité H14.

- Pénétration locale au plan de joint < 0,01 %.

- Serrage des filtres simple et efficace.

- Intégration de luminaire sur demande.

Gamme :

• 8 tailles de plafonds : 2,5 m x 1,5 m à 4 m x 3 m.

• Débits de 2 300 m3/h à 13 000 m3/h.

• 3 types de reprise d’air possible : haute, basse ou mixte (haute & basse).

• Unités de recyclage permettant de recycler jusqu’à 90 % de l’air soufflé du plafond.

Application / utilisation

• Plafond à flux unidirectionnel en salle d’opération à risque 4 ou risque 3 (selon NF S 90-351).

• Particulièrement adapté aux bâtiments HQE.

• Bâtiments neufs ou rénovation.

• Locaux techniques (pour CTA) de taille réduite.

• CTA éloignée du bloc opératoire.

Construction / composition

• Le plafond Cassiopée® est constitué d’un plafond filtrant et d’un ensemble de recycleurs d’air de type ECM.

• Ce plafond se présente sous forme de modules prêts à être assemblés sur site pour former un ensemble autoportant sur lequel seront fixées les unités motorisées de recyclage.

Plafond filtrant

• Le plafond filtrant ou à "filtration terminale" comprend des filtres Très Haute Efficacité qui couvrent entièrement la surface diffusante. L’air propre, soufflé de manière uniforme à travers ce plan filtrant, agit comme un "piston", entraînant en permanence la contamination hors de la zone à protéger (champ opératoire).

• Ce plafond filtrant unidirectionnel présente une surface entièrement diffusante (hors scialytique) sans zone morte (non diffusante) au niveau des jonctions/cadres des filtres absolus. L’absence d’induction entre les filtres de Cassiopée® garantit une meilleure maîtrise de la contamination aéroportée.

Reprise d’air

• En partie basse : pour une meilleure maîtrise de flux d’air lors de très forts taux de recyclage.

• En parties haute et basse : pour une évacuation rapide des contaminants.

• En partie haute : en fonction des contraintes architecturales.

Elle est constituée :

- D’une grille de reprise en tôle perforée blanche ou inox permettant la prise d’air directement dans la salle. Elle est affleurante au mur ou au faux-plafond.

- D’un filtre F5 ou F7 accessible depuis la salle en démontant la grille de reprise.

Filtres

• Les panneaux filtrants de la gamme FR EFI sont constitués d’un cadre en profilés aluminium anodisés recevant le média filtrant (papier micro-fibre de verre en mini-plis).

• Une grille en métal laqué blanc assure la protection du média sur les deux faces lors de sa manipulation. Les filtres ont été testés conformément à l’EN 1822 et sont d’efficacité H14 (99,99 % MPPS).

• Chaque filtre, livré sous emballage plastique individuel, dans un carton rigide, est fourni avec son certificat individuel de test selon EN 1822 (scanning MPPS 100 %) qui est à remettre au futur utilisateur.

• Un joint polyuréthane (coulé en continu sur le cadre alu) assure l’étanchéité lors du serrage mécanique du filtre en sous face du châssis autoportant.

Registre

Ce plafond ventilo-diffusant peut comporter des registres étanches motorisés, permettant l’isolation des antennes de reprise lors de l’arrêt des recycleurs (mode veille). Ils empêchent le transfert de l’air neuf venant de la CTA par les unités de recyclage et évitent ainsi tout risque de relargage de contaminants par les filtres de reprise.

Unités de recyclage

Les unités de recyclage sont constituées :

• De caissons tôles en acier galvanisé pour les parties en faux-plafond, et en tôle d’acier inoxydable AISI 304 ou en acier peint pour les parties donnant dans la salle (dalle d’accès aux moto-ventilateurs).

• Des moto-ventilateurs de type ECM permettent le maintien du débit constant quel que soit l’encrassement des filtres. Ces moto-ventilateurs sont accessibles depuis la salle par le biais de dalles inscrites dans le faux-plafond.

• Le nombre d’unités sera propre à chaque projet et calculé en fonction du débit de recyclage voulu, du niveau acoustique souhaité et de la position d’éventuels bras anesthésiques ou autres équipements.

Batteries

Dans la pratique, les charges thermiques à évacuer sont de l’ordre de 4 à 7 kW. Des batteries pouvant gérer jusqu’à 6 kW sont disponibles en option. Elles permettent, lorsque le débit d’air primaire est très faible, de moduler la température des différentes salles en fonction de l’occupation et d’éviter de souffler un air primaire à très faible température (10 à 12 °C).

Régulation

• Boîtier de commande et de contrôle des ventilateurs avec pilotage à distance.

• Régulation du débit en fonction de l’encrassement des filtres et du débit d’air neuf (charge thermique).

• Une commande centralisée permettra le passage en risque 4 ou risque 3.

• Affichage du débit sur boîtier de commande.

• 4 positions de fonctionnement possibles parmi les situations suivantes :

- Arrêt du recyclage (air primaire seul).

- Etat de veille pour nuit et week end (air primaire + Faible débit de recyclage).

- Fonctionnement vitesse nominale n°1 (lors des opérations) : valeur de consigne basse de vitesse dans la plage 0,25 - 0.32 m/s sous flux (exemple : risque 3).

- Fonctionnement vitesse nominale n°2 (lors des opérations) : valeur de consigne basse de vitesse dans la plage 0,25 - 0.32 m/s sous flux (exemple: risque 4).

• Alarmes : problème ventilateur, colmatage filtres reprise, vitesse du flux trop élevée ou trop basse.

• Régulateur numérique permettant de renvoyer à la GTB.

® Prestations obligatoires

• Montage du plénum et des recycleurs.

• Montage des filtres, des grilles et contrôle d’intégrité.

• Paramétrage des boîtiers de commande.

® Prestations optionnelles

• Mise à blanc de la salle (avant contrôle).

• Validation particulaire de la salle.

Les plafonds avec ventilateurs incorporés permettent de réduire la taille des gaines d’arrivée d’air, et sont parfaits lorsque les locaux techniques sont exigus ou très éloignés.

Les plafonds avec ventilateurs incorporés permettent de réduire la taille des gaines d’arrivée d’air, et sont parfaits lorsque les locaux techniques sont exigus ou très éloignés.

Descriptif technique :

Principe de fonctionnement

• Principe Le débit d’air primaire, issu de la centrale de traitement d’air, assure la surpression, le débit d'air hygiénique et le traitement thermique de la salle d’opération. Le débit d’air secondaire (air repris) recyclé apporte le complément d’air nécessaire à l’installation pour atteindre le taux de renouvellement préconisé par la norme. Si les recycleurs sont équipés de batterie, l'air secondaire contribue alors au traitement thermique de la salle.

• Air Primaire Le plafond ventilo diffusant Cassiopée se base sur le principe de recirculation de l’air afin de réduire au minimum l’air primaire en relation avec le niveau de pression acoustique. L’air primaire est traité au niveau de la centrale de traitement d’air puis insufflé dans le plafond à une température, à un taux d’humidité et à un débit variables selon la nature de l’opération. Le débit minimum peut se situer entre 15 vol/h et 4 vol/h en fonction du bilan thermique et de l’étanchéité de la salle.

• Avantages Le plafond à recyclage permet de réduire les coûts d’investissement et d’exploitation par rapport à une solution de plafond traditionnel. La faible longueur du circuit de recyclage associé à la possibilité de modulation du débit en période d’inoccupation permet une réduction des consommations énergétiques. Lors des rénovations de salles, il permet de conserver la CTA déjà en place. Les plafonds filtrant équipés de modules de recyclage répondent également aux projets neufs ayant de fortes contraintes architecturales (absence ou éloignement des locaux techniques). L'option batterie permet une meilleure modulation des températures, en particulier lorsqu'une CTA dessert plusieurs salles.

France Air

France Air

Séléction du débit total du plafond

• 3 critères doivent être pris en compte pour la sélection d'un plafond filtrant :

- La norme NF S 90-351 préconise des taux de brassages différents selon que l'on traite une zone à risque 4 (≥ 50 vol/h) ou à risque 3 (entre 25 et 30 vol/h).

- Une analyse de risque permet de déterminer la taille de protection (donc de plafond) voulue par l'utilisateur. Les dimensions de champs opératoires varient d'une spécialité à l'autre.

- La dimension du plafond doit être en priorité définie par l'équipe chirurgicale (en fonction des actes opératoires pratiqués) et non la conséquence du seul calcul du taux de brassage tel que mentionné dans la norme.

• Pour fonctionner correctement, la plage de vitesse de soufflage d'un plafond unidirectionnel doit être comprise entre 0,25 et 0,45 m/s.

Définir le débit d’air primaire

Attention : bien tenir compte du fait que la puissance sera amenée par le seul air primaire traité en centrale. L'obtention et le maintien des consignes intérieures de température et d'hygrométrie devront être les éléments prioritaires pour le calcul du débit minimum d'air primaire.

Le choix de batteries intégrées au recycleur permet une modulation de température des différentes salles en fonction du taux d’occupation. Ce choix permet également de maintenir une température d’air autour de 18 °C au lieu de 10 °C ou 12 °C sans batterie de recyclage.

Définir le débit de recyclage

Après avoir défini le débit de recyclage, le nombre et la taille des unités de recyclage seront calculés en fonction des contraintes architecturales, des niveaux acoustiques requis et de la position des équipements médicaux (bras scialytique,...). Pour les forts débits de recyclage (70 %), il est recommandé d'avoir des reprises en partie basse.

France Air

France Air

Viewing all 2261 articles
Browse latest View live




Latest Images