In community energy planning, a persistent disconnect has been observed between the targets and plans announced by local governments and the application of effective policy to reduce energy consumption and greenhouse gas (GHG) emissions. We use two methods to explore this implementation gap. First, we apply energy-economy modelling tools at the urban level to evaluate the effectiveness of various policy options available to local governments. Our case study for these exercises is the leading jurisdiction of Vancouver, British Columbia. Second, we report and analyze the results of a survey we administered to community energy practitioners in Canada. The modelling results point to jurisdictional reach as an important contributor to the implementation gap. We find that, while Vancouver can make significant progress by implementing policies that are clearly within its jurisdiction, the city is unlikely to meet its ambitious renewable energy and GHG emissions targets without the support of higher levels of government. The survey responses suggest that capacity limitations of local government also have a role in perpetuating the implementation gap. ; Dans la planification énergétique communautaire, on note un écart persistant entre les objectifs et les plans annoncés par les gouvernements locaux et l'application des politiques efficaces pour réduire la consommation d'énergie et les émissions de gaz à effet de serre (GES). Pour explorer cette lacune dans la mise en œuvre, on utilise deux méthodes. Premièrement, on applique des outils de modélisation d'économie-énergie au niveau urbain pour évaluer l'efficacité des diverses options politiques disponibles aux gouvernements locaux. Pour ces exercices, l'étude de cas est la juridiction de Vancouver, en Colombie-Britannique. Deuxièmement, on rapporte et analyse les résultats d'une enquête qu'on a administré auprès des acteurs dans le domaine d'énergie communautaire au Canada. Les résultats de la modélisation indiquent que les limites juridictionnelles contribuent de façon ...
Quels avenirs pour quelles Europes ? Contradiction, confrontation, convergence ou combinaison des méthodes d'approche, par Pierre Hassner La réalité actuelle de l'Europe est avant tout ambiguë et complexe. Pour étudier son évolution, le recours à une pluralité de méthodes s'impose, à condition que leur utilisation soit coordonnée de manière systématique. Actuellement il existe un fossé entre d'une part les efforts des instituts de relations internationales, qui ont abouti, à la fin des années soixante, à un certain nombre de modèles portant sur l'avenir de l'Europe et, d'autre part, les discussions menées à l'intérieur des sciences sociales et portant sur la futurologie, les recherches sur la paix, le développement politique, la querelle de l'historicisme, et du positivisme, les liens entre politique intérieure et extérieure, l'intégration et le fonctionnalisme. Une reprise des "modèles" des années soixante à la lumière à la fois de l'évolution internationale et des méthodes des sciences sociales permettrait sans doute une fécondation réciproque. [Revue française de science politique XXII (3), juin 1972, pp. 582-599] HOW MANY FUTURES FOR HOW MANY EUROP CONTRADICTION CONFRONTATION CONVERGENCE OR COMBINAISON OF APPROACHES PIERRE HASSNER present situation is characterized above all by its ambiguity and its complexity To study its evolution one has to use several different methods pro vided this use is systematically coordinated Today these is gap between two series of studies those of the institutes of international relations which have drawn up in the late sixties number of models of futures and on the other hand the discussions carried on within the social sciences about futurology peace research political development historicism versus positivism the linkage between domestic and foreign policy integration and functionalysm If the mo dels of the sixties could be revisited in the light both of the evolution of the international scene and of the methods of the social sciences the possibilities of fruitful cooperation would be greatly enhanced .Revue fran aise de science politique XXII 3) juin 1972 pp 582-599
Within the HIPPI (high intensity pulsed proton injector) project, supported by the 6th PCRD (framework programme for research and development) of the European Union, the German research centre Forschungszentrum Jülich proposed a multi-spoke H-cavity for the intermediate energy section (β = 0.5) of high power proton linear accelerators. The IPN Orsay is associated with FZ Jülich for the prototype design, and before that, all preliminary mechanical studies. A triple-spoke superconducting cavity has a more complicated geometry, compared to the same beta elliptical cavity. As a consequence the design requires some sophisticated tools, like the CAD (computer aided design) code Catia. In addition, in order to solve the specific mechanical problems imposed by external constraints, a sophisticated mechanical simulation tool Cast3m (Calcul et Analyse de Structure et Thermique par la méthode des Eléments Finis) is used [H. Gassot, in: Proceedings of the 8th European Particle Accelerator Conference, June 2002, Paris, [1]]. But no commercial modeling/FEA exchange software exists between Catia and Cast3m, so the first investigation consisted in the development of a dedicated program for this purpose. The mechanical behaviour of the triple spoke cavity in static and dynamic regime was studied with these codes. The results are presented and discussed in this report.
Within the HIPPI (high intensity pulsed proton injector) project, supported by the 6th PCRD (framework programme for research and development) of the European Union, the German research centre Forschungszentrum Jülich proposed a multi-spoke H-cavity for the intermediate energy section (β = 0.5) of high power proton linear accelerators. The IPN Orsay is associated with FZ Jülich for the prototype design, and before that, all preliminary mechanical studies. A triple-spoke superconducting cavity has a more complicated geometry, compared to the same beta elliptical cavity. As a consequence the design requires some sophisticated tools, like the CAD (computer aided design) code Catia. In addition, in order to solve the specific mechanical problems imposed by external constraints, a sophisticated mechanical simulation tool Cast3m (Calcul et Analyse de Structure et Thermique par la méthode des Eléments Finis) is used [H. Gassot, in: Proceedings of the 8th European Particle Accelerator Conference, June 2002, Paris, [1]]. But no commercial modeling/FEA exchange software exists between Catia and Cast3m, so the first investigation consisted in the development of a dedicated program for this purpose. The mechanical behaviour of the triple spoke cavity in static and dynamic regime was studied with these codes. The results are presented and discussed in this report.
Dans cette brève introduction nous rappelons les objectifs de ce double dossier : explorer de nouvelles voies dans la combinaison des méthodes qualitatives et quantitatives. La dimension temporelle et l'articulation des échelles sont présentes également dans l'ensemble de ces travaux. Ici la focale est portée plus précisément sur les articulations entre données objectives et subjectives.
Les indicateurs de capital humain conventionnellement utilisés dans les études de long terme ( e.g. taux d'alphabétisation, niveau d'instruction, nombre d'années de scolarisation) sont rarement disponibles par statut marital, voire inexistants. Un indicateur de capital humain fréquemment utilisé pour les périodes antérieures au 20ème siècle est l'« attraction des âges ». Nous utilisons cette méthode pour analyser et représenter graphiquement l'hétérogénéité des capacités cognitives et différences observées en termes de genre et par statut marital en France au milieu du 19 ème siècle. Les indices calculés montrent que les femmes mariées « accumulent » significativement moins que les femmes célibataires, alors que les hommes mariés « accumulent » davantage que les hommes célibataires. Nous explorons la validité de quatre hypothèses pour expliquer ces différences. Nos résultats montrent que les données concernant les femmes mariées et célibataires sont sujettes à des biais et qu'elles doivent, en conséquence, être utilisées avec précaution pour mesurer les compétences de bases en numératie. Nous trouvons malgré tout qu'il existe une corrélation robuste entre taux d'alphabétisation des individus et capacités en numératie. Nos résultats suggèrent que les aptitudes en calcul des femmes mariées sont davantage corrélées avec les indicateurs classiques de capital humain, comme le taux de scolarisation, que ne le sont les aptitudes des femmes célibataires et celles des hommes.
In: La revue internationale et stratégique: revue trimestrielle publiée par l'Institut de Relations Internationales et Stratégiques (IRIS), Band 55, Heft 3, S. 83-91
Cet article propose une étude du gap scientifique et technologique transatlantique à partir d'une combinaison d'éléments, tels que les différentiels des budgets de recherche et développement (R&D) et la gestion des actifs incorporels (la production des connaissances et les compétences). Au-delà des données macroéconomiques, l'analyse du gap passe nécessairement par un examen des modes d'organisation et de production des connaissances, qui seul permet d'appréhender le niveau de maîtrise des savoirs et des technologies, depuis leur développement jusqu'à leurs usages concrets. L'exploitation des listes américaines de technologies clés dans le domaine militaire (les MCTL) permettra d'illustrer cette étude, en mettant en évidence les méthodes utilisées par le Pentagone pour évaluer le niveau de maîtrise technologique au niveau mondial.
Introduction The human immunodeficiency virus (HIV) epidemic has led to the upsurge of tuberculosis (TB) infection globally, but most especially in areas with high HIV prevalence. In the past, there was lack of a coordinated global and national response between TB and HIV programmes to curb the devastating impacts of both infections. However, the ProTEST Initiative piloted in sub-Saharan Africa in 1997 demonstrated that TB and HIV programmes could collaborate successfully in delivering joint services. This prompted the development of the WHO interim policy on collaborative TB/HIV activities in 2004, aimed at reducing the burden of TB and HIV in populations affected by both infections. This thesis explores how collaborative activities between TB and HIV programmes have been established in Cameroon and implemented in the Northwest Region. It also highlights the achievements and constraints in delivering joint services to TB patients co-infected with HIV. Methods The study was conducted in the Northwest Region, one of the 10 regions of Cameroon with the highest HIV prevalence. The study uses health system research combining qualitative and quantitative methods to explore the research objectives. Qualitative methods were used to capture the perspectives of: i) the service providers; key informants from the central, regional and district levels concerned with the collaboration process and in delivering HIV services to TB patients, and ii) TB patients regarding HIV testing as an entry point to HIV services. Quantitative methods were used to ascertain TB patients' access to HIV services provided for by the collaboration. Results The study demonstrated that although there were varying levels of collaboration between TB and HIV programmes from the central to operational level in the health system, delivering joint services was feasible. Furthermore, despite the challenges TB patients faced in testing for HIV, overall implementing TB/HIV collaborative activities increased TB patients' acceptability and accessibility to HIV services. These were facilitated by the improved collaboration at the operational level, and enhanced service provider-patient alliance which was instrumental in building patients' trust in the health system. Collaboration also led to cross-training and teamwork between staffs from both programmes, and improved networking between service providers and other actors involved in TB and HIV care. Nevertheless, there were health system constraints including inadequate leadership and management, shortage of human and infrastructural resources, frequent interruptions in the supply of essential drugs and laboratory materials Conclusion TB/HIV collaborative activities have improved service delivery and TB patients' access to HIV services. Nonetheless, appropriate stewardship which guarantees joint planning, monitoring and evaluation of essential activities, and accountability at all levels in the health system is invaluable. Besides, the identified health system constraints which could adversely influence effective joint service delivery and a sustainable collaboration deserve due appraisal. ; Introduction L'épidémie du virus de l'immunodéficience humaine (VIH) a conduit à une augmentation globale de la tuberculose(TB), particulièrement dans les régions à forte prévalence du VIH. Il y'avait par le passé un manque de coordination tant sur le plan mondial que national, des programmes de lutte contre la TB et le VIH pour freiner les effets dévastateurs liés à la co-infection des deux pathogènes. Cependant, l'initiative pilote "ProTEST" conduite en 1997 en Afrique sub-saharienne a démontré que les programmes de lutte contre le VIH et la TB pouvaient collaborer avec succès en combinant leurs services. Cette étude pilote a inévitablement incité a un changement de politique du bureau intérimaire a l'Organisation Mondiale de la Santé (OMS), de lutte contre le VIH/TB à mettre sur pieds en 2004 des objectifs pour la réduction de l'impact du VIH/TB parmi les populations atteintes des deux infections. Cette thèse explore comment la collaboration entre les activités des programmes de lutte VIH/TB a été établie au Cameroun, et comment son application se fait dans la région du nord ouest. Il est également mis en exergue et les réalisations les difficultés que rencontrent les services combinés lors de la dispensation des soins aux malades de TB avec une coïnfection au VIH. Méthodes L'étude a été faite dans la région du nord ouest, une des 10 régions du Cameroun, avec le taux de prévalence au VIH le plus élevé. L'étude utilise le système de recherche en santé combinant des méthodes qualitatives et quantitatives pour explorer les objectifs de la recherche. Les méthodes qualitatives ont été utilisées pour enregistrer les données suivantes: i) centre offrant les services combinés; les personnes en charge au niveau central, régional, et des districts, qui sont responsables de l'intégration au processus et qui d'autre part veillent a ce que les malades de TB bénéficient des services du VIH ; et ii) les malades de TB qui considèrent le dépistage du VIH comme porte d'entrée dans les services VIH. Des méthodes quantitatives ont été utilisées pour confirmer l'accès des malades de TB aux soins de services VIH offerts par la collaboration. Résultats L'étude a démontré que bien qu'il y ait plusieurs niveaux de collaborations entre les programmes de VIH et TB depuis le sommet jusqu' à la base du système de santé, la provision de services combinés est faisable. Malgré les difficultés rencontrées par les malades de TB pour avoir accès au dépistage du VIH, l'application en somme de la collaboration des activités entre les programmes de VIH et de TB a augmenté l'acceptation et l'accessibilité des malades de TB aux services de VIH. Ceci fut facilité par l'amélioration de la coopération au niveau des opérations des deux programmes permettant ainsi la facilitation de l'établissement d'une alliance entre le personnel de soin et le patient, alliance qui fut primordiale dans l'élaboration du rapport de confiance que le malade doit avoir à l'endroit du system de santé. La collaboration a également conduit à un travail d'équipe et une formation croisée entre les équipes des deux programmes, il a été également établi une amélioration du réseau d'échange entre les personnels de soins et toutes personnes actives dans le secteur du VIH et TB. Néanmoins, il a été relevé des défis dans le système de santé telle une insuffisance dans le leadership et la gestion de fréquente interruption dans la chaine de distribution des médicaments essentiels et du matériel de laboratoire. Conclusion La collaboration des activités des programmes VIH/TB a amélioré la qualité des soins et services avec pour résultante une meilleure accessibilité des malades de TB aux services de VIH. Néanmoins, une conduite appropriée qui garantie une planification mixte, une évaluation et un suivi des activités essentielles, ainsi qu'une gestion fiable a tous les niveaux du système de santé est indispensable. Outre, les difficultés liées au système de santé identifiées par cette étude et qui méritent une évaluation, du fait qu'elles pourraient affecter négativement l'application effective du but recherché et la collaboration durable entre les deux services.
Many real-world applications suffer from strong cost constraints or weight limitations, which dictate the use of potentially low performance hardware (actuators, sensors, onboard computers). For example, the access to space is becoming significantly easier and cheaper with the advent of nanosats, and low-cost launchers must be developed to promote this new economic model. In the military domain, one of the most topical issues is to improve the precision and to enhance the range of traditional artillery shells in the modern battlefield, while significantly reducing costs. And UAV are now widely used to perform a large number of demanding missions. So there is a real need to control various kinds of systems on extended operational domains in the presence of hardware limitations, uncertainties, varying parameters as well as actuator saturations. In this context, our contribution lies at the frontier between research and engineering. Based on known theories and results in the fields of LFR modeling, μ/IQC/Lyapunov-based analysis, as well as analysis of saturated systems, we first try to develop validation methods that can be applied to real-world issues with a reasonable computational cost. Heuristics sometimes replace rigorous mathematical proofs, but we believe this is the price to pay for bridging the gap between theory and practice. Many efforts are also invested in the development of generic computational tools designed for control engineers. Then, we show how these methods and tools can be directly integrated into the control laws design process, so as to reduce a little bit the number of iterations between design and validation in an industrial context. The next step will be to face the implementation constraints. Thanks to our growing involvement in ONERA's UAV lab, the proposed control architectures will be implemented and validated first by hardware-in-the-loop simulations and then by flight tests. The feedback will allow us to take a fresh look at our design and validation methodologies, and to further improve them. ; De nombreuses applications dans le monde réel souffrent de fortes contraintes de coût ou de poids, qui dictent l'utilisation de du matériel potentiellement peu performant (actionneurs, capteurs, ordinateurs de bord). Par exemple, l'accès à l'espace devient nettement plus facile et moins cher avec l'avènement des nanosats, et les lanceurs à bas prix doivent être de ce nouveau modèle économique. Dans le domaine militaire, l'une des questions les plus d'actualité est d'améliorer la précision et la portée des obus d'artillerie traditionnels sur le champ de bataille moderne, avec une réduction significative des coûts. Et les drones sont maintenant largement utilisés pour effectuer un grand nombre de missions exigeantes. Il y a donc un réel besoin de contrôler différents types de systèmes sur des domaines opérationnels étendus en présence de limitations matérielles, d'incertitudes, de paramètres variants ainsi que de saturations d'actionneurs. Dans ce contexte, notre travail se situe à la frontière entre la recherche et l'ingénierie. D'après des théories et des résultats connus dans les domaines de la modélisation LFR, de l'analyse μ/IQC/Lyapunov, ainsi que de l'analyse des systèmes saturés, nous essayons d'abord d'élaborer des méthodes de validation qui peuvent être appliquées à des problèmes du monde réel avec un temps de calcul raisonnable. L'heuristique remplace parfois des preuves mathématiques rigoureuses, mais nous pensons que c'est le prix à payer pour faire le lien entre la théorie et la pratique. De nombreux efforts sont également investis dans le développement d'outils de calcul génériques conçus pour les ingénieurs automaticiens. Ensuite, nous montrons comment ces méthodes et outils peuvent être directement intégrés dans le processus de conception des lois de commande, de manière à réduire le plus possible le nombre d'itérations entre la conception et la validation dans un contexte industriel. La prochaine étape consistera à faire face aux contraintes de mise en œuvre. Grâce à notre implication croissante dans le labo drones de l'ONERA, les architectures de contrôle proposées seront mises en œuvre et validées d'abord par des simulations Hardware-in-the-Loop, puis par des essais en vol. Le retour d'expérience nous permettra de jeter un regard neuf sur nos méthodologies de conception et de validation, et de les améliorer encore davantage.
Many real-world applications suffer from strong cost constraints or weight limitations, which dictate the use of potentially low performance hardware (actuators, sensors, onboard computers). For example, the access to space is becoming significantly easier and cheaper with the advent of nanosats, and low-cost launchers must be developed to promote this new economic model. In the military domain, one of the most topical issues is to improve the precision and to enhance the range of traditional artillery shells in the modern battlefield, while significantly reducing costs. And UAV are now widely used to perform a large number of demanding missions. So there is a real need to control various kinds of systems on extended operational domains in the presence of hardware limitations, uncertainties, varying parameters as well as actuator saturations. In this context, our contribution lies at the frontier between research and engineering. Based on known theories and results in the fields of LFR modeling, μ/IQC/Lyapunov-based analysis, as well as analysis of saturated systems, we first try to develop validation methods that can be applied to real-world issues with a reasonable computational cost. Heuristics sometimes replace rigorous mathematical proofs, but we believe this is the price to pay for bridging the gap between theory and practice. Many efforts are also invested in the development of generic computational tools designed for control engineers. Then, we show how these methods and tools can be directly integrated into the control laws design process, so as to reduce a little bit the number of iterations between design and validation in an industrial context. The next step will be to face the implementation constraints. Thanks to our growing involvement in ONERA's UAV lab, the proposed control architectures will be implemented and validated first by hardware-in-the-loop simulations and then by flight tests. The feedback will allow us to take a fresh look at our design and validation methodologies, and to further ...
Road traffic evolves in a context which has undergone three major changes in the past two decades: first, a political change, reshaping the car's role in cities; second, a technical change, through which both vehicles and drivers emit and receive information independently of road authorities' roadside infrastructure; and finally, a financial change, as traffic management infrastructure has heavily relied on public funding which now becomes scarcer.From the perspective of a key road authority, the City of Paris, the author, in charge of assessing the impact on traffic flow of major disruptive policies, addresses how "new traffic data" renews the road authority's knowledge of the traffic, on technical grounds. The author has worked on Bluetooth travel-time and GPS based Floating Car Data datasets. He believes he makes two major contributions in the field.He first shows that traffic data and traffic information have always been at the core of the road authority's concerns, deeply related to the available technology, the missions of the road authority, and the theory attempting to bridge the gap between the two.Through the technical assessment of traffic-related policies (road closures, speed-limit reduction), based on two types of "new traffic data" (GPS speeds and Bluetooth travel-times), the Author analyzes the characteristics of the two datasets, the results they yield and how they complement legacy fixed-sensor based data. They allow the road authority to grasp user-perspective information whereas legacy data mostly offered a collective flow perspective. This, in turn, reshapes the decision-making process of road authorities. ; Le trafic routier évolue dans un contexte qui a connu trois changements majeurs ces deux dernières décennies : changement politique tout d'abord, avec la remise en cause de la place jusque-là occupée par la voiture en ville ; changement technologique ensuite, par lequel tant le véhicule que son conducteur produisent et reçoivent des données indépendamment des infrastructures de gestion ...
Qu'est-ce qui fait la légitimité d'une politique publique particulièrement sensible dans un régime démocratique ? La question est centrale dans des domaines technologiques hautement controversés comme les nanotechnologies, les biotechnologies, les OGM ou encore le nucléaire. Le concept de légitimité est souvent le point d'entrée qui permet de réexaminer les systèmes de gouvernance, des politiques publiques et les technologies de gouvernement qui y sont développées. Ces technologies façonnent l'ordre social autant qu'elles sont façonnées par ce dernier (Jasanoff 2004). Cet article analyse la trajectoire de la politique publique de gestion des déchets hautement radioactifs à partir d'une étude de cas unique : celle du Canada. Il interroge l'évolution de 1950 à nos jours des approches stratégiques et institutionnelles qui permettent à un projet de gestion à long terme controversé, porteur d'incertitudes radicales, d'acquérir et maintenir sa légitimité démocratique. Cette étude de cas, comme celles de la Finlande ou de la Suède, est considérée comme particulièrement innovante en ce que les pratiques managériales de gouvernement reconnues comme légitimes ont été fondamentalement modifiées au fil des années (Fallon et al. 2012; Parotte 2018; Ramana 2013). ; Peer reviewed
Road traffic evolves in a context which has undergone three major changes in the past two decades: first, a political change, reshaping the car's role in cities; second, a technical change, through which both vehicles and drivers emit and receive information independently of road authorities' roadside infrastructure; and finally, a financial change, as traffic management infrastructure has heavily relied on public funding which now becomes scarcer.From the perspective of a key road authority, the City of Paris, the author, in charge of assessing the impact on traffic flow of major disruptive policies, addresses how "new traffic data" renews the road authority's knowledge of the traffic, on technical grounds. The author has worked on Bluetooth travel-time and GPS based Floating Car Data datasets. He believes he makes two major contributions in the field.He first shows that traffic data and traffic information have always been at the core of the road authority's concerns, deeply related to the available technology, the missions of the road authority, and the theory attempting to bridge the gap between the two.Through the technical assessment of traffic-related policies (road closures, speed-limit reduction), based on two types of "new traffic data" (GPS speeds and Bluetooth travel-times), the Author analyzes the characteristics of the two datasets, the results they yield and how they complement legacy fixed-sensor based data. They allow the road authority to grasp user-perspective information whereas legacy data mostly offered a collective flow perspective. This, in turn, reshapes the decision-making process of road authorities. ; Le trafic routier évolue dans un contexte qui a connu trois changements majeurs ces deux dernières décennies : changement politique tout d'abord, avec la remise en cause de la place jusque-là occupée par la voiture en ville ; changement technologique ensuite, par lequel tant le véhicule que son conducteur produisent et reçoivent des données indépendamment des infrastructures de gestion du gestionnaire ; changement financier enfin, alors que les systèmes de gestion du trafic sont très dépendants de finances publiques de plus en plus contraintes.Dans ce contexte, l'auteur, du fait de ses fonctions, adopte le point de vue d'un gestionnaire de voirie clé, la Ville de Paris. En charge de l'évaluation des conséquences techniques des politiques de circulation sur l'écoulement du trafic motorisé, il s'intéresse ici à la manière dont les "nouvelles données de trafic" renouvellent la connaissance technique du gestionnaire sur la demande.Pour ce faire, l'auteur montre d'abord que les données de trafic et l'information trafic ont toujours été au cœur des préoccupations du gestionnaire. Données et information sont profondément liées à la technologie disponible et aux missions mêmes du gestionnaire. Les développements théoriques, alimentés par les données, tentent ainsi de lier les technologies avec les missions dugestionnaire.Ensuite, à travers l'évaluation technique de politiques de circulation (fermetures de voie, réduction de la vitesse limite) sur la base de deux types de "nouvelles données" (vitesses GPS et temps de parcours Bluetooth), l'auteur analyse les caractéristiques de ces jeux de données, les résultats auxquels ils permettent de parvenir, et la manière dont ils complètent la connaissance tirée des capteurs fixes historiques. Ces "nouveaux" jeux de données permettent au gestionnaire d'obtenir une connaissance de la demande du point de vue des usagers, alors que les capteurs fixes fournissent principalement un point de vue collectif de flux. Cette richesse nouvelle d'information redéfinit les schémas de décision du gestionnaire de voirie.
Road traffic evolves in a context which has undergone three major changes in the past two decades: first, a political change, reshaping the car's role in cities; second, a technical change, through which both vehicles and drivers emit and receive information independently of road authorities' roadside infrastructure; and finally, a financial change, as traffic management infrastructure has heavily relied on public funding which now becomes scarcer.From the perspective of a key road authority, the City of Paris, the author, in charge of assessing the impact on traffic flow of major disruptive policies, addresses how "new traffic data" renews the road authority's knowledge of the traffic, on technical grounds. The author has worked on Bluetooth travel-time and GPS based Floating Car Data datasets. He believes he makes two major contributions in the field.He first shows that traffic data and traffic information have always been at the core of the road authority's concerns, deeply related to the available technology, the missions of the road authority, and the theory attempting to bridge the gap between the two.Through the technical assessment of traffic-related policies (road closures, speed-limit reduction), based on two types of "new traffic data" (GPS speeds and Bluetooth travel-times), the Author analyzes the characteristics of the two datasets, the results they yield and how they complement legacy fixed-sensor based data. They allow the road authority to grasp user-perspective information whereas legacy data mostly offered a collective flow perspective. This, in turn, reshapes the decision-making process of road authorities. ; Le trafic routier évolue dans un contexte qui a connu trois changements majeurs ces deux dernières décennies : changement politique tout d'abord, avec la remise en cause de la place jusque-là occupée par la voiture en ville ; changement technologique ensuite, par lequel tant le véhicule que son conducteur produisent et reçoivent des données indépendamment des infrastructures de gestion du gestionnaire ; changement financier enfin, alors que les systèmes de gestion du trafic sont très dépendants de finances publiques de plus en plus contraintes.Dans ce contexte, l'auteur, du fait de ses fonctions, adopte le point de vue d'un gestionnaire de voirie clé, la Ville de Paris. En charge de l'évaluation des conséquences techniques des politiques de circulation sur l'écoulement du trafic motorisé, il s'intéresse ici à la manière dont les "nouvelles données de trafic" renouvellent la connaissance technique du gestionnaire sur la demande.Pour ce faire, l'auteur montre d'abord que les données de trafic et l'information trafic ont toujours été au cœur des préoccupations du gestionnaire. Données et information sont profondément liées à la technologie disponible et aux missions mêmes du gestionnaire. Les développements théoriques, alimentés par les données, tentent ainsi de lier les technologies avec les missions dugestionnaire.Ensuite, à travers l'évaluation technique de politiques de circulation (fermetures de voie, réduction de la vitesse limite) sur la base de deux types de "nouvelles données" (vitesses GPS et temps de parcours Bluetooth), l'auteur analyse les caractéristiques de ces jeux de données, les résultats auxquels ils permettent de parvenir, et la manière dont ils complètent la connaissance tirée des capteurs fixes historiques. Ces "nouveaux" jeux de données permettent au gestionnaire d'obtenir une connaissance de la demande du point de vue des usagers, alors que les capteurs fixes fournissent principalement un point de vue collectif de flux. Cette richesse nouvelle d'information redéfinit les schémas de décision du gestionnaire de voirie.
La problématique de la gestion des déchets nucléaires est depuis longtemps reconnue comme étant un problème public compte tenu de la dangerosité du déchet pour l'homme et l'environnement et de sa durée de vie dépassant les milliers voire les millions d'années. Pour autant, la politique publique qui lui est associée (du formatage du problème à la sélection, la mise en oeuvre et l'évaluation d'un programme d'action publique – Knoepfel, Larrue, and Varone 2001) fait régulièrement l'objet de vives réactions notamment des populations locales directement affectées par celle-ci. De ce fait, et pour construire la légitimité de leur politique publique, les organes étatiques ont développé d'autres pratiques, porteuses d'un idéal participatif (Blondiaux 2008) et de nouveaux acteurs, de nouveaux registres argumentatifs ont été inclus dans le processus (Andrèn 2012). Cet article s'intéresse au cycle d'une politique publique particulièrement sensible de très long terme – la gestion des déchets hautement radioactifs et pose la question suivante : comment gérer les déchets nucléaires de manière légitime ? Plus particulièrement, nous nous intéressons aux formes hybrides de légitimité émergentes avec les pratiques participatives et sur la manière dont celles-ci redéfinissent, érodent, complètent ou renforcent la légitimité du système représentatif du Canada. Nous soutenons que le programme de gestion des déchets hautement radioactifs est propice à étudier de nouvelles procédures et des pratiques mises en place par des institutions représentatives et leurs effets sur la légitimité d'une politique publique. Suivant les effets des épreuves de contrôle et de validation à la fois concurrentes et complémentaires aux pratiques de démocratie représentative telles que décrites par Rosanvallon 2008, nous verrons que d'une part que la mise en balance de la légitimité d'établissement, de la légitimité de réflexivité et de la légitimité de proximité redéfinit à la fois les contours de l'option technique privilégiée autant que l'ordre démocratique légitime pour acter les décisions. D'autre part, nous soutenons que la légitimité de ce type particulier de politique publique de très long terme ne peut être envisagée qu'au travers de la qualité du processus mis en oeuvre compte tenu du caractère incertain du type d'acteurs à inclure et du résultat final de la politique publique. ; Peer reviewed