Si la proximité du scientifique (historiquement du «savant») et du politique n’est pas récente – que l’on pense à Sénèque et Néron ou à Voltaire et Frédéric II -, elle connaît aujourd’hui des temps difficiles. Les atermoiements de certains dirigeants autour du réchauffement climatique en ont fait la preuve. L’expertise scientifique est en perte de légitimité. La crise actuelle a tendance au contraire à remettre les scientifiques au premier plan.
Désemparés face à l’inconnu, nos dirigeants se sont entourés d’experts: Mme Merkel de la Léopoldina, M. Macron d’un conseil scientifique. Pourtant, en France, le rôle et la position de ce conseil n’ont pas été clairement posés. Résultat: on a entendu M. Delfraissy dire qu ‘«il faut que le confinement persiste plusieurs semaines» (France Inter, 8 avril), que si le confinement n’est pas respecté, «il sera prolongé». Que les séniors «resteront confinés plus longtemps», proposent dont il s’est excusé par la suite. Pourtant ce n’est pas à l’indicatif, ni à l’impératif qu’il devrait s’exprimer, mais tout au plus au conditionnel. Même l’emploi du subjonctif, suggérant l’injonction («il faut»), est plus qu’une faute de goût: c’est à la limite de l’abus d’autorité.
À l’inverse, sur se rappellera que M. Macron a appliqué, le 12 mars, avoir pris la décision de maintenir le premier tour des municipalités «avec l’autorisation du conseil scientifique». De quel droit un conseil scientifique pourrait-il censurer les décisions d’un président de la République? Le mélange des genres est très dangereux: il en va de la crédibilité de la parole scientifique, du sens même de nos représentants démocrates, et, dans le cas présent, de l’avenir du pays et des Français.
De l’autre côté du Rhin, la Léopoldine a aussi donné de la voix. Elle a par exemple préconisé que les théâtres et les stades restent fermés pendant 18 mois, provoquant une vague de réaction des milieux concernés. Pour autant, cela restait une préconisation. Mme Merkel, en dialogue avec les 16 ministres-présidents, a gardé la main sur la décision. Et le président fédéral, Frank-Walter Steinmeier, de rappeler, lors de son allocution pascale, les principes qui guident l’action politique: «Nous sommes une démocratie vivante, avec des citoyens conscients de leur responsabilité, nous écoutons les faits et les arguments , nous nous faisons confiance. »
Vers une «neutralité augmentée»?
La confiance est une entrée intéressante, voiture aujourd’hui, le crédit accordé par nos concitoyens à la parole scientifique est bien faible. Et pour cause: elle est diluée dans un flot d’informations, d’affirmations, de déclarations en tous genres. Au-delà des fausses nouvelles et autres rumeurs, la science est faite de controverses, qui permettent, dans la confrontation de différentes hypothèses et leur mise à l’épreuve méthodologique, de faire progresser la connaissance. Réservés aux experts, ces débats ne sont souvent pas bien compris quand ils entrent dans la sphère publique. Comme il n’est pas en capacité de juger, le citoyen se perd dans ce qu’il prend pour une cacophonie et fini par se faire lui-même sa propre opinion: d’un côté les «charlatans», de l’autre les «Bons» savants. Le débat récent sur la chloroquine l’a montré. Le Pr Raoult avait, au sein de la population, autant de détracteurs que de thuriféraires dans une polémique qui, de contradictoire, est devenu passionnelle.
On ne restaurera pas la confiance dans la science en prenant part à ces controverses. Sur la restauration en expliquant leurs natures, leurs légitimités et en distinguant clairement, dans la méthode, entre les temps de l’expertise et celui de la décision.
Pour ce faire, nous devons aussi repenser ce qui ment la science et la politique et, par ricochet, la société. Max Weber avait défini les termes avec son principe de «neutralité axiologique» (Le Savant et le politique, 1920), qui postule l’objectivité du jugement scientifique comme condition de sa validité. Un siècle plus tard, il faut adapter ce concept à une société dans laquelle le niveau d’expertise général a augmenté et dans laquelle prévaut un certain relativisme de l’information. Il faut aussi le nourrir de l’expérience avérée que la science, soit est expliquée et partagée, est accessible au citoyen et peut contribuer à la compréhension des décisions pertinentes du politique. Bref, il faut renouer en profondeur et à tous les niveaux le dialogue entre sciences et société, du citoyen au dirigeant, et reconnecter la science avec les citoyens, au travers de programmes de recherche participative et d’un apprentissage par et à la recherche dès le plus jeune âge. Tout en garantissant l’indépendance et l’autonomie de la science, sur devrait tendre vers une forme de «neutralité augmentée».
Déconstruire le mythe de la toute-puissance de la science
Au-delà des problèmes qu’elle soulève, la proximité constatée entre science et politique est révélatrice des pouvoirs que nous attribuons à la science. Axel Kahn, président de la Ligue nationale contre le cancer, parlait à juste titre de «toute la puissance de la science» (entretien DNA 23 avril). L’homme occidental du XXIe siècle se croit protégé de la nature et de ses aléas par une science qui réussit à comprendre au point de la dominer. Il se pense à ce point supérieur à elle qu’il n’accepte plus qu’un cataclysme pourrait le menacer, fût-il climatique ou biologique. Ou si elle le fait, c’est la faute à la science. Des morts dans une tempête? La faute aux météorologues. Une éruption trop violente? Mais qu’ont fait les sismologues? Résultat: la fatalité a disparu et, avec elle, le sentiment d’humilité de l’homme.
La toute-puissance de la science est un mythe. Et je le dis avec le plus grand respect pour les chercheurs que je m’y inclus. Car si l’on peut croire en un progrès de la science, il faut aussi en accepter les limites, en ce qu’elles sont source de découvertes à venir. La science ne peut pas agir seule; elle ne peut pas non plus tout résoudre. Ou voilà! On a beau dire aujourd’hui qu’en ayant soutenu plus massivement la recherche fondamentale, on aurait pu éviter la pandémie actuelle, je n’en reste que moyennement convaincu, car pour autant que la science progresse, elle n’éliminera jamais le risque. C’est ce risque aujourd’hui que nous devons apprendre à intégrer dans nos vies, plutôt que de vouloir l’ignorer ou le refouler. Car accepter le risque, c’est accepter la vie. S’en prémunir, c’est la refuser.
Vers une prise de conscience collective?
Beaucoup a vu aujourd’hui que l’irruption des chercheurs dans la sphère médiatique est une prise de conscience de l’utilité de la science. J’y vois au contraire une manière d’interpeller les scientifiques sur ce qu’ils vont pouvoir faire (rapidement) pour nous sortir de là, voire, plus insidieusement, sur ce qu’ils auraient dû faire pour qu’on n’en arrive pas là.
Le politique, qui est aujourd’hui tenu par la société pour responsable des événements sur lesquels il n’y a aucun contrôle, rejetant toujours plus la responsabilité sur ceux qui auraient pu anticiper ou prévoir. La pression sur la science et les chercheurs risque donc de croître encore, et leur autonomie, pourtant nécessaire, de s’étioler.
Ce dangereux «attelage de fortune» du scientifique et de la politique se fera au détriment de l’un comme de l’autre, et donc de la société.
«Science sans conscience n’est que ruine de l’âme», disait Rabelais. Ou la conscience n’incombe pas recherché; elle incombe aussi à la société et à ses dirigeants, dans le statut et la mission qu’ils assignent à la science.
Category Archives: Non classé - Page 4
Le politique et le scientifique
Incendies: un impact du changement climatique ?
Les feux de brousse en Australie, qui ont déclenché une première période de foyer en septembre 2019, ont déjà eu des conséquences cataclysmiques, et la région reste juste pendant les premières semaines de la zone sud de la saison estivale de l’hémisphère. Le Brand New Southern Wales Outlying Fire Service a expliqué que les feux de brousse étaient remarquables par leurs dimensions et leur étendue, possédant plus de 46 millions d’acres (18,6 milliers d’hectares), tuant au moins 29 personnes et détruisant plus de 2200 maisons. de l’Australie moderne ont connu la pire qualité de l’air au monde. La qualité de l’air à Sydney a pratiquement fait peur, possédant des avertisseurs de sécurité établis pour les cigarettes fumées dans les propriétés de la zone clé de la société et dépassant les plages dangereuses pendant plus de 30 jours. Les ressources de l’armée se trouvent être utilisées en réaction aux incendies à un niveau inconnu étant donné que la Seconde Guerre mondiale 2. Les experts estiment que plus d’un milliard d’animaux ont déjà été anéantis. Un certain nombre d’espèces seront probablement contraintes de disparaître. Les circonstances et les contacts entre le réchauffement climatique et les incendies de forêt en Australie ressemblent de façon frappante à ceux qui amplifient l’histoire de la Californie en 2018, mais à un niveau plus large. Des inconnus médicaux continuent de concerner certaines de ces relations, mais d’autres personnes sont une simple conséquence de la physique – une température plus élevée génère beaucoup plus de combustible pour feux de forêt. L’environnement politique et la couverture climatique en dessous, cependant, rappellent plus étroitement les individus au niveau national aux États-Unis qu’à la situation en Californie. Indépendamment des concepts de complot répandus concernant les feux de brousse, la recherche croissante continue de découvrir des liens hypertextes entre le changement climatique et l’aggravation des incendies de forêt, utilisant la question comme un concentré d’investigations continues. Comme l’a expliqué le météorologue Kevin Trenberth dans une récente interview avec le vidéaste Peter Sinclair, le changement climatique intensifie immédiatement les incendies de forêt en asséchant le sol du jardin et la flore, produisant beaucoup plus de gaz pour brûler encore plus loin et plus rapidement. C’est spécifiquement un problème dans les endroits vulnérables à la sécheresse comme l’Australie moderne et la Californie. La sécheresse du siècle dans le sud-est de l’Australie moderne de 1997 à 2009 a été la période la plus sèche de 13 à 12 mois de l’histoire, conformément à un rapport écrit de la Commonwealth Scientific and Commercial Study Company (CSIRO) de l’Australie. La sécheresse a été endommagée par les deux périodes les plus humides de l’Australie en 2010 et 2011, mais est arrivée une autre sécheresse intense de 2017 à nos jours. En réalité, 2018 et 2019 ont été les années les plus populaires et les plus sèches d’Australie sur le document. Le 18 décembre, le continent a connu sa journée la plus chaude sur le document, avec la chaleur élevée moyenne de 107,4 niveaux F. La Californie a connu un coup de fouet météorologique identique, passant d’une sécheresse historique en 2012-2016 à une période orageuse extrêmement humide en 2017 -2018. Ce mélange a entraîné l’expansion de nouvelles usines qui ont ensuite été séchées par la chaleur des documents, développant du gaz pour la saison des incendies de forêt du document 2018 de l’État. La sécheresse en Californie a été aggravée par un système prolongé de stress plus élevé au large du littoral appelé «Ridiculously Tough Ridge». Cette crête de tension plus élevée a détourné les techniques des ouragans vers le nord de la Californie, entraînant finalement de nombreuses années de précipitations réduites. Les chercheurs ont indiqué que le réchauffement climatique pourrait entraîner la formation plus régulière de ce type de techniques de blocage. Une recherche menée en 2018 par Daniel Swain de l’UCLA a appris que, alors que les températures montent encore, Ca va repérer un mouvement vers beaucoup moins de précipitations au printemps et dégringolade et beaucoup plus pendant les mois d’hiver, allongeant la saison des incendies de forêt. Le problème autour de l’Australie est encore une fois étonnamment similaire à celui de Ca. Les chercheurs ont prouvé que le changement climatique développe un schéma de circulation sanguine atmosphérique connu sous le nom de mobile Hadley. Cette circulation est causée par la croissance et la diffusion de l’air chaud sur l’équateur vers les pôles, où il commence à se refroidir et à descendre, formant des crêtes à haute pression. En Australie, cette méthode produit ce qu’on appelle la crête subtropicale, qui, comme le fait remarquer le CSIRO, est devenue plus extrême en raison du changement climatique augmentant la circulation sanguine cellulaire Hadley. Une étude de 2014, David Article du CSIRO et ses collègues ont documenté que des crêtes de pression substantielle plus robustes avaient déjà diminué la pluie dans le sud-est de Melbourne en automne et en hiver. La valeur? Le manque de pluie produit beaucoup plus de gaz sec pour les incendies et allonge la saison des feux de brousse. Selon cette recherche scientifique, le document le plus récent du GIEC a révélé en 2014 que «le temps des incendies devrait augmenter de manière générale dans la majeure partie de la partie sud de l’Australie», les jours et les nuits traversant une menace très élevée et grave d’incendie augmentant 5 complètement par 2050. En plus d’un record du CSIRO en 2015, «les conditions météorologiques extrêmes des foyers ont augmenté sur 24 des 38 sites australiens de 1973 à 2010, en raison de circonstances plus chaudes et plus sèches… [Répertoire des dangers des foyers forestiers] dans le sud-est de Melbourne se caractérise par une extension de la période d’incendie de l’année supplémentaire au printemps et aux mois d’automne… dans une certaine mesure motivée par des augmentations de température qui sont attribuables au réchauffement climatique. »
Savourer les saveurs de la cuisine de Colombie
Un bidonville labyrinthique de l’institution bancaire de la baie des âmes parsemée de pélicans, Bazurto est devenu l’épicentre des produits de Carthagène depuis que l’ancien marché a été remplacé par le grand carré. centre de conférence en pierre naturelle. C’est en fait ce bâtiment qui peut attirer autant de visiteurs – y compris les gros bonnets pour l’heure du déjeuner – pour la ville aujourd’hui. Le dédale de ruelles de Bazurto est grisant en utilisant les parfums de poisson à frire, le manioc à la vapeur (un légume de base à la saveur folle) et les remèdes à base de plantes piquantes, l’achigan et l’accordéon tourbillonnant de chansons vallenato et les cris des colporteurs et des porteurs irrités tentant de manœuvrer leurs battus des charrettes autour du gringo peu fréquent (étranger) qui s’y aventure. Toutes les richesses du littoral caribéen colombien peuvent provenir des fournisseurs de Bazurto: poisson de mer et de lagune, poulpe, crevette, langosta (homard), porc, chèvre, viande, volaille, omniprésent produit suero (mauvais), riz, douze légumes de manioc et igname aux frijoles et guandules (haricots et légumineuses), fruits qui comprennent la noix de coco, le corozo (un fruit frais semblable à une cerise), le tamarin et les citrons verts doux. Plus des rouleaux de feuilles simplement à placer et des tamales à la vapeur (un repas de viande expérimentée et de farine de maïs), cuisine des outils en bois taillés à la main et des pièges à souris. L’ancien centre, une grille de bâtiments des XVIe et XVIIe siècles, contribue à faire de Carthagène à peu près les plus belles villes coloniales de langue espagnole des Caraïbes. Il est de plus petite taille et beaucoup moins appauvri que La Havane, plus funky que San Juan aseptisé à Porto Rico, plus riche en détails que Saint-Domingue. À l’intérieur de ses énormes murs et remparts, se trouvent des églises baroques ornées, des places ombragées de palmiers, des manoirs à balcons et des couvents à colonnades, tous gardés de la grande montagne de pierre plus sombre de la forteresse de San Felipe de Barajas, la plus grande des Amériques. Les rues pavées se composent de dizaines de logements intelligents et de plus de 150 restaurants à la mode au service du commerce touristique florissant. Indépendamment de tous les magasins de souvenirs, des voitures tirées par des chevaux pour l’emploi et des Palenqueras afro-caribéennes (femmes vendant des fruits frais et des bibelots) posant pour des photos dans leurs robes à volants pantomime voyantes, les vacances empêchent de manquer de stupéfaction dans la ville. Lorsque les substances de la préparation des aliments colombiens sont à proximité, les racines ont tendance à être de langue espagnole, visibles à l’intérieur des saucisses et des plats de riz. Vous pouvez également localiser les aliments africains, parmi la population servante. De ce pays différent, la côte caraïbe a obtenu le meilleur retour d’expérience grâce à deux quartiers intacts et auto-couverts. Le mieux identifié, un référentiel reconnu par l’Unesco de la culture et du vocabulaire traditionnels distinctifs, est situé à l’intérieur des terres, sur une vaste étendue de marais et de bétail. La ville de San Basilio de Palenque, généralement appelée Palenque, est l’une des zones existantes les plus remarquables établies par les cimarrones, ou esclaves fugitifs. Sa musique, champeta, un amalgame tumultueux de put congolais et swing de golf latin fourni par des techniques audio assourdissantes appelées picós, a parcouru la planète, ainsi que sa nourriture, riche en tubercules et soupes d’abats lourds comme le mondongo, commence à faire son apparition intérêt scolaire mondial pour les arts culinaires. Une réserve de formule récemment disponible, Kumina ri Palenge, a remporté une récompense de premier plan dans le cadre des Gourmand Planet Cookbook Awards en 2014. J’arrive à Palenque avec le co-auteur du livre Victor Simarra pour obtenir la route principale occupée par les jeunes chevaux de course automobile la navette de Carthagène dégorgeant Palanqueras de retour venant d’une journée fonctionnant les visiteurs. Une communauté locale afro-colombienne supplémentaire, Los angeles Boquilla, est en fait une communauté tentaculaire de villes de pêcheurs positionnées parmi les criques et les lagunes de mangroves sous le trajet aérien de l’aéroport. Pour avoir juste ici, vous passez plusieurs kilomètres des stations de gratte-ciel en bord de mer et des obstructions de condos qui surgissent des deux côtés de Carthagène. Ensuite, en quittant la rue, vous longerez une large bande de sable fin bordée de larges cafés à cabane ouverte pour arriver aux maisons de pêcheurs en adobe réduit (argile incluse) à l’aide de leurs canoës connectés.
Kingston: une pensée stratégique
Une convention mondiale s’est tenue en Jamaïque et il était également fascinant d’obtenir des informations sur la nation. L’île – identifiée par Christopher COLUMBUS en 1494 – a été colonisée par la langue espagnole au début du XVIe siècle. Le Taino indigène, qui a vécu la Jamaïque habitée pendant des années et des années, a été progressivement exterminé et remplacé par des esclaves africains. L’Angleterre a saisi cette île tropicale en 1655 et a reconnu une économie de plantation basée sur le glucose, le cacao et le café. L’abolition de l’esclavage en 1834 a libéré un quart de million d’esclaves, dont beaucoup sont devenus de minuscules propriétaires de fermes. La Jamaïque a progressivement accru son indépendance vis-à-vis de la Grande-Bretagne. En 1958, elle est devenue membre d’autres colonies des Caraïbes anglaises en développant la Fédération des Antilles. La Jamaïque s’est retirée de votre Fédération en 1961 et a acquis son indépendance totale en 1962. La détérioration des conditions financières au cours des années 70 a entraîné des agressions répétées alors que les gangs rivaux associés aux principales célébrations gouvernementales deviennent de puissants réseaux criminels structurés impliqués dans le trafic mondial de drogue et le lavage de fonds. Les délits criminels agressifs, le trafic de drogue et la pauvreté posent aujourd’hui des défis importants aux autorités. Néanmoins, de nombreux sites ruraux et de villégiature restent relativement sans risque et augmentent considérablement l’économie. Le climat économique jamaïcain est fortement tributaire des solutions, ce qui représente plus de 70% du PIB. La terre tire la majorité de ses devises du tourisme, des envois de fonds et de la bauxite / alumine. Les revenus des envois de fonds et des vacances représentent chacun 14% et 20% du PIB, tandis que les exportations de bauxite / alumine sont tombées à moins de 5% du PIB. L’économie jamaïcaine continue de croître en moyenne inférieure à 1% par an au cours des 30 dernières années et plusieurs obstacles au développement demeurent: un secteur public ouvert gonflé qui évince les dépenses consacrées aux projets essentiels; activité criminelle importante et corruption; ruban rougeâtre; ainsi qu’une proportion plus élevée de la dette financière par rapport au PIB. La Jamaïque, néanmoins, a constamment progressé dans la réduction de son pourcentage de la dette personnelle par rapport au PIB, passant d’un sommet de près de 150% en 2012 à moins de 110% en 2017, en étroite coopération avec le Compte financier international (FMI). L’accord actuel du FMI sur le maintien de la dette oblige la Jamaïque à créer un excédent primaire annuel de 7%, afin de réduire son niveau d’endettement personnel en dessous de 60% d’ici 2025. La croissance financière a atteint 1,6% en 2016, mais est tombée à 0,9% en 2016. 2017 juste après des pluies extrêmes, montrant la faiblesse de l’économie globale aux occasions liées au climat. La surveillance de la SAINTETÉ rencontre par conséquent la possibilité difficile de maintenir la discipline économique pour réduire le poids de la dette tout en mettant en œuvre simultanément des politiques induisant la croissance et en s’attaquant à un problème criminel important. Un chômage important exacerbe la difficulté de la criminalité, comme la violence des gangs alimentée par une arnaque aux coûts innovante (fraude au loto) et le commerce de la drogue.
Réduire les malversations gouvernementales
L’École nationale d’administration publique (ENAP) apporte des fonds en tant que membre fondateur de The Conversation CA-FR.
Rappelons que près de 3 milliards de dollars seront injectés dans l’économie afin de développer la réalisation de projets d’infrastructures dans les secteurs de l’économie jugés prioritaires (écoles, maisons des aînés, transport collectif, réseau routier, etc.).
Cette somme s’ajoute aux 11 milliards qui étaient déjà prévus pour l’année financière 2020-2021. Le gouvernement fédéral s’apprête également à dépenser une somme équivalente dans les projets d’infrastructures qu’il reste à préciser. L’objectif de ces initiatives est de contribuer massivement à la relance de l’économie, tout en répondant aux besoins bien réels.
Agilité et flexibilité, oui, mais dans les règles
Les périodes d’exception et d’urgence – comme ce que nous vivons avec la Covid-19 – appelant des mesures exceptionnelles dans de nombreux secteurs d’activités. Cependant, une même vigilance est particulièrement mise en œuvre qui concerne les projets d’infrastructures, en raison du caractère particulier exceptionnel des mesures annoncées et de l’importance des sommes investies.
Dans son allocution, le président du Conseil du Trésor du Québec, Christian Dubé, un insistant sur «l’agilité et la flexibilité» ne fera pas preuve du gouvernement pour faciliter le démarrage et la réalisation de ces projets. À première vue, cela peut paraître raisonnable en ces temps de crise. Mais il y a des risques pour l’intégrité de nos marchés publics. Cette agilité et cette flexibilité ne doivent pas ouvrir la porte aux malversations et aux abus de la partie d’entrepreneurs, dirigeants, élus ou fonctionnaires.
Le président du Conseil du Trésor, Christian Dubé, répond aux questions de l’Opposition, le 9 juin, à l’Assemblée nationale. Lors de la présentation du projet de loi, il a insisté sur l’agilité et la flexibilité. LA PRESSE CANADIENNE / Jacques Boissinot
Pourtant, c’est bien ce risque qui se profil à l’horizon avec le projet de loi 61. Le gouvernement a choisi la voie de la précipitation et de la concentration du pouvoir.
C’est 202 projets qui sont visés par l’initiative gouvernementale et qui voient le jour dans les deux prochaines années. Ou, pour les réaliser, le gouvernement entend se donner le pouvoir de modifier ou de suspendre à sa guise, par simple règlement, les règles qui sont prévues à la Loi sur les contrats des organismes publics
On s’en doute, la révision n’ira pas dans le sens de renforcer les mesures de prévention, de surveillance et de contrôle des marchés publics. C’est plutôt le contraire qui est recherché. Le projet de loi, dans sa mouture initiale avec l’article 50, entendait permettre une révision à la baisse des règlements qui s’appliquent en matière de contrats publics pour ses propres ministères – au premier chef, au ministère des Transports – ainsi que pour les contrats conclus dans les municipalités.
Malgré les nouveaux amendements déposés, il continuait de rendre possible une diminution des exigences réglementaires pour les contrats en milieu municipal. Les objectifs du projet de loi en matière de marchés publics ne sont donc pas abandonnés. Les risques manifestés bien réels.
Les règles du jeu en matière de contrats publics visent à garantir une fois une certaine équité entre les entreprises désireuses d’obtenir ces contrats, ainsi qu’une utilisation maximale des ressources ne disposent pas de la collectivité pour la réalisation de ces projets. Dès que ces règles sont enfreintes, c’est l’ensemble de la collectivité qui en paie le prix. Cette réalité nous avons été rappelée brutalement par les travaux de la Commission d’enquête sur l’octroi et la gestion des contrats publics dans l’industrie de la construction (CEIC – Commission Charbonneau).
Depuis le dépôt des recommandations de la CEIC, plusieurs mesures légales et réglementaires ont été mises en place afin d’assainir les pratiques d’octroi et de gestion des contrats de nos organismes publics, tant provinciaux que municipaux. Nous n’avons aucun intérêt, collectivement, à admettre le moindre relâchement au niveau de ces pratiques.
Les marchés publics à haut risque
Les travaux académiques et institutionnels portant sur l’identification des marchés publics – notamment ceux de l’OCDE qui font référence en la matière, insistant pour dire que les marchés publics représentent assurément la zone la plus sensible et à risque face à la corruption et les autres pratiques frauduleuses.
Avec de nombreux autres chercheurs, commissions nationales et organisations, l’OCDE identifie une multitude de facteurs mettant en jeu le risque de cette intégrité. Parmi ceux-ci, certains sont davantage à craindre en ce moment: une planification insuffisante des travaux, l’urgence d’agir qui conduit à baisser la garde en matière de prévention, l’action des réseaux de proximité (le copinage et son corolaire , le favoritisme), l’absence de transparence, l’insuffisance des contrôles, l’adoption des procédures accélérées d’attribution des contrats, la faible reddition des comptes des acteurs décisionnels.
Un chantier fermé en raison de la pandémie de Covid-19, au centre-ville de Montréal. Québec entend injecter des sommes importantes dans le secteur de la construction afin de relancer l’économie, mais cela doit se faire avec prudence. Shutterstock
Dans le document «Principes de l’OCDE pour renforcer l’intégration dans les marchés publics», l’Organisation propose d’aligner les systèmes de protection de plusieurs principes qui sont classés en quatre catégories: la transparence; la bonne gestion; la prévention des comportements réprouvés, le respect des règles et la surveillance; ils doivent rendre les comptes et le contrôle.
Au-delà des principes mis de l’avant, la volonté de l’OCDE est de ne rien laisser au hasard dans le processus de passation des marchés publics. En effet, son approche vise à «occuper le terrain» pour éviter que les fonctionnaires soient exposés aux zones grises où il n’y a aucune procédure pour aider à prendre la bonne décision.
Les meilleures pratiques
Les règles et les façons de faire doivent favoriser le traitement équitable de toutes les propositions. Pendant la période de lancement de l’appel d’offres, il faut s’assurer que la concurrence est au rendez-vous et bien gérer toutes les situations de conflits d’intérêts. La diffusion de l’information doit être équitable, c’est-à-dire que l’on arrive toujours à fournir, à toutes les entreprises intéressées par un marché public, les mêmes informations. Il faut également donner un temps raisonnable à ces entreprises pour qu’elles puissent préparer leur proposition. Idéalement, un mécanisme de dénonciation des diverses formes d’irrégularités est à prévoir.
Ce ne sont que quelques exemples de ce que doit prendre en considération un gouvernement soucieux d’éthique et d’intégrité des marchés publics.
Le gouvernement devrait donc retirer, ou revoir en profondeur, son projet de loi 61. S’il entend injecter des sommes importantes dans le secteur de la construction afin de relancer l’économie, cela doit se faire avec prudence et en considération des meilleures pratiques documentées dans le domaine des contrats publics. Dans le dernier état des amendements proposés, les risques encourus majeurs.
Dans un souci de prévention des malversations, le gouvernement doit encourager l’ensemble des fonctionnaires appelés à intervenir dans l’octroi et la gestion des contrats publics à faire preuve d’une vigilance s’accumuler et mettre à leur disposition les moyens leur permettant de se faire faire entender. Ce n’est pas le moment de baisser la garde. L’intégrité des marchés publics n’est jamais un acquis définitif. La vigilance s’impose.
Pourquoi tout le monde veut faire du SEO ?
En ce qui concerne l’optimisation sur la page, nous pensons toujours à optimiser notre site Web, ce qui est nécessaire. Les modifications de page comprennent les balises méta, les balises alt, l’ajout d’images attrayantes, de vidéos, l’intégration de diapositives, etc. C’est plus que cela, comme optimiser vos canaux de médias sociaux en utilisant des titres de pages conviviaux pour le référencement, qui vous aident non seulement à obtenir un classement dans les moteurs de recherche, mais vous aide également à obtenir plus d’engagement sur les plateformes de médias sociaux. Pourquoi le renforcement des liens est-il important? La création de liens est essentielle pour obtenir des liens de qualité. Au début, le référencement des liens textuels était une pratique courante. Tout le monde commence à créer des backlinks spammy, puis la mise à jour de Google Penguin est déployée afin de supprimer les sites Web des résultats de recherche qui tentaient de créer des liens non naturels à partir de sites de qualité médiocre. Il est donc toujours conseillé de créer des liens retour à partir de sites pertinents et de grande autorité. Voici quelques formes d’activités de création de liens que vous pouvez ajouter à votre liste de contrôle SEO: Création de profil Partage de vidéo Partage social Remarque: essayez toujours de créer un texte d’ancrage dans une forme plus naturelle plutôt que comme une correspondance exacte. Comment faire une recherche par mot clé? La recherche par mot clé est très importante en matière de référencement. Vous pouvez classer si vous avez la bonne stratégie de recherche par mot clé. Donc, afin de trouver le bon mot-clé pour votre produit ou service, vous devez d’abord savoir que si vous avez un nouveau site Web, vous n’allez pas vous classer parmi les mots-clés de la concurrence élevée. Par exemple: Votre produit est NYC Plumbers ”et si vous essayez de vous classer sur le même mot clé qui a 10 fois plus de volume de recherche et une concurrence élevée, il vous est impossible de le classer également. La solution consiste à trouver des mots-clés à longue queue dans le planificateur de mots-clés avec un volume de recherche d’au moins 100-1K / mois et une faible concurrence, ce qui vous permet de classer facilement. Ajouter un blog sur votre site L’ajout d’un blog sur votre site est certainement la meilleure option pour augmenter le trafic organique. Le blog constitue la source secondaire de l’augmentation du trafic organique pour votre site, ce qui entraîne une augmentation du nombre de visiteurs. Recherchez des mots-clés interminables, écrivez des articles de blog pertinents et créez des liens entre vos pages ciblées. Restez actif sur les dernières mises à jour et tendances SEO Comme vous le savez, agence seo Amiens les moteurs de recherche évoluent chaque seconde. Pour conserver des résultats de recherche pertinents, ces moteurs publient leurs mises à jour plus fréquemment. Pour en savoir plus sur ces mises à jour, vous pouvez suivre ces canaux: SEOMoz Bio de l’auteur: Fondée en 2014, Zebrines est une start-up privée qui a grandi pour devenir un fournisseur de services informatiques de renommée internationale avec une base de clients mondialement réputée. Publier un nouveau commentaire Inscription gratuite aux newsletters Accédez aux meilleurs conseils en matière de réussite, de développement personnel, de santé, de forme physique, d’affaires et financière…
Se garder des attaques par internet
Même les plus férus de technologie parmi nous peuvent se sentir comme un bébé dans la forêt en ce qui concerne la protection d’un réseau domestique ou professionnel contre les menaces de cybersécurité. Une fois que j’explique aux clients les étapes à suivre pour transformer leur maison ou leur bureau en un château électronique correctement défendu, je compare souvent la cybercriminalité à l’industrie réelle de la sécurité physique. J’explique que leur maison ou leur entreprise a maintenant des fenêtres et des portes électroniques à protéger. Lors de l’évaluation d’un bâtiment pour n’importe quel système de sécurité, il s’agit de comprendre le triangle d’évitement des activités criminelles, composé des capacités, des souhaits et des opportunités de chaque côté. Le seul élément que vous pouvez contrôler est Chance, en dissuadant les mauvais comportements (cassage de la base du triangulaire). Tout simplement, ne vous transformez pas en victime. Parce qu’une bonne sécurité physique réelle consiste à éliminer les opportunités, la cybersécurité ne devrait pas être différente. Néanmoins, au lieu de ne vous soucier que de terribles acteurs célèbres qui mettent en danger une maison ou un bureau, vous êtes soumis à d’innombrables escrocs possibles en ligne. Construisez une clôture suffisante pour dissuader les escrocs qualifiés et vous réduirez certainement le risque d’occurrence de cybersécurité. Voici quelques-uns des problèmes de cybersécurité les plus courants et des stratégies pour minimiser les risques: Description des logiciels malveillants: De manière claire et directe, les logiciels malveillants sont des logiciels destinés à endommager ou désactiver les systèmes informatiques et les techniques informatiques personnelles. Les exemples incluent les virus ou les écrans de ransomware bien connus qui incitent Bitcoin à reprendre le contrôle de votre PC. Stratégie de cybersécurité: surveillez le passage de l’industrie de la protection des systèmes informatiques ou de tout autre point de terminaison comme les tablettes et les téléphones à des pare-feu dépendants du routeur qui rejettent les visiteurs douteux avant qu’ils ne deviennent sur le réseau. Grâce à l’apprentissage des appareils et à l’intelligence synthétique, nous avons maintenant parcouru un long chemin car l’époque des logiciels de cybersécurité criait au loup toutes les trente secondes. Les efforts précédents sur ces techniques étaient si irritants que la plupart des utilisateurs les ont handicapés, formation référencement naturel les rendant sans valeur. Les nouvelles solutions basées sur l’équipement des entreprises telles que Firewalla, Cujo et Norton garantissent d’éliminer les méchants dans la passe. Gardez à l’esprit que ces produits en sont encore à leurs tout débuts et qu’un champion clair comme du cristal n’a pas fait surface. Si vous aimez jouer avec les technologies et que cela ne vous dérange pas quelques maux de tête, une de ces techniques sera amusante à essayer. Peu importe ce que vous décidez, assurez-vous de vous concentrer sur le support de vos informations instantanément sur une base quotidienne, et en suivant la règle 3-2-1: Ayez au moins trois copies indépendantes de vos informations Conservez les doublons sur deux types de supports différents ( disque dur ou carte SD) Gardez toujours un seul site de sauvegarde en double (en utilisant un service comme Carbonite). Même les plus férus de technologie d’entre nous peuvent sembler être comme un bébé dans les bois en ce qui concerne la protection d’un réseau domestique ou professionnel contre les menaces de cybersécurité. Une fois que je communique aux clients les étapes à suivre pour transformer leur maison ou leur entreprise en une forteresse numérique correctement défendue, je compare souvent la cybercriminalité à l’industrie de la protection physique. J’explique que leur maison ou leur entreprise a actuellement des portes et fenêtres électroniques à protéger aussi. Lors de l’évaluation d’un bâtiment pour un système d’alarme, il s’agit de comprendre le triangle d’évitement du crime, composé de compétences, de désir et de chance des deux côtés. Le seul composant que vous pouvez contrôler est l’Opportunité, en dissuadant les actions terribles (détachant le bas du triangle). Tout simplement, ne devenez pas un malade. Tout simplement parce qu’une grande sécurité physique consiste à se débarrasser des opportunités, la cybersécurité ne devrait pas être différente. Cependant, plutôt que de vous inquiéter uniquement des terribles acteurs célèbres qui mettent en danger une maison ou un bureau, vous pourriez être soumis à des millions d’escrocs possibles sur Internet. Créez une clôture suffisamment haute pour dissuader les criminels qualifiés et vous réduirez le risque potentiel d’un événement de cybersécurité. Voici quelques-uns des problèmes de cybersécurité les plus courants et des techniques permettant de réduire le danger: Définition des logiciels malveillants: Les logiciels malveillants sont clairs et simples, des logiciels destinés à endommager ou désactiver les ordinateurs et les techniques des ordinateurs personnels. Les exemples incluent les infections ou même les ransomwares bien connus affichent des bitcoins difficiles pour restaurer le contrôle de votre PC. Technique de cybersécurité: surveillez le passage de l’industrie de la protection des ordinateurs ou de tout autre point de terminaison comme les pilules et les téléphones à des pare-feu basés sur des routeurs qui refusent le trafic suspect avant qu’il ne circule sur le réseau. Grâce à la compréhension des machines et à l’intelligence artificielle, nous avons considérablement progressé depuis l’époque du logiciel de cybersécurité criant au loup toutes les trente secondes. Les premiers efforts sur ces techniques avaient été si ennuyeux que la plupart des clients les ont handicapés, les rendant sans valeur. Des options plus récentes basées sur l’équipement d’entreprises telles que Firewalla, Cujo et Norton promettent de repousser les méchants dans le succès. Rappelez-vous que ces produits continuent d’être à leur tout début et qu’un gagnant clair comme du cristal n’a pas émergé. Si vous voulez faire l’expérience de la technologie et que cela ne vous dérange pas quelques maux de tête, l’une de ces techniques brillantes sera agréable à essayer. Indépendamment de ce que vous choisissez, assurez-vous de vous concentrer sur la prise en charge automatique de vos informations au quotidien et sur l’application de la règle 3-2-1: avoir au moins 3 doublons indépendants des données Conservez les doublons sur deux types de supports différents (disque dur ou carte SD) Gardez toujours un seul duplicata de sauvegarde hors du site Web (en utilisant un service comme Carbonite).
On l’appelait Schlick
Fondateur du mouvement positiviste reconnu, le «Cercle de Vienne», le fonctionnement de Schlick a été fortement affecté par le jeune Tractatus Logico-Philosophicus de Wittgenstein (Traité de la raison philosophique). Pour cette raison, la fascination majeure de Schlick est la langue et le sens et l’a amené à produire l’idée «vérificationniste» du sens. Comme l’a souligné Schlick, une déclaration est utile si elle est parfois correcte (comme «Tous les célibataires sont des hommes non mariés») ou si elle est en principe établie par expertise. Ainsi, pour Schlick, les revendications de la recherche ne sont importantes que dans la mesure où il existe une stratégie, en principe, où elles peuvent être approuvées. L’avertissement «en principe» est essentiel pour permettre que les fausses déclarations soient tout aussi utiles que les vraies. Les affirmations fausses sont des affirmations qui auraient pu être vraies mais qui, en fait, s’avèrent ne jamais l’être. D’un autre côté, les déclarations dépourvues de sens sont celles où aucune expérience ne pourrait en principe conduire à une confirmation. Des exemples typiques de tels enregistrements, insiste catégoriquement Schlick, sont jonchés à travers le contexte de la philosophie métaphysique. «L’âme survit après la mort», «Dieu est peut-être tout réalisateur et bienveillant», «Tout est Un» et de telles choses ne sont ni exactes ni fausses mais simplement sans valeur, comme le souligne Schlick. Le principe de vérification aurait un effet massif au milieu du XXe siècle. Parce que seuls les dossiers de la recherche scientifique et ceux qui sont vrais par définition sont importants, certains éléments devaient être présentés dans les propositions d’éthique, de beauté ainsi que dans d’autres allégations à faible proposition. Pour Schlick, ces types d’énoncés n’ont aucune signification littérale, mais transmettent simplement un état d’esprit ou une exclamation de la part du présentateur. L’impact de l’idée peut être vu dans l’émergence d’une quantité de concepts «émotivistes» à la fois dans les valeurs et dans l’apparence pendant cette période (voir, par exemple, G.E. Moore). En ce qui concerne les mathématiques et le bon sens, leurs propositions appartiennent à un support similaire à tous ceux réels par définition. Ils peuvent être, selon Schlick, littéralement des tautologies. Cela représente un problème majeur pour le profil vérificateur, ce qui signifie. Car si ce n’était pas la première fois que les philosophes possédaient des propositions mathématiques prétendument correctes par définition, les associer à la tautologie semble téméraire pour le dire avec douceur. Par définition, une tautologie se répète ou indique simplement une chose précédemment signalée. Pourtant, les mathématiques constituent autant d’autodiscipline de percée que la technologie. Il suffit de jeter un œil à son amélioration par rapport à Pythagore sur les mathématiques contemporaines de Cantor, Hilbert, Chaos Concept et Mandelbrot’s Fractal Generations pour en profiter. De plus, étant donné que les percées en mathématiques pures sous-tendent et éclairent souvent les estimations faites par les concepts corporels, en particulier parce que la venue du concept de relativité d’Einstein et des aspects quantiques de Schrödinger, la ligne de démarcation entre les propositions de mathématiques réelles et la science pure à 100% est floue à meilleur.
De Quine à Rawls
Le philosophe américain John Rawls était l’un des philosophes politiques les plus importants du XXe siècle. Dans une série d’opérations qui a commencé avec toute la théorie A Theory of Justice (1971), il s’est attaqué à toutes les questions classiques des restrictions à la liberté, des obligations du résident et de la justice distributive (l’équité ou bien la circulation des richesse et pouvoir). La solution de Rawls, traitée et élargie au cours des 35 années qui ont suivi, a été son idée de «justice comme équité», qui a rejeté la conception utilitaire en faveur d’une mise à niveau de l’accord sociable traditionnel, ainsi que la stratégie difficile de chacun protégeant les privilèges des personnes et faisant la promotion de la justice distributive. L’étape de départ de l’accord social de Rawls était sa «position initiale». Cette construction hypothétique pensait que les gens détermineraient ce qui allait se passer dans leur culture en alimentant un «voile d’ignorance». Parce qu’il dit dans une idée de justice: « Personne en particulier ne connaît sa place dans la communauté, sa place ou sa position, ni personne ne connaît sa fortune dans la circulation des ressources et des compétences naturelles, son intelligence, sa durabilité, etc. » Considérant que les gens n’auront aucune idée de la façon dont ils s’en tireront face à leurs concurrents avec leurs concitoyens, Rawls a affirmé qu’ils étaient sûrs d’adopter une technique minimax pour éviter les plus préjudiciables et de créer une collection de directives honnêtes pour chacun. et tout le monde. C’étaient «les concepts que des personnes réalistes et totalement libres soucieuses de défendre leurs propres intérêts reconnaîtraient dans un lieu préliminaire d’égalité comme déterminant des principes de base en ce qui concerne leur lien». Selon Rawls, il y avait deux de ces concepts de justice. Le premier principe (de liberté) mentionnait que «chaque individu a un droit identique à de loin le régime le plus substantiel de libertés simples équivalentes convenant à un régime de liberté comparable pour les autres». Pour Rawls, ces libertés fondamentales comprenaient non seulement l’indépendance des conversation, assemblée, croyance et conscience, mais directement à tenir la maison individuelle. Ils n’incluaient pas les «libertés de» traditionnelles, comme l’absence de chômage, d’exploitation ou d’inquiétude. Le deuxième principe (droits appropriés) est arrivé en deux volets. Tout d’abord, les niveaux d’inégalité sociale et économique devraient viser à garantir à chacun une «égalité des chances équitable» en ce qui concerne les carrières et les postes de pouvoir. Deuxièmement, les niveaux d’inégalité sociable et monétaire doivent être de la meilleure aide pour la société des individus les moins favorisés. Conformément à cette deuxième partie du principe de base des droits appropriés – appelé principe de différence – l’inégalité n’est satisfaisante que si elle améliore le niveau total des plus démunis. L’égalitarisme de Rawls est renforcé par son insistance sur le fait que personne ne devrait assumer de meilleures récompenses simplement parce que ces personnes sont nées avec des dons plus élevés. Rawls a identifié que ses deux principes directeurs des droits appropriés pouvaient fonctionner l’un contre l’autre dans la réalité, et a cherché à résoudre ce problème en rendant le principe de base de la liberté essentiellement total. Chaque fois qu’une société est contrainte de choisir, la sécurité des libertés (le principe de la liberté) doit tenir compte de la priorité sur la publicité de la justice distributive (le principe de la justice). Il a permis que cette priorité puisse être inversée dans des situations d’amélioration économique réduite, mais son dysfonctionnement pour déterminer ou stipuler ce «bas niveau» laissait des questions sans réponse. Il était catégorique sur le fait que les idées produites à partir de concepts abstraits devaient être testées contre un bon jugement. Une représentation philosophique sur les principes directeurs de sa propre idée de «justice en tant qu’équité» les transformerait en un fait peu théorique, les plaçant dans ce qu’il appelait «l’équilibre réfléchi». Le libéralisme politique (1993) a affiné les idées de Rawls. Son objectif principal a finalement été de distinguer le libéralisme en tant que point de vue de la vie et le libéralisme en tant que credo simplement politique. Le précédent était préoccupé par les préceptes éthiques et religieux qui, selon Rawls, étaient certains de mettre l’accent sur les divisions politiques. Ces derniers, par distinction, traitaient de pensées beaucoup moins controversées comme la réciprocité et la valeur mutuelle. Si la seconde était prioritaire, des individus de différentes convictions morales et religieuses pourraient se concentrer sur la «raison publique» qui les unissait, plutôt que sur les croyances qui les divisaient. Ce que Rawls appelle un «consensus qui se chevauchent» peut être créé. Ceci, bien que n’étant pas vraiment une pensée particulièrement authentique, a acquis une signification cristalline pour le débat en expansion sur le multiculturalisme.
Un PC aussi puissant qu’un super computer
Les universitaires du College of Sussex ont mis au point une technique de turbocompression des ordinateurs de bureau pour leur donner exactement la même capacité que des supercalculateurs valant des dizaines de millions de livres. Le Dr James Knight et le professeur Thomas Nowotny de l’École d’ingénierie et d’informatique de l’Université du Sussex ont utilisé les dernières unités de manipulation graphique (GPU) pour donner à un ordinateur de bureau unique la capacité d’imiter des modèles d’esprit de dimension presque illimitée. Ils pensent que les progrès, complets dans la recherche scientifique computationnelle de la nature, permettront à de nombreux autres experts du monde entier d’entreprendre des recherches sur un simulateur mental à grande échelle, comme l’investigation des conditions neurologiques. Actuellement, le coût des supercalculateurs est vraiment prohibitif, ils ne sont raisonnables que pour les grandes organisations et les ministères et ne sont donc pas accessibles pour de nombreux chercheurs. En plus d’économiser des dizaines de kilos sur les dépenses d’un supercalculateur, les simulations fonctionnent sur l’ordinateur de bureau et le PC nécessite environ dix fois moins d’énergie, agence seo offrant également un avantage substantiel en matière de durabilité. Le Dr Knight, chercheur en informatique personnelle à l’Université du Sussex, a déclaré: « Je pense que le principal avantage de notre recherche est simplement l’accessibilité. En dehors de ces très grandes entreprises, les universitaires doivent normalement postuler pour obtenir même un temps limité sur un supercalculateur pour l’objectif technologique. Il s’agit d’une barrière raisonnablement plus élevée à l’entrée, ce qui freine potentiellement un grand nombre d’études substantielles. résoudre des problèmes auxquels les esprits biologiques réussissent bien mais qui sont actuellement des simulations passées. «Parallèlement aux développements que nous avons maintenant démontrés dans le domaine de la connectivité en ligne procédurale dans le cadre du matériel GPU, nous pensons qu’il est en outre possible de créer de nouveaux types de matériel neuromorphique entièrement conçus pour la connectivité en ligne procédurale. Des composants clés pourraient être mis en œuvre directement dans l’équipement qui peut conduire à des augmentations de temps de calcul beaucoup plus substantielles. » L’étude crée autour du spécialiste révolutionnaire des personnes fonctionnelles Eugene Izhikevich qui a lancé une méthode similaire pour le simulateur d’esprit à grande échelle en 2006. À l’époque, les ordinateurs étaient trop lents pour que la méthode soit largement pertinente, ce qui signifie que la simulation de conceptions cérébrales à grande échelle Jusqu’à présent, seule une minorité de chercheurs privilégiés a eu accès aux techniques de supercalculateur. Ils ont utilisé la méthode d’Izhikevich sur un GPU moderne, avec environ 2000 fois la puissance de traitement disponible il y a quinze ans, pour créer un modèle à l’avantage de la coupe du cortex visuel d’un Macaque (avec 4,13 × 106 neurones et 24,2 × 109 synapse) qui ne pouvait auparavant être simulé sur un supercalculateur. La simulation de réseau neuronal à pic plus rapide du GPU des chercheurs utilise la grande quantité d’énergie de calcul sur un GPU pour produire « de manière procédurale » une connectivité et des poids synaptiques « à la volée » lorsque des pics sont déclenchés – éliminant ainsi le besoin d’acheter des informations de connectivité en ligne dans souvenir. L’initialisation à partir du modèle des chercheurs avait pris 6 minutes et le simulateur de chaque seconde biologique avait pris 7,7 minutes à l’état fondamental et 8,4 minutes en condition de détente – autant que 35% de temps en moins qu’un simulateur de supercalculateur antérieur. En 2018, un seul détenteur de l’initialisation du supercalculateur IBM Blue Gene / Q à partir de la conception a pris environ 5 minutes et la simulation d’un 2ème du temps biologique a pris environ 12 minutes. Le professeur Nowotny, professeur d’informatique au College of Sussex, a déclaré: «Les simulations à grande échelle de modèles de systèmes neuronaux à pointes sont un outil important pour améliorer notre compréhension de la dynamique et éventuellement du but des esprits. Néanmoins, même les petits mammifères tels que les rongeurs ont à l’achat de 1 × 1012 connexions synaptiques, ce qui signifie que les simulations ont besoin de plusieurs téraoctets de données – une exigence de souvenir peu pratique d’une seule machine de bureau. « Ces études scientifiques changent la donne pour les chercheurs en neurosciences computationnelles et en IA qui sont maintenant en mesure de imite les circuits cérébraux sur leurs propres postes de travail à proximité, cela permet également aux personnes extérieures au monde universitaire de transformer leur PC de jeu vidéo en un superordinateur et d’exploiter de grands réseaux de neurones. «