-Anatomie et physiologie • Animaux et l'environnement • culture generale • economie • flore et ses bienfaits • Internet et Informatique • L'alimentation et la nutrition • La Biologie • Le mésothéliome • Les épices • Les fruits et légumes • Les vitamines • Maladies & Affections • Médecine et traitements • Médicaments • monde technologique • remèdes naturels • Santé et Bien-être • sciences et génie -orange

dimanche 13 mars 2016

Le logiciel Mykrobe Predictor,

Les scientifiques ont développé un programme facile à utiliser l'ordinateur qui peut rapidement analyser l'ADN bactérien de l'infection d'un patient et prédire quels antibiotiques fonctionnent, et qui va échouer en raison de la résistance aux médicaments. Le logiciel est actuellement à l'essai dans trois hôpitaux du Royaume-Uni pour voir si elle peut aider à accélérer le diagnostic des infections résistantes aux médicaments et permettre aux médecins de mieux cibler la prescription d'antibiotiques.
Le logiciel Mykrobe Predictor, développé par le Dr Zamin Iqbal et ses collègues du Wellcome Trust Centre for Human Genetics, Université d'Oxford, fonctionne sur un ordinateur portable standard ou tablette sans la nécessité d'une expertise spécialisée. Le programme peut analyser l'ensemble du code génétique d'une bactérie en moins de 3 minutes, une fois par échantillon bactérien a été cultivé et son ADN séquencé.
Une étude sur plus de 4500 échantillons de patients rétrospectives, publiés dans Nature Communications, montre que Mykrobe Predictor détecte avec précision la résistance aux antibiotiques dans les deux infections bactériennes mortelles: Staphylococcus aureus (une forme de ce qui provoque SARM) et la tuberculose (TB).
Le logiciel est en cours d'évaluation dans les hôpitaux à Oxford, Brighton et Leeds dans un projet dirigé par le professeur Derrick Crook, qui, en collaboration avec des programmes parallèles à l'Université UCL et Cambridge vise à développer le séquençage du génome entier comme un outil de routine pour le diagnostic et le contrôle des infections au sein du NHS. Le programme est financé par le ministère de la Santé et le Wellcome Trust à travers le Fonds commun Innovation Défi Santé.
Les infections résistantes aux médicaments constituent une menace majeure pour la santé mondiale et pourraient à l'avenir signifie que les infections graves et mortelles deviennent impossibles à traiter. Le problème se développe grâce à la sélection naturelle. Comme les autres espèces, les bactéries sont en constante évolution grâce à des changements subtils dans leur ADN. Certains de ces changements rendent résistants à certains médicaments, ce qui signifie qu'ils sont plus susceptibles de survivre et de transmettre leurs traits résistants à d'autres bactéries.
Une des meilleures façons de prévenir la propagation de bactéries résistantes est de faire en sorte que les patients atteints d'une infection sont traités rapidement avec le bon type d'antibiotique. Mais pour savoir quelle souche particulière de bactéries est la cause de l'infection d'un patient et quels médicaments il est résistant à, les médecins doivent effectuer des tests de sensibilité aux médicaments, où les différents antibiotiques sont appliqués aux bactéries dans une boîte de Pétri pour voir si elles le tuent. Ce processus peut prendre des jours, voire des mois pour des infections à croissance lente comme la tuberculose.
Les scientifiques pensent qu'ils pourraient obtenir la même information beaucoup plus rapide en regardant directement à la séquence d'ADN de la bactérie pour les mutations qui sont connues pour provoquer une résistance. Cependant, l'interprétation de l'information génétique nécessite souvent une grande quantité d'énergie et de l'expertise de bioinformaticiens spécialiste informatique.
Mykrobe Predictor rationalise ce processus en automatisant l'analyse du génome, le recoupement de la séquence d'ADN de la bactérie avec les souches précédentes pour rechercher des mutations de résistance causant et en présentant des informations sur le bogue dans un format facile à comprendre.
Dans cette étude, le logiciel a été en mesure de détecter la résistance aux cinq antibiotiques de première ligne dans plus de 99% des cas de Staphylococcus aureus, correspondant à la performance des tests traditionnels de sensibilité aux médicaments. Pour la tuberculose, où la base génétique de la résistance aux médicaments est moins bien comprise, Mykrobe Predictor correspondait encore la performance des tests ADN actuels (qui ressemblent à des extraits d'ADN, mais pas la totalité de la séquence), la détection de 82,6% des infections résistantes autour de 5-16 semaines plus rapides que les tests traditionnels de sensibilité aux médicaments. Toutefois, contrairement à des tests standard "à base snippet-'ADN, Mykrobe Predictor peut être rapidement mis à jour avec une mise à jour de logiciel simple qui permet aux chercheurs de détecter de nouvelles mutations de résistance à mesure qu'ils évoluent.
Un autre avantage de Mykrobe est qu'il peut identifier les infections où le corps d'un patient, contient un mélange des deux bactéries résistantes aux médicaments et sensibles aux médicaments. Dans cette étude, la capacité de faire la distinction entre ces «sous-populations» bactériennes a donné Mykrobe un avantage sur les tests classiques pour détecter la résistance aux médicaments antituberculeux de deuxième intention. Ceci est important pour le diagnostic des infections telles que «la tuberculose largement résistante aux médicaments» (XDR-TB), qui est résistant à au moins quatre des médicaments antituberculeux de base et est considéré comme une menace mondiale pour la santé publique par l'Organisation mondiale de la santé.
Dr Zamin Iqbal, du Wellcome Trust Centre for Human Genetics à l'Université d'Oxford, auteur principal du document, a déclaré:
«L'un des obstacles à la prise de génome entier le séquençage d'une partie de la routine des soins NHS est la nécessité pour les ordinateurs et l'expertise puissants pour interpréter les masses de données complexes. Notre logiciel gère les données rapidement et présente les résultats aux médecins et aux infirmières de façons qui sont faciles de comprendre, de sorte qu'ils peuvent instinctivement les utiliser pour prendre de meilleures décisions de traitement ».
Co-auteur Professeur Derrick Crook, un microbiologiste de consultant à l'hôpital John Radcliffe et directeur du Service national de l'infection, de la santé publique en Angleterre, a déclaré:
"Le séquençage du génome a le potentiel de transformer la façon dont nous diagnostiquons et traiter les infections bactériennes dans les hôpitaux du NHS, mais l'un des principaux défis développe les bons outils pour nous permettre de déverrouiller cette information rapidement et à moindre coût. Notre but ultime est d'être en mesure de fournir des renseignements complets sur un agent pathogène dans les 24 heures de culture, reliant ces informations à une base de données de surveillance nationale pour permettre le traitement des patients plus rapidement et mieux ciblées ».
Dr Stephen Caddick, directeur des innovations au Wellcome Trust, a ajouté:
"Infections résistantes aux médicaments constituent une menace majeure pour la santé publique mondiale. Les antibiotiques qui étaient autrefois les sauveteurs sont en danger de devenir sans valeur, et dans notre vie nous avons pu voir des infections mineures qui reviennent comme un problème majeur de santé publique. Nous avons besoin de toute urgence de nouvelles stratégies diagnostiques nous permettent de mieux cibler l'utilisation des antibiotiques, et de préserver ainsi l'efficacité de nos antibiotiques existants, et de nouveaux médicaments qui sont développés à l'avenir. "

Développement d'une plate-forme d'évaluation capable de valider les systèmes de distribution étendus

Le développement d'une plate-forme d'évaluation capable de valider les systèmes de distribution étendus
Un projet de recherche japonais développé "DESTCloud," une plate-forme d'évaluation qui valide la tolérance en cas de catastrophe et de la tolérance des systèmes de distribution étendus constitués de plusieurs ordinateurs sur un réseau faute. Cette plate-forme, en utilisant un environnement virtualisé étendu composé d'instituts de recherche multiples à l'intérieur du Japon et à l'étranger connu sous le nom "distcloud," peut valider la tolérance en cas de catastrophe et de la tolérance des systèmes qui fonctionnent dans l'environnement virtualisé en provoquant intentionnellement des interférences avec le réseau de failles qui interconnecte les organisations.
Après le Grand Est du Japon tremblement de terre, les systèmes d'information qui peuvent atteindre "la reprise après sinistre» pour se remettre de la perte d'information due aux catastrophes à grande échelle, ainsi que des «plans de continuité d'activité» qui permettent la poursuite rapide des services à la suite de catastrophes ont été la collecte attention au Japon. Cependant, même si le renforcement des installations et la formulation de procédures ont été réalisées, des enquêtes ont montré que la fréquence des exercices de catastrophes fondées sur les plans formulés en utilisant les systèmes de reprise après sinistre construits sont mises en œuvre est faible.
Cette plate-forme d'évaluation suppose l'apparition de multiples catastrophes simultanées, y compris les tremblements de terre et l'échec de la communication en raison de l'infrastructure de communication endommagés, rendant ainsi possible la réalisation de la formation pour divers scénarios de catastrophes. Grâce à cette formation, il sera possible d'évaluer préventivement si oui ou non ces systèmes de distribution étendus seront en mesure de continuer à fournir leurs services, même en cas de catastrophe à grande échelle. Utilisation des fonctions fournies par cette plate-forme d'évaluation permettra d'évaluer quantitativement la tolérance aux pannes et la tolérance aux pannes des réseaux de distribution étendus tels que l'Internet.
Ces résultats de recherche ont été présentés lors de la SC15 conférence internationale à Austin, Texas, États-Unis, le 15 Novembre 2015.
Ce projet, dirigé par Hiroki Kashiwazaki (Professeur adjoint, Université d'Osaka), Ikuo Nakagawa (professeur associé invité, Université d'Osaka), Yoshiaki Kitaguchi (professeur adjoint, Université de Kanazawa), Kohei Ichikawa (professeur agrégé, Nara Institute of Science and Technology), Tohru Kondo (professeur agrégé, Université d'Hiroshima), et Yutaka Kikuchi (professeur, Université Kochi of Technology), a poussé en avant avec la recherche à appliquer la technologie de stockage distribué parallèle, qui gère les unités de stockage fournies par plusieurs ordinateurs comme une seule unité de stockage, à la catastrophe méthodes de récupération.
Dans cette recherche, la vaste zone environnement virtualisé "de distcloud" a été construit, avec des hubs situés à l'Université d'Osaka, l'Université du Tohoku, Institut national d'informatique, Université de Kanazawa, l'Université de Kyoto, Nara Institute of Science and Technology, Université d'Hiroshima, Université Kochi technologie, l'Université de Californie, San Diego, ainsi que des centres de données à Sapporo et Okinawa. Le but de ce développement de la recherche est de vérifier la validité des plans de continuité des opérations en cas de catastrophe et d'évaluer quantitativement la détérioration de la qualité de ces systèmes dans un tel désastre en émulant un état des systèmes d'échec lors d'une catastrophe de grande ampleur dans un environnement virtualisé, ce qui améliore les systèmes étendus.
Des efforts ont déjà été effectués pour valider la tolérance aux pannes par la perte de machines virtuelles au sein d'une seule organisation, mais suite à une catastrophe à grande échelle, diverses formes d'ingérence se produire simultanément sur une large zone. Afin de réaliser la formation en cas de catastrophe plus réaliste, ce projet de recherche a mis l'accent sur "Network Software Defined (NRS)" technologie, qui permet aux utilisateurs de contrôler les paramètres réseau en modifiant le logiciel (ie, programmable), et appliqué cette technologie RPS comme "la technologie pour détruire le réseau ". La motivation pour la recherche et le développement de la plate-forme d'évaluation "DESTCloud" est de réaliser l'émulation des interférences plus complexes grâce à l'utilisation des RPS de provoquer des interférences dans les réseaux d'organisations de connexion et modifier la topologie du réseau de systèmes étendus. Les tests d'évaluation seront effectués jusqu'en Février 2016 une grande variété d'environnements de catastrophe grâce à la collaboration avec les sociétés qui développent des logiciels pour le projet. Les résultats expérimentaux seront renvoyés à ces sociétés, qui devraient contribuer à l'amélioration de la qualité des produits. Ce projet se poursuivra la recherche et le développement vers la mise en place d'une technologie plus pratique par la promotion de la normalisation internationale en ce qui concerne les méthodes de contrôle du RPS de cette plate-forme d'évaluation, la création d'un consortium pour accroître la sensibilisation sociale sur la prévention des catastrophes du réseau, et en augmentant le nombre de plates-formes.

Nouvelles méthodes pour plus de services internet à haut rendement énergétique

Des milliards de personnes utilisent l'Internet, ce qui nécessite d'énormes centres de données et les résultats d'une consommation d'énergie énorme. Dans sa thèse de doctorat à l'Université d'Umeå en Suède, Mina Sedaghat a développé des techniques et des algorithmes pour gérer et planifier les ressources dans ces grands centres de données à un coût moindre, une plus grande efficacité, une plus grande fiabilité et avec un faible impact environnemental.
pop-vidéo coréen, Gangnam Style disponible sur YouTube a eu 2,5 milliards de téléspectateurs, ce qui se traduit par une consommation d'énergie de plus de 400 GWh. Si, dans le pire des cas, l'électricité pour servir une telle demande est générée par le diesel, cela signifierait que plus de 250.000 tonnes de CO2 seraient produites, ce qui équivaut à plus de 100.000 voitures par an.
Ces exemples ne sont pas rares. Des millions de personnes utilisent différents services tels que Google, Facebook, Twitter et Instagram, tous les jours. Cette augmentation de l'utilisation d'Internet et les informations générées par près d'un milliard de personnes implique de grands centres de données avec rangée après rangée de serveurs, ce qui nécessite énormément d'espace, d'électricité et de refroidissement.
La thèse présente les méthodes et les techniques à utiliser efficacement les serveurs dans les centres de données, de sorte que la charge peut être servi avec moins de ressources.
Qu’est- ce que la technologie peut être utilisée?
"Il pourrait être optimisé des systèmes de planification d'emballage plusieurs composants logiciels dans quelques serveurs d'une manière qui permet d'utiliser pleinement les processeurs, la mémoire, la bande passante, la capacité du réseau et d'autres ressources. De cette façon, l'efficacité énergétique peut être améliorée en réduisant l'impact négatif sur l'environnement, et en même temps de réduire les coûts d'exploitation », explique Mina Sedaghat.
La recherche menant à la dissertation de Sedaghat a été menée en collaboration avec plusieurs personnes chez Google Inc., Départements de mathématiques et de statistique mathématique à l'Université d'Umeå, et le Département de la communication réseau à l'Institut royal de technologie (KTH) en Suède.

Open-source GPU pourrait pousser la puissance de calcul au niveau suivant

Des chercheurs de l'Université de Binghamton sont devenus les premiers à utiliser une unité de processeur graphique open-source (GPU) pour la recherche.

Binghamton University informatique professeur adjoint Timothy Miller, Aaron Carpenter et étudiant diplômé Philip Dexterm, ainsi que co-auteur Jeff Bush, ont développé Nyami, un graphique synthétisables unité de traitement (GPU) modèle architectural pour les charges de travail à usage général et de graphiques spécifiques. Ceci marque la première fois qu'une équipe a pris une conception de GPU open-source et exécuter une série d'expériences sur elle pour voir comment les configurations matérielles et logicielles différentes auraient une incidence sur la performance du circuit.

Selon Miller, les résultats aideront les autres scientifiques font leurs propres GPU et pousser la puissance de calcul au niveau suivant.

"En tant que chercheur, il est important de disposer d'outils permettant d'évaluer de manière réaliste de nouvelles idées qui peuvent améliorer la performance, l'efficacité énergétique, ou d'autres défis dans l'architecture du processeur», a déclaré Miller. "Bien que les simulateurs peuvent prendre des raccourcis, un processeur open source synthétisable réelle ne peut pas couper les coins, de sorte que nous pouvons dire que les résultats expérimentaux que nous obtenons sont particulièrement fiables."

GPU existent depuis environ 40 ans et sont généralement trouvés sur les cartes vidéo ou graphiques commerciaux à l'intérieur d'un ordinateur ou console de jeux. Les circuits spécialisés ont une puissance de calcul conçu pour rendre les images apparaissent plus lisse et plus dynamique sur un écran. Il a récemment été un mouvement pour voir si la puce peut être appliquée à des calculs non graphiques tels que des algorithmes de traitement de gros blocs de données.

"Nous ne sommes pas nécessairement à la recherche de la nouveauté dans les résultats, tant que nous voulions créer un nouvel outil, puis montrer comment il pourrait être utilisé", a déclaré Carpenter. «J'espère que les gens expérimentent plus efficacement sur les GPU, comme les deux amateurs et les chercheurs, la création d'une conception plus efficace pour les GPU à venir."

Le GPU open-source que l'équipe de Binghamton utilisée pour leur recherche a été le premier de son genre. Bien que des milliers de GPU soient produites chaque année dans le commerce, c'est la première qui peut être modifié par les amateurs et les chercheurs pour avoir une idée de la façon dont les changements peuvent affecter les puces traditionnelles. Bush, le directeur de l'ingénierie logicielle à Roku, a été l'auteur principal de l'article.

"Il était mauvais pour la communauté open-source qui GPU fabricants avaient tous décidé de garder leurs spécifications de la puce secrète. Cela a empêché les développeurs open source de logiciel qui pourrait utiliser ce matériel écrit», a déclaré Miller. Miller a commencé à travailler sur des projets similaires en 2004, tandis que Bush a commencé à travailler sur Nyami en 2010. "Cela rend plus facile pour d'autres chercheurs de mener des expériences de leur propre, parce qu'ils ne disposent pas de réinventer la roue. Avec les contributions de l' 'open matériel communautaire », nous pouvons incorporer des idées plus créatives et de produire un outil de plus en plus".

Les ramifications de ces résultats pourraient rendre les processeurs plus facile pour les chercheurs de travailler avec et d'explorer différents compromis de conception. Dexter, Miller, Carpenter et Bush ont ouvert une nouvelle route qui pourrait mener à des découvertes qui touchent tout de Voyage espace à la chirurgie cardiaque.

«J'ai une liste d'idées de recherche de papier, nous pouvons explorer en utilisant Nyuzi [la puce a depuis été renommé], en se concentrant sur les différents goulots d'étranglement de performance. L'idée est de chercher des choses qui rendent Nyuzi inefficace par rapport à d'autres GPU et répondre à ceux que problèmes de recherche. Nous pouvons également utiliser Nyuzi comme plate-forme pour mener des recherches qui ne sont pas spécifiques au GPU, comme l'efficacité énergétique et de fiabilité », a déclaré Miller.

Le document, "Nyami: Un GPU Modèle Architectural synthétisable pour usage général et graphiques spécifiques au Workloads» paru dans Symposium international sur l’analyse de la performance des systèmes et des logiciels. Il peut être consulté à l’adresse:

La technologie des médias sociaux, plutôt que l'anonymat, est le problème

Les problèmes de comportement anti-social, la vie privée et la liberté d'expression sur les médias sociaux ne sont pas causés par l'anonymat, mais plutôt le résultat de la technologie ne change rien à notre présence.

Telle est la conclusion surprenante d'un nouveau livre par le Dr Vincent Miller, sociologue à l'Université de Kent et un expert sur la société de l'information et des médias en développement.

En soutenant que la cause des problèmes tels que le comportement anti-social en ligne est la conception / logiciel des médias sociaux lui-même, le Dr Miller suggère que l'architecture des médias sociaux doit être gérée et planifiée de la même manière que l'architecture physique. Dans le livre, intitulé La crise de la présence dans la culture contemporaine: éthique, vie privée et la parole dans Mediated Vie sociale, le Dr Miller examine la relation entre la liberté fournie par le monde en ligne contemporaine et le contrôle, la surveillance et la censure qui opèrent dans cet environnement.

Le livre remet en question les origines et la sincérité des paniques morales sur l'utilisation - et les abus - dans l'environnement en ligne contemporaine et propose une analyse de l'éthique, la vie privée et la liberté d'expression dans ce cadre.

Enquête sur les défis éthiques qui se posent à notre culture de plus en plus numérique, Dr Miller suggère un certain nombre de révisions à nos régimes éthiques, juridiques et technologiques pour répondre à ces défis.

Ceux-ci y compris changer ce qu'il décrit comme le logiciel «déshumanisante» des médias sociaux, en élargissant la notion de nos «moi» ou «corps» à inclure nos traces numériques, et la réintroduction du «temps» dans les médias sociaux par la création de 'expiration dates sur les communications des médias sociaux.

Dr Miller est maître de conférences en sociologie et études culturelles au sein de l'École de la politique sociale de la recherche sociale, sociologie et de l'Université. La crise de la présence dans la culture contemporaine: l'éthique, la confidentialité et de la parole dans Mediated Vie sociale, est publié par Sage.

Livrer l'Internet du futur, à la vitesse de la lumière et open-source

Une nouvelle recherche a trouvé, pour la première fois, une solution scientifique qui permet future infrastructure Internet pour devenir complètement ouvert et programmable tout en transportant le trafic Internet à la vitesse de la lumière.
Les recherches menées par les réseaux de haute performance groupe (HPN) à l'Université du Département de Bristol de génie électrique et électronique est publié en première revue scientifique Philosophical Transactions du monde de la Royal Society A.
L'infrastructure Internet actuelle n'est pas en mesure de soutenir le développement indépendant et de l'innovation à des fonctionnalités physiques et la couche réseau, les protocoles et les services, tout en soutenant les besoins en bande passante de plus en plus de changer et de diverses applications.
La recherche aborde ce problème avec une nouvelle infrastructure réseau haute performance qui est ouverte et programmable et utilise la lumière pour transporter le trafic Internet. Il introduit de nouveaux concepts d'Internet optique open source activée par boîte blanche optique et logiciel défini technologies de réseau
Dr Reza Nejabati, Reader dans les réseaux optiques du groupe HPN, a déclaré: «Les technologies matérielles et logicielles rapportées dans le présent document peuvent potentiellement révolutionner l'infrastructure de réseau optique de la même manière que Google Android et Apple iOS ont fait pour les téléphones mobiles Ces technologies se cachent la complexité de. Les réseaux optiques et les ouvrir pour les programmeurs traditionnels et les développeurs d'applications pour créer un nouveau type d'applications Internet prenant avantages de la vitesse de la lumière ".
Dimitra Simeonid ou, professeur de réseaux haute performance et qui dirige le groupe HPN, a ajouté: «Les nouvelles technologies Internet apparaissent fréquemment, mais la plupart d'entre eux donnent rarement lieu à de nouvelles et révolutionnaires applications Internet Les technologies proposées pourraient ouvrir la voie à la création de nouvelles Internet. Les services et applications non encore possibles ou perturbateurs. Les technologies pourraient également potentiellement changer l'équilibre du pouvoir des vendeurs et les opérateurs qui monopolisent l'infrastructure Internet actuelle pour les utilisateurs plus larges et les fournisseurs de services. "

Solution globale de logiciels pour les réparations routières, l'eau et d'égout

La grande fouille: Solution globale de logiciels pour les réparations routières, l'eau et d'égout
Les chercheurs développent un programme simplifié pour intégrer l'information de l'infrastructure à clé
 Toujours avoir votre rue repaved un an, seulement de l'avoir déchiré pour le travail des eaux usées peu de temps après? bévues municipales comme celui-ci pourrait bientôt être une chose du passé, grâce à un nouveau logiciel développé par des chercheurs de l'Université Concordia à Montréal.
Dans un article publié récemment dans le Journal of Construction Engineering Management, ancien étudiant diplômé Khaled Shahata et Tarek Zayed, professeur au Département de bâtiment, génie civil et environnemental, décrire une méthode innovante de suivi des nombreuses questions soulevées à la réparation et le renouvellement de la route, l'eau et les réseaux d'égouts.
"Le principal problème est que les planificateurs de l'infrastructure de la ville travaillent souvent dans des silos», dit Zayed, auteur principal de l'étude. "Lorsque l'infrastructure partage le même espace, l'intégration des routes, de l'eau et des eaux usées est un enjeu majeur de la planification."
En combinant une grande variété de variables pour les réseaux d'eau, d'égouts et de la route, le logiciel développé par Zayed et Shahata décompose ces silos. Elle identifie les facteurs de risque et les conséquences de l'échec d'un projet visant à cartographier les zones qui ont le plus besoin d'attention, ainsi que là où seraient alloués plus efficacement les ressources.
Cette solution logicielle ne vient pas trop tôt.
«L'approvisionnement en eau et d'égout à travers l'Amérique du Nord ont atteint un point où l'entretien et le renouvellement est essentiel», dit Shahata, qui a mené la recherche au cours de ses études supérieures à l'Université Concordia. Il est maintenant un spécialiste de la gestion d'actifs pour la ville de London, en Ontario.
"La plupart des infrastructures de l'eau potable arrive à la fin de sa vie utile," dit Shahata.
«Quarante-deux pour cent des principales autoroutes urbaines de l'Amérique sont congestionnées, et les trois quarts des systèmes d'eaux usées ont besoin tuyau de réparation. Il est pas beaucoup mieux au Canada, où environ 30 pour cent des infrastructures municipales a été évaluée entre juste et très pauvre."
Alors que la réparation des infrastructures et de réhabilitation est constamment en cours dans les villes à travers le continent, réalisant que le travail n’est pas toujours si facile. Des questions telles que la réduction des budgets, risques pour la santé, les préoccupations environnementales et l'entretien sont des obstacles majeurs.
Zayed estime que le logiciel, qui a été initialement mis en œuvre un projet pilote pour la ville de Guelph, pourrait bientôt être utilisé par les municipalités à travers le monde.
"Ces problèmes sont communs dans les villes à travers le monde», dit-il. "En utilisant ce logiciel, nous enlevons les questions de planification qui existent souvent entre ces entités distinctes et considérons les problèmes d'infrastructure d'une ville plus globale.
"Le résultat final est un processus de réparation et de réhabilitation plus simple qui utilise le budget disponible de la manière la plus efficace possible."