-Anatomie et physiologie • Animaux et l'environnement • culture generale • economie • flore et ses bienfaits • Internet et Informatique • L'alimentation et la nutrition • La Biologie • Le mésothéliome • Les épices • Les fruits et légumes • Les vitamines • Maladies & Affections • Médecine et traitements • Médicaments • monde technologique • remèdes naturels • Santé et Bien-être • sciences et génie -orange

jeudi 14 mars 2013

Qu'est-ce que la translocation chromosomique?

Un chromosome est un brin d'ADN et de protéines liées qui existent dans les noyaux de cellules eucaryotes et portent les gènes de l'organisme. Le matériel génétique humain est constitué de 46 chromosomes, 23 de chaque parent. La translocation chromosomique désigne le transfert d'une portion d'un chromosome à un autre emplacement sur le même chromosome ou à une position sur un chromosome non homologue. Lorsque survient une translocation chromosomique impliquant un seul chromosome, il est considéré comme un changement. Les recherches ont révélé que les translocations ont eu lieu dans l'évolution, mais la plupart des translocations ne fournissent pas un avantage adaptatif pour l'organisme.

Les translocations ont été observées vers la fin du dix-neuvième siècle, et ils ont souvent vu dans les tumeurs cancéreuses, où ils ont depuis été montrés pour être commun. D'autres recherches ont montré lien entre translocation chromosomique et une variété de troubles. Par exemple, un type particulier de translocation chromosomique appelée «translocation robertsonienne" se produit fréquemment chez les patients atteints du syndrome de Down familiale. Ceci est différent de la forme la plus commune du syndrome de Down dans lequel le patient a 47 chromosomes en raison d'une copie supplémentaire du chromosome 21. Les patients atteints du syndrome de Down familiale ont souvent hérité de la translocation robertsonienne d'un parent qui n'a que 45 chromosomes, mais n'est pas affectée.

La translocation équilibrée se produit lorsque des morceaux de deux chromosomes lieux d'échange. En translocation équilibrée, tout le matériel génétique qui doit être présent est, en fait, le présent et l'individu est susceptible de ne pas manifester des problèmes de santé. Si une personne ayant une translocation chromosomique équilibrée a un enfant et un seul des chromosomes avec la translocation est transmis, l'enfant sera absent du matériel génétique et ont trois exemplaires, au lieu de deux, d'autres matériels. C'est ce qu'on appelle une translocation déséquilibrée.

La translocation chromosomique équilibrée est estimée à se produire dans un cas sur 625 personnes. Bien que ces personnes sont susceptibles d'être en bonne santé, ils ont un risque accru d'éprouver une variété de problèmes de reproduction, y compris une fausse couche, une mortinaissance, l'infertilité et la prestation d'un enfant avec des malformations congénitales. Des conseils et des tests génétiques peuvent aider à déterminer quelle est la situation.

Un outil d'investigation pour le dépistage translocations est appelé Multi-Color Florescence hybridation in situ (FISH multicolore), également connu sous le caryotype spectral. Il est utilisé pour les diagnostics de cancer et peut montrer des translocations petits qui ne seraient pas autrement être vu. Colorés au Giemsa caryotypes est un autre outil d'analyse.

Quelle est un métal Amorphe?

Un métal amorphe est un métal avec une structure désordonnée atomique, à la différence de la plupart des métaux, qui ont une structure régulière. Ces substances sont également appelés verres métalliques, parce que une façon de rendre les métaux amorphes ressemble à la procédure pour la fabrication du verre, en métal mais en utilisant à la place de la silice. Des études indiquent que les métaux amorphes peuvent être plus de deux fois plus forte que le métal normal, et sont idéales pour l'armure militaire, pesant le même métal ordinaire. En raison de la structure désordonnée du matériau, il est aussi plus résistant à la corrosion et à l'usure.

Les métaux amorphes ont d'abord été créés à Caltech par Pol Duwez en 1957. Duwez créée le métal amorphe par refroidissement d'un alliage (Au80Si20) à partir d'un état liquide en vertu d'une fraction de seconde. La vitesse de refroidissement dû dépasser un million de degrés Kelvin par seconde, de m
Un métal amorphe est un métal avec une structure désordonnée atomique, à la différence de la plupart des métaux, qui ont une structure régulière. Ces substances sont également appelés verres métalliques, parce que une façon de rendre les métaux amorphes ressemble à la procédure pour la fabrication du verre, en métal mais en utilisant à la place de la silice. Des études indiquent que les métaux amorphes peuvent être plus de deux fois plus forte que le métal normal, et sont idéales pour l'armure militaire, pesant le même métal ordinaire. En raison de la structure désordonnée du matériau, il est aussi plus résistant à la corrosion et à l'usure.

Les métaux amorphes ont d'abord été créés à Caltech par Pol Duwez en 1957. Duwez créée le métal amorphe par refroidissement d'un alliage (Au80Si20) à partir d'un état liquide en vertu d'une fraction de seconde. La vitesse de refroidissement dû dépasser un million de degrés Kelvin par seconde, de manière à refroidir le métal à l'état liquide à un état solide devait se produire en quelques millisecondes. Le refroidissement aussi rapidement empêché le métal de cristalliser comme un métal typique, ce qui lui donne sa structure unique amorphe. Au début, les formes de métal amorphe ont été limitées, principalement constitué de minces rubans, feuilles et fils. Ces contraintes ont été imposées par la nécessité d'une vitesse de refroidissement rapide.

Le métal amorphe adapté à la commercialisation a été faite en 1976 par C. Graham et H. Liebermann. Ils ont utilisé une surfusion rotation rapide roue pour créer grandes quantités de métal amorphe adapté à faibles pertes des transformateurs de distribution électriques, commercialisés sous les noms de Metglas. Le métal amorphe peut être magnétisé et démagnétisé rapidement, conduisant à des économies d'énergie lorsqu'il est utilisé dans les transformateurs sur le réseau électrique. 70-80% moins de puissance est consommée par les transformateurs de métaux amorphes, la réduction des émissions de CO2 et d'économie d'énergie. Aujourd'hui, les transformateurs métaux amorphes sont largement utilisés en Inde et en Chine, où ils ont été utilisés avec succès pour réduire les émissions de gaz à effet de serre.

Tout au long des années 1980, les scientifiques ont expérimenté avec des matériaux différents alliages, pour diminuer la vitesse de refroidissement nécessaire pour créer les métaux amorphes. Ils ont réussi à faire baisser le taux de refroidissement critique de centaines de Kelvins par seconde à un seul Kelvin par seconde, ce qui rend la fabrication de verres métalliques massifs plus réalisable. En 2004, les chercheurs ont réussi à acier amorphe en vrac, ouvrant la voie à une plus large commercialisation de la matière.

anière à refroidir le métal à l'état liquide à un état solide devait se produire en quelques millisecondes. Le refroidissement aussi rapidement empêché le métal de cristalliser comme un métal typique, ce qui lui donne sa structure unique amorphe. Au début, les formes de métal amorphe ont été limitées, principalement constitué de minces rubans, feuilles et fils. Ces contraintes ont été imposées par la nécessité d'une vitesse de refroidissement rapide.

Le métal amorphe adapté à la commercialisation a été faite en 1976 par C. Graham et H. Liebermann. Ils ont utilisé une surfusion rotation rapide roue pour créer grandes quantités de métal amorphe adapté à faibles pertes des transformateurs de distribution électriques, commercialisés sous les noms de Metglas. Le métal amorphe peut être magnétisé et démagnétisé rapidement, conduisant à des économies d'énergie lorsqu'il est utilisé dans les transformateurs sur le réseau électrique. 70-80% moins de puissance est consommée par les transformateurs de métaux amorphes, la réduction des émissions de CO2 et d'économie d'énergie. Aujourd'hui, les transformateurs métaux amorphes sont largement utilisés en Inde et en Chine, où ils ont été utilisés avec succès pour réduire les émissions de gaz à effet de serre.

Tout au long des années 1980, les scientifiques ont expérimenté avec des matériaux différents alliages, pour diminuer la vitesse de refroidissement nécessaire pour créer les métaux amorphes. Ils ont réussi à faire baisser le taux de refroidissement critique de centaines de Kelvins par seconde à un seul Kelvin par seconde, ce qui rend la fabrication de verres métalliques massifs plus réalisable. En 2004, les chercheurs ont réussi à acier amorphe en vrac, ouvrant la voie à une plus large commercialisation de la matière.

Qu'est-ce qu'un test de matériaux?


 Un test de matériaux est un processus de test, dans lequel les propriétés d'un matériau sont évaluées. Loin d'être un test, essais de matériaux sont généralement très longues procédures qui impliquent une évaluation détaillée, avec l'objectif d'apprendre autant que possible sur le matériel. Essais de matériaux est requise par la loi dans de nombreuses régions du monde pour de nouveaux produits qui vont être mis sur le marché, et ces tests sont aussi régulièrement effectuées sur les produits plus anciens.
Essais de matériaux commence généralement par l'évaluation des propriétés de base de la matière. Le matériau est également mis à rude épreuve pour une analyse de défaillance, et de déterminer si oui ou non il est inflammable, quels types de conditions peuvent amener à devenir dangereux, combien de poids elle peut supporter, et si oui ou non il peut résister à des produits chimiques caustiques. Essais de matériaux comprend une analyse des propriétés physiques et chimiques, en regardant tout de ce matériau est fabriqué à partir de la façon dont il conduit l'électricité.
Depuis de nombreuses nations ont des normes de sécurité étendues qui régissent les produits vendus aux consommateurs, un test de matériaux comprend également des tests qui visent à déterminer si oui ou non un produit répond à ces normes. Par exemple, un jouet d'enfant devrait être testés pour voir si elle peut être un risque d'étouffement, ou pour déterminer si oui ou non le plastique est fabriqué à partir de gaz résiduels, libérant des produits chimiques nocifs qui pourraient blesser un enfant. Essais de matériaux aussi inclure des évaluations de peintures, de revêtements et tous les composants pour vérifier les choses qui pourraient être dangereux.
Ce type de test est effectué dans un laboratoire hautement contrôlé qui défend rigoureusement les normes. Les laboratoires doivent généralement respecter les normes établies par les organes tels que l'American Society for Testing and Materials (ASTM), veille à ce que des tests dans n'importe quel laboratoire sera tout aussi rigoureuse et aussi reproductible. Labs généralement aussi se spécialiser dans un domaine particulier de méthodes d'essai des matériaux, tels que les essais électriques, les essais matières plastiques, etc.
En plus d'être réalisé pour la sécurité, un test de matériaux peut également être effectué à des fins d'assurance de la qualité. Les produits qui ont été défrichées pour la vente peut être de nouveau testés pour confirmer qu'ils sont toujours de la même qualité et à vérifier les signes de falsification ou de modifications qui pourraient rendre ainsi impropres. L'assurance qualité peut également inclure des activités telles que l'étalonnage lors d'un test de matériaux pour confirmer que les instruments de mesure sont les choses correctement, et des tests pour confirmer que le processus de fabrication est vraiment standardisée, veillant à ce que chaque produit est le même.
Ecrit par: S.E. Forgeron
Edité par: O. Wallace

Quels sont biométrie d'empreintes digitales?

Un métal amorphe est un métal avec une structure désordonnée atomique, à la différence de la plupart des métaux, qui ont une structure régulière. Ces substances sont également appelés verres métalliques, parce que une façon de rendre les métaux amorphes ressemble à la procédure pour la fabrication du verre, en métal mais en utilisant à la place de la silice. Des études indiquent que les métaux amorphes peuvent être plus de deux fois plus forte que le métal normal, et sont idéales pour l'armure militaire, pesant le même métal ordinaire. En raison de la structure désordonnée du matériau, il est aussi plus résistant à la corrosion et à l'usure.

Les métaux amorphes ont d'abord été créés à Caltech par Pol Duwez en 1957. Duwez créée le métal amorphe par refroidissement d'un alliage (Au80Si20) à partir d'un état liquide en vertu d'une fraction de seconde. La vitesse de refroidissement dû dépasser un million de degrés Kelvin par seconde, de m
Un métal amorphe est un métal avec une structure désordonnée atomique, à la différence de la plupart des métaux, qui ont une structure régulière. Ces substances sont également appelés verres métalliques, parce que une façon de rendre les métaux amorphes ressemble à la procédure pour la fabrication du verre, en métal mais en utilisant à la place de la silice. Des études indiquent que les métaux amorphes peuvent être plus de deux fois plus forte que le métal normal, et sont idéales pour l'armure militaire, pesant le même métal ordinaire. En raison de la structure désordonnée du matériau, il est aussi plus résistant à la corrosion et à l'usure.

Les métaux amorphes ont d'abord été créés à Caltech par Pol Duwez en 1957. Duwez créée le métal amorphe par refroidissement d'un alliage (Au80Si20) à partir d'un état liquide en vertu d'une fraction de seconde. La vitesse de refroidissement dû dépasser un million de degrés Kelvin par seconde, de manière à refroidir le métal à l'état liquide à un état solide devait se produire en quelques millisecondes. Le refroidissement aussi rapidement empêché le métal de cristalliser comme un métal typique, ce qui lui donne sa structure unique amorphe. Au début, les formes de métal amorphe ont été limitées, principalement constitué de minces rubans, feuilles et fils. Ces contraintes ont été imposées par la nécessité d'une vitesse de refroidissement rapide.

Le métal amorphe adapté à la commercialisation a été faite en 1976 par C. Graham et H. Liebermann. Ils ont utilisé une surfusion rotation rapide roue pour créer grandes quantités de métal amorphe adapté à faibles pertes des transformateurs de distribution électriques, commercialisés sous les noms de Metglas. Le métal amorphe peut être magnétisé et démagnétisé rapidement, conduisant à des économies d'énergie lorsqu'il est utilisé dans les transformateurs sur le réseau électrique. 70-80% moins de puissance est consommée par les transformateurs de métaux amorphes, la réduction des émissions de CO2 et d'économie d'énergie. Aujourd'hui, les transformateurs métaux amorphes sont largement utilisés en Inde et en Chine, où ils ont été utilisés avec succès pour réduire les émissions de gaz à effet de serre.

Tout au long des années 1980, les scientifiques ont expérimenté avec des matériaux différents alliages, pour diminuer la vitesse de refroidissement nécessaire pour créer les métaux amorphes. Ils ont réussi à faire baisser le taux de refroidissement critique de centaines de Kelvins par seconde à un seul Kelvin par seconde, ce qui rend la fabrication de verres métalliques massifs plus réalisable. En 2004, les chercheurs ont réussi à acier amorphe en vrac, ouvrant la voie à une plus large commercialisation de la matière.

anière à refroidir le métal à l'état liquide à un état solide devait se produire en quelques millisecondes. Le refroidissement aussi rapidement empêché le métal de cristalliser comme un métal typique, ce qui lui donne sa structure unique amorphe. Au début, les formes de métal amorphe ont été limitées, principalement constitué de minces rubans, feuilles et fils. Ces contraintes ont été imposées par la nécessité d'une vitesse de refroidissement rapide.

Le métal amorphe adapté à la commercialisation a été faite en 1976 par C. Graham et H. Liebermann. Ils ont utilisé une surfusion rotation rapide roue pour créer grandes quantités de métal amorphe adapté à faibles pertes des transformateurs de distribution électriques, commercialisés sous les noms de Metglas. Le métal amorphe peut être magnétisé et démagnétisé rapidement, conduisant à des économies d'énergie lorsqu'il est utilisé dans les transformateurs sur le réseau électrique. 70-80% moins de puissance est consommée par les transformateurs de métaux amorphes, la réduction des émissions de CO2 et d'économie d'énergie. Aujourd'hui, les transformateurs métaux amorphes sont largement utilisés en Inde et en Chine, où ils ont été utilisés avec succès pour réduire les émissions de gaz à effet de serre.

Tout au long des années 1980, les scientifiques ont expérimenté avec des matériaux différents alliages, pour diminuer la vitesse de refroidissement nécessaire pour créer les métaux amorphes. Ils ont réussi à faire baisser le taux de refroidissement critique de centaines de Kelvins par seconde à un seul Kelvin par seconde, ce qui rend la fabrication de verres métalliques massifs plus réalisable. En 2004, les chercheurs ont réussi à acier amorphe en vrac, ouvrant la voie à une plus large commercialisation de la matière.

Qu'est-ce que le jatropha?

Le Jatropha est un genre de plantes, d'arbres et arbustes indigènes de l'Amérique du Sud et dans les Caraïbes. De 175 espèces environ sont placés dans ce genre. Il ya un certain nombre d'utilisations pour le jatropha, allant de composés qui peuvent être utilisés comme des teintures végétales aux huiles qui peuvent être utilisées dans la production de biocarburants. Certains défenseurs des carburants de remplacement ont défendu jatropha comme source de biodiesel potentiel, bien qu'il y ait des raisons de croire qu'il existe de meilleures alternatives.

Ces plantes sont dans la famille des Euphorbiaceae. Comme d'autres plantes de cette famille, ils contiennent un certain nombre de composés qui sont toxiques, avec un collant, le lait sève blanche qui agit comme un irritant pour la peau. Les membres du genre Jatropha ont également graines sont extrêmement toxiques, il ne faut trois pour tuer un adulte en plein développement. En dépit de la toxicité, certaines cultures ont utilisé des pièces d'espèces de Jatropha dans la médecine traditionnelle et la cuisine, et la recherche indique que certaines espèces peuvent contenir des composés qui sont utiles en médecine.

En apparence, ce genre est très diversifié. Toutes les espèces ont des grappes de petites fleurs distinctes, et ils sont classés comme des plantes succulentes, avec des tiges charnues qui sont conçus pour supporter des conditions météorologiques extrêmes. Certaines plantes sont basses des arbustes, tandis que d'autres se développent plus droit, et ils peuvent être touffue à s'amincir. Un avantage majeur pour les personnes qui cultivent des espèces de Jatropha est le fait qu'ils prospèrent dans des sols pauvres, et ils peuvent supporter des basses eaux et semi-sécheresse.

Historiquement, plusieurs espèces ont été cultivées comme des couvertures. Les éspèces de Jatropha avec des composés qui peuvent être utilisés comme colorants ont été utilisés par plusieurs tribus amérindiennes pour produire des couleurs comme le rouge et le bleu, et au Mexique, le jatropha a été utilisé dans la fabrication de paniers traditionnels et le tissage.

L'huile extraite des graines peuvent être utilisées dans la production de savon et les bougies, et comme biocarburant. Huile pure peut être brûlé dans les moteurs de nombreuses telle qu'elle est, et il peut également être affinée. Les tests de l'huile ont montré qu'il peut être utilisé pour les trains électriques, des avions, des automobiles et de nombreux. Toutefois, étant donné qu'aucune espèce n’a été domestiquée, il est difficile d'obtenir un rendement fiable. Jatropha curcus est l'une des espèces les plus prometteuses, et il peut être trouvé en culture dans de nombreuses parties de l'Afrique et de l'Inde.

En plus d'être utilisé comme source de biocarburant, les plantes de ce genre peuvent également être utilisées comme biomasse dans des centrales électriques, avec le reste de la plante, après pressage de l'huile d'être brûlé pour l'énergie. Cela rend l'utilisation du jatropha très efficace, car il peut être cultivé dans des zones où d'autres plantes ne pourront prospérer, et la plante entière peut être utilisée.


Qu'est-ce qu'une boucle à induction?


La boucle d'induction est une forme de technologie utilisée pour une variété de fins qui repose sur la découverte de Michael Faraday de la loi de l'induction, aussi connu comme la loi de Faraday, en 1831. Le principe est basé sur les propriétés magnétiques et électriques double de champs électromagnétiques qui sont générés dans les circuits électriques. Un exemple courant où une boucle d'induction est utilisée à partir de 2011 est en câbles électriques enterrés aux intersections de la circulation automobile. Un passage régulier du courant à travers le champ sera perturbée quand des métaux ferreux tels que l'acier est à proximité de lui et cela peut être utilisé pour déclencher des contrôles des feux de circulation. Boucles d'induction sont également de plus en plus répandue pour répondre aux besoins des personnes qui sont malentendantes et s'appuient sur appareils de correction auditive.
Le cadre en acier d'une voiture ainsi que des véhicules plus légers comme les bicyclettes va perturber la circulation du courant dans une boucle d'induction comme ils se déplacent jusqu'à une intersection traversée. Ces intersections sont fournis avec des boucles qui permettent de détecter combien de véhicules sont en ligne, et d'ajuster la fréquence du signal pour améliorer la circulation. Si ce n'est pas le seul moyen de contrôler le trafic automatiquement aux intersections, il est considéré comme plus pratique et peu coûteuse que les méthodes qui utilisent des caméras ou de la chaleur à base de capteurs infrarouges montés sur les feux de signalisation pour détecter les véhicules eux-mêmes.
La puissance de boucles d'induction de contrôle du trafic est amplifié par l'utilisation de matériaux très conducteurs pour les fils de la boucle tel que le fer, l'acier et le cuivre, et en
plaçant les câbles d'inductance qui se chevauchent les uns sur les autres en une série de cercles de fil légèrement décentrés ou rectangles. Ceci est utile pour détecter les vélos ou les motos car ils ont une masse métallique beaucoup plus petit total que les voitures ou les camions font. La fréquence de telles boucles est généralement de l'ordre de 20.000 à 30.000 Hertz, et, quand une voiture ou d'un autre objet conducteur passe sur eux, le champ magnétique présent dans la boucle d'induction est amplifié par le métal supplémentaire, qui agit comme une base étendu pour le câblage lui-même. Cette amplification magnétique empêche la circulation du courant électrique dans la boucle car elle agit comme une sorte de rupture sur l'inductance de courant alternatif standard (AS) est utilisé. Ces changements sont surveillés par des circuits de contrôle pour enregistrer combien de voitures sont présentes, ou un niveau général, en masse métallique à chaque point de croisement dans un feu de circulation, de sorte que les lumières peuvent être modifiés en conséquence.
Une autre application commune à partir de 2011 pour le principe de la boucle à induction est celle d'un appareil d'ambiance à base d'accroître l'efficacité des aides auditives. Une boucle de fil est généralement exécutée sur le pourtour d'une pièce où des conférences et autres rassemblements ont lieu qui est connu comme une boucle d'induction audio-fréquence (AFIL). Ils peuvent aussi être placés autour du périmètre intérieur de la voiture, et, au Royaume-Uni, ils sont obligatoires dans tous les taxis publics. La technologie des appareils auditifs qui puise dans la boucle d'induction pour amplifier les sons a été initialement conçu pour capter le champ magnétique généré par un téléphone pour amplifier le signal sonore, et était connu comme un commutateur téléphonique ou bobine sur l'aide auditive.
Comme quelqu'un parle dans un microphone, une chambre ou comme chauffeur de taxi, la boucle d'induction affiche modifications correspondantes dans son champ magnétique, ce qui l'aide auditive capte et traduit en sons. Ceci est important pour les malentendants, les appareils auditifs sont souvent inefficaces à la réalisation des sons précis à partir d'une distance à l'utilisateur. Comme une onde sonore devient de plus en plus lointain, ses éléments de fréquences plus élevées qui rendent fondu discours compréhensible loin, de même que le volume global. Ceci, ainsi que le bruit de fond avec une distorsion mélangé, sont des éléments de son pour laquelle les aides auditives ne peuvent pas compenser, et une boucle d'induction dans une salle annule ces effets simultanément pour tout le monde dans la salle qui utilise un appareil auditif.
Ecrit par: Ray Faucon
Modifié par: E. E. Hubbard

Qu'est-ce qu'un Microscope USB?


Un microscope USB se branche directement sur votre ordinateur, vous permettant d'utiliser votre moniteur pour voir les images plutôt que d'avoir à regarder à travers l'oculaire. Le dispositif est parfois appelé un microscope ordinateur ou ordinateur connecté microscope. Avec les microscopes les plus USB que vous serez en mesure de stocker de façon permanente les images sous forme de fichiers d'images, ou même un clip vidéo. Cela vous permet de partager ce que vous voyez avec d'autres utilisateurs.
L'un des principaux points à vérifier lors de l'achat d'un microscope USB est la résolution. Cela peut varier d'un modèle à l', généralement en fonction du prix. L'achat d'un modèle moins cher peut se révéler une fausse économie si une image de bonne qualité est importante pour vous.
Comme les appareils photo numériques, vous aurez besoin de prendre soin de vérifier que les chiffres indiqués se rapportent au règlement. Une mesure est la résolution optique, parfois connu sous le nom de résolution native. C'est littéralement le nombre de pixels du capteur d'image et ce chiffre affecte la clarté de l'image qui en résulte est, en particulier si plus tard vous l'agrandir.
La deuxième mesure commune est connue comme la résolution interpolée. Cela vous indique combien détaillée une image au microscope peut produire en créant artificiellement des pixels supplémentaires à l'image et sur la meilleure estimation de couleur pour les faire de sorte qu'ils s'adaptent à leur environnement. Cela peut être utile si vous souhaitez imprimer des photos plus grandes sans aucun flou. Cependant, parce que c'est une méthode artificielle, vous ne verrez pas l'image réelle de l'objet que vous avez mis sous le microscope.
Vous devriez également vérifier la taille des images ou des vidéos au microscope USB peut produire. Rappelez-vous que la taille totale augmente à une plus grande proportion que les dimensions elles-mêmes. Par exemple, en passant de 640x480 pixels à 1280x960 pixels vous donne une image quatre fois plus grande, et non pas deux fois plus grand.
Vérifiez que les images et les vidéos créées par un microscope USB sont dans un format que vous pouvez utiliser. Avec les images, ils vont généralement dans le format JPG commune, mais attention pour les modèles qui ne produisent que le format BMP moins utile. Avec des vidéos, AVI est le plus commun, même si cela peut produire de très grandes tailles de fichier à moins que la qualité d'image est très bas. Vous devez également garder à l'esprit que certains modèles ne proposent une vidéo time-lapse composée d'images prises à intervalles, plutôt que d'un enregistrement en temps réel.
Vous aurez aussi besoin de prêter attention aux éléments d'éclairage sur le microphone. La plupart vont utiliser les lumières LED, mais le nombre et l'intensité peut varier. Si vous prévoyez d'utiliser votre microphone USB poussée, vous préférerez peut-être celui où l'éclairage est alimenté par la connexion USB plutôt que des piles.
Ecrit par: John Lister
Edité par: Bronwyn Harris

Qu'est-ce que l'analyse thermique différentielle?

L'analyse thermique différentielle (DTA) se produit lorsque deux substances sont exposées aux mêmes températures et les changements thermiques dans le temps. Le test comprend généralement une substance de référence, dont le comportement est connu sous les conditions de température appliquées. Une autre substance est soumise aux mêmes températures et taux de variation comme référence. L'échantillon peut soit absorber la chaleur, ce qui signifie qu'il est en général plus froides que la référence, ou émettent de la chaleur quand il est plus chaud que le premier matériau. Avec les données qui sont tracées, les chercheurs peuvent déterminer comment les matériaux spécifiques réagissent à certaines températures, ainsi que dans le temps.

Les matériaux de référence, généralement, ne pas fondre ou de geler; ils ont besoin pour rester à un état d'équilibre pour que l'expérience fonctionne. Une technique d'analyse thermique différentielle est souvent fait en plaçant chaque matériau dans un récipient séparé. Chaque conteneur est généralement dans une cavité séparée dans le même espace. Instruments appelés thermocouples sont généralement utilisés pour enregistrer des différences de température entre les deux matériaux. Les thermocouples peuvent détecter un changement de phase, tel que la fonte ou de vaporisation, en tant que signal.

Une autre méthode d'analyse thermique différentielle peut être l'utilisation de casseroles conductrices, avec des thermocouples qui leur sont rattachés, à l'intérieur d'un four. Les deux matériaux sont plus souvent chauffés également avec le temps lorsque DTA est réalisé comme ça. Les résultats du test sont généralement enregistrés à l'aide d'une courbe DTA. Les différences de température entre les matériaux, ou un changement de température dans le temps, peuvent être représentées. Le graphique visualise souvent la chaleur latente de transition qui se produit alors une substance passe d'un état à un autre, ce qui provoque généralement la température de l'échantillon à être temporairement inférieure à la référence.

L'analyse thermique différentielle implique souvent des échantillons de test à des températures plus élevées que d'autres formes d'analyse thermique. Elle peut être réalisée avec des matériaux tels que le métal, la céramique, le verre et la céramique. Les documents de référence qui sont souvent utilisés comprennent le carbure de silicium et d'aluminium. Normes de référence liquides incluent parfois l'huile de silicone.

La technologie du 21 e siècle a combiné l'analyse thermique différentielle ayant la capacité de détecter la perte de masse du matériau ainsi que le changement de température. Les logiciels peuvent automatiquement contrôler le processus et enregistrer les mesures. Avant un test, les instruments d'analyse thermique différentielle doivent généralement être calibrés. Une procédure d'étalonnage séparée fonctionne matériaux connus pour répondre d'une manière particulière sur des plages de températures données. Les réglementations locales et régionales peuvent guider le processus de calibration pour l'analyse thermique différentielle dans des applications pharmaceutiques, alimentaires ou environnementaux.

Qu'est-ce qu'un Axicon?

Un axicon est un type de lentille avec une surface qui a une forme conique et un autre qui a une surface plane, ou plane, la surface. Ils peuvent être convexe, avec un cône en saillie ou concave - un axicon négative. Ces lentilles sont également connues comme des prismes symétriques en rotation en raison de leurs propriétés et les effets sur la lumière qui les traverse. Le corps de la lentille peut être de forme cylindrique ou il peut être un cône vrai. Axicons un certain nombre de propriétés intéressantes qui ont conduit à leur utilisation dans de nombreux domaines de la science et de l'industrie, y compris l'optométrie, la recherche en physique et en astronomie.

Les lasers sont des outils importants pour la science et l'industrie, et les lentilles axicons ont trouvé une niche dans la recherche et le développement de laser à base de dispositifs et d'applications. Une lentille axicon a la capacité de transformer un faisceau laser qui traverse perpendiculairement et au centre de la face plate, d'où un cône parfait de la lumière laser, dont l'angle est déterminé par l'angle du cône de la conique côté de la lentille. Lorsque l'on projette sur une surface plane, la lumière sera considérée comme un anneau. Déplacer la surface de visualisation plus près de la lentille réduit la taille de la bague, et le déplacer plus loin provoquera la taille de l'anneau d'augmenter.

En médecine, axicons sont parfois utilisés dans la chirurgie au laser cornée. Dans ce cas, deux axicons sont utilisés. L'un est un axicon normale, et l'autre est un axicon négative. Les deux Axicons sont utilisées en conjonction avec une autre pour permettre un laser à être porté dans une forme d'anneau qui permet au chirurgien de façonner la cornée afin d'améliorer la vision de certains patients.

Les physiciens ont développé une méthode utilisant des lentilles et des miroirs axicons de créer un dispositif qui peut produire un flux d'atomes individuels. Cet appareil et les flux d'atomes elle produit de leur permettre de capturer des atomes individuels d'études, élargir la compréhension de particules atomiques et la physique des particules. Une lentille axicon extrêmement précis miroir avec un petit trou est utilisée pour ce type de dispositif. Lentilles Axicon peut même être utilisé pour tester des matériaux pour les défauts structurels. Les ondes ultrasonores sont destinées à un axicon, qui les distribue de manière à pouvoir être utilisé pour détecter des défauts mineurs dans des pièces et des composants industriels par la façon dont ils passent à travers l'objet ou du matériau testé.

Qu'est-ce que la fibromyalgie?

Qu'est-ce que la fibromyalgie?

La fibromyalgie est une maladie chronique caractérisée par des douleurs diffuses, fatigue, troubles du sommeil et des troubles cognitifs. 

Le terme «fibromyalgie» est une combinaison de trois mots:
fibro - un mot latin signifiant tissus fibreux, tels que les tendons et les ligaments.
mes - du mot grec "myo" signifiant muscles
algie - un mot grec signifiant la douleur.
Donc, la fibromyalgie signifie littéralement «tissu fibreux et des douleurs musculaires." Ce nom d'abord semblait approprié puisque la fibromyalgie a été pensé pour être un trouble musculo-squelettique, car la plupart de la douleur a été ressentie dans les muscles et autres tissus mous. 

Beaucoup de recherches et l'avancement de la technologie d'imagerie cérébrale, cependant, portent à croire actuellement détenu par plus que la fibromyalgie est en fait un trouble du système nerveux central, ce qui provoque le traitement et les résultats de la douleur anormale dans l'amplification de la douleur. De longue date chercheur FM, le Dr Daniel Clauw, décrit la fibromyalgie comme "l'enfant d'affiche pour un état de douleur« centralisée »." 

Bien que la sensibilisation centrale ne semble certainement à jouer un rôle important dans la fibromyalgie, la nouvelle recherche est révélateur des facteurs physiologiques supplémentaires qui semblent jouer un rôle clé dans cette maladie que nous appelons la fibromyalgie. 

Physiopathologie de la fibromyalgie

Les théories abondent quant à la cause de la fibromyalgie. Des années de recherche ont mis au jour de nombreuses anomalies physiologiques associés à FM. De nombreuses pièces du puzzle de la fibromyalgie ont été découverts, mais jusqu'à présent, personne n'a été en mesure de déterminer exactement comment toutes ces pièces de puzzle assembler. En fin de compte, il peut se révéler qu'il ya plusieurs «causes», dont l'un quelconque peut déclencher la cascade de symptômes que nous connaissons comme la fibromyalgie. Seul le temps et la recherche continue nous le dira. 

Voici quelques-unes des catégories d'anomalies trouvées dans la fibromyalgie. 


Anomalies cérébrales 
Sensibilisation centrale 
Fibre nerveuse Anomalies 
dopamine Dysfunction 
La moelle épinière cervicale Compression
Comme la technologie évolue et de meilleures techniques d'imagerie cérébrale sont développés, la preuve qu'il existe de multiples anomalies du cerveau impliquées dans la fibromyalgie ne cesse de croître. Voici quelques-unes des études plus récentes confirment les différences dans le cerveau de la fibromyalgie. 

Réduction de la densité Gray Matter: la fibromyalgie a été associée à des altérations dans le cerveau morphométrie (forme et taille). Dans une étude de 2009, les chercheurs ont constaté une réduction significative de la densité de la matière grise dans le parahippocampal circonvolutions bilatérale, droit cortex cingulaire postérieur et antérieur gauche cortex cingulaire - zones impliquées dans les fonctions liées à des symptômes typiques de la fibromyalgie, y compris la perception de la douleur amélioré, un dysfonctionnement cognitif, et la réactivité au stress anormal. 

Diminution cerveau Connectivité: résultats d'une étude de 2014 suggèrent "que les modèles de connectivité anormales entre les régions liées à la douleur et le cerveau reste au repos reflètent un mécanisme central altération de la modulation de la douleur chez FM couplage faible entre les régions de la douleur et des zones prefrontal- et sensori-motrices pourraient indiquer. une moins efficace le contrôle au niveau du système de circuits de la douleur ". 

Altered Central Processing: Selon une étude 2014 menée à l'Université du Colorado Boulder, patients atteints de fibromyalgie ont signalé une augmentation des désagréments en réponse à une stimulation multi-sensorielle dans les activités de la vie quotidienne. En outre, IRMf affiché activation à la fois des espaces visuels et auditifs primaires et secondaires du cerveau, une activation accrue et réduite dans les régions d'intégration sensorielle. Ces anomalies cérébrales médiés le désagrément accrue à la stimulation visuelle, auditive et tactile que les patients ont rapporté à l'expérience dans la vie quotidienne. 

Plaisir / douleur Signaux cérébrales Désorganisées: Une étude 2013 indique qu'une perturbation des signaux du cerveau pour récompense et de punition contribue à la sensibilité à l'augmentation de la douleur, connu sous le nom hyperalgésie, chez les patients atteints de fibromyalgie. Les résultats suggèrent que ce traitement du cerveau altéré pourrait contribuer à une douleur généralisée et l'absence de réponse à la thérapie aux opioïdes chez les patients atteints de fibromyalgie. 

Anormale Cerebral Blood Flow: En 2008, l'aide de tomographie d'émission monophotonique (SPECT), les chercheurs en France ont été en mesure de détecter des anomalies fonctionnelles dans certaines régions dans le cerveau des patients atteints de fibromyalgie, renforçant l'idée que les symptômes de la maladie sont liés à un dysfonctionnement dans les régions du cerveau où la douleur est traitée. Les chercheurs ont confirmé que les patients atteints du syndrome du cerveau présentent des anomalies de perfusion par rapport aux sujets sains. De plus, ces anomalies se sont révélés être en corrélation directe avec la sévérité de la maladie. Une augmentation de la perfusion (hyperperfusion) a été trouvé dans cette région du cerveau connue pour discriminer intensité de la douleur, et une diminution (hypoperfusion) a été trouvé dans ces domaines supposés être impliqués dans les réponses émotionnelles à la douleur. 

Une étude 2014 a également montré la circulation sanguine cérébrale anormale chez les patients atteints de fibromyalgie. Cette étude a démontré que la déficience cognitive dans la fibromyalgie a été associée à des modifications dans les réponses cérébrales de la circulation sanguine au cours du traitement cognitif. 

Histoire de la fibromyalgie

Les gens pensent souvent de la fibromyalgie comme une maladie relativement nouvelle, car le terme «fibromyalgie» n'a pas été utilisé jusqu'à la fin du 20ème siècle et il n'a pas eu un critère officielles jusqu'en 1990. Toutefois, les médecins et les chercheurs ont écrit sur les conditions de FM-like depuis le début des années 1800. Et les comptes historiques de maladies présentant des symptômes remarquablement similaires peuvent être trouvées aussi loin que vers 1500 av. 

Quelle peut être la première description d'un état ressemblant à la fibromyalgie peut être trouvé dans le récit biblique de l'angoisse physique de l'emploi. déplore emploi, "I, mois aussi, ont été assignés de futilité, long et nuits fatigués de la misère. Allongé dans son lit, je pense que,« Quand il sera matin? Mais la nuit se prolonge, et je mélanger jusqu'à l'aube ... Et maintenant, ma vie s'infiltre. Dépression hante mes jours. La nuit, mes os sont remplis de douleur, ce qui me ronge sans relâche. " (Job 7: 3-4 et 30: 16-17 - NLT) 

Au 19ème siècle, Florence Nightingale, une infirmière de l'armée anglaise et la Croix-Rouge pionnier, est tombé malade pendant qu'elle travaillait sur les lignes de front pendant la guerre de Crimée (1854-1856). Elle n'a jamais complètement récupéré et a été cloué au lit la plupart du temps, de la souffrance à la douleur et à la fatigue sans relâche, jusqu'à sa mort en 1910. 

L'ensemble de symptômes nous savons aujourd'hui que la fibromyalgie, a été appelé par une variété d'autres noms. Au début des années 1600, les symptômes de la fibromyalgie comme ont été diagnostiqués comme rhumatisme musculaire. Puis, en 1904, Sir William Gowers inventé le terme «fibrosite» pour décrire une condition qui, selon lui a été causé par une inflammation dans les fibres musculaires. Lorsque de nouvelles recherches n'a pas confirmé la théorie de l'inflammation de Gowers, le Dr Philip Hench rebaptisé la condition fibromyalgie en 1976. Bien que les nouvelles découvertes ne mènera probablement à un autre changement de nom, il convient de noter que la recherche très récente semble indiquer que Gowers peut avoir raison depuis le début, que plusieurs études ont montré il y avoir au moins un certain degré d'inflammation impliqués dans FM. 

Les points sensibles, utilisés pour identifier la fibromyalgie et le différencier des autres conditions de la douleur, ont d'abord été décrits par le Dr Hugh Smythe en 1972. Ils ont été utilisés dans l'étude de 1981 Yunus, qui a été la première étude clinique contrôlée à utiliser symptômes de la fibromyalgie connus et tendre souligne que la validation. Il a également été Smythe qui, dans les sessions de formation pour le Collège américain de rhumatologie 1990 FM étude des critères, a enseigné les autres enquêteurs comment faire un examen des points sensibles. 

Étapes de la fibromyalgie

Voici quelques-uns des jalons importants dans l'histoire de la fibromyalgie: 

An
un événement
1600
Des symptômes ressemblant à la fibromyalgie ont eu l'rhumatisme musculaire de nom.
1816
Dr. William Balfour, chirurgien à l'Université d'Edimbourg, fut le premier à décrire en détail ce qui serait connu plus tard comme la fibromyalgie.
1824
Dr. Balfour décrit ce qui allait devenir connu comme points sensibles.
1904
Sir William Gowers a inventé le fibrositis terme, qui signifie littéralement «inflammation de fibres," pour identifier la douleur ressentie par les patients précédemment diagnostiqués avec       rhumatisme musculaire.
1972
Dr Hugh Smythe jeté les bases de la définition moderne de la fibromyalgie quand il a décrit les points douloureux et tendres répandues.
1975
La première étude de l'électroencéphalogramme de sommeil, qui a identifié les troubles du sommeil qui accompagnent la fibromyalgie, a été réalisée.
1976
Dr. William Balfour, chirurgien à l'Université d'Edimbourg, fut le premier à décrire en détail ce qui serait connu plus tard comme la fibromyalgie.
1981
Dr. Muhammad Yunus a été le premier à utiliser officiellement la fibromyalgie terme comme synonyme de fibrositis dans une publication scientifique.
1987
L'American Medical Association a reconnu la fibromyalgie comme une véritable condition physique.
1990
L'American College of Rheumatology a développé les critères de diagnostic de la fibromyalgie à être utilisé à des fins de recherche. Cependant, puisqu'il n'y avait pas d'autre outil de diagnostic disponibles, les critères ne tardèrent pas à être utilisé par les cliniciens comme un outil pour aider à diagnostiquer la fibromyalgie chez les patients.
1990
Le concept de mécanismes neuro-hormonaux avec la sensibilisation centrale a été développée.
2007
Lyrica (prégabaline) est devenu le premier médicament à recevoir l'approbation de la FDA pour le traitement de la fibromyalgie.
2008
Cymbalta (duloxétine) était le deuxième médicament à recevoir l'approbation de la FDA pour le traitement de la fibromyalgie.
2009
Savella (milnacipran) suivi comme troisième médicament à recevoir l'approbation de la FDA pour le traitement de la fibromyalgie.
2010
L'American College of Rheumatology a proposé un nouvel ensemble de critères de diagnostic qui prend en compte d'autres symptômes de la fibromyalgie commun, tels que la fatigue, les troubles du sommeil et des problèmes cognitifs, ainsi que la douleur.
2011
Les modifications apportées aux critères de diagnostic de fibromyalgie 2010 ont été proposées.
2012
La Social Security Administration a publié une décision (SSR 12-2p) expliquant comment handicap prétend examinateurs et les juges devraient évaluer si la fibromyalgie constitue une «déficience médicalement déterminable" (MDI). Bien que cette décision ne donne pas automatiquement les prestations d'invalidité à quelqu'un avec la fibromyalgie, il reconnaît que la fibromyalgie est un trouble légitime. Au-delà, les demandeurs doivent encore prouver qu'ils sont trop handicapées pour travailler.
2013
Les 2013 autres critères pour le diagnostic de la fibromyalgie a été proposé.
2013
Épigénétique introduit le premier test sanguin pour diagnostiquer la fibromyalgie- la / A® test sanguin FM.



Quelles sont les causes et Facteurs de risque de tularémie ?

La tularémie est une maladie infectieuse des rongeurs sauvages, des écureuils et les lapins. Les humains peuvent être infectés par contact direct avec un animal infecté ou de tiques, moustiques, mouches à chevreuil ou piqûres. La maladie est causée par la bactérie Francisella  tularensis, et est une maladie potentiellement la vie en danger.
Les différentes formes de la maladie dépendent où les bactéries pénètrent dans le corps. Contact avec la peau provoque la forme la plus courante de la maladie. L’inhalation des bactéries responsable de la forme la plus mortelle.
Cette maladie peut souvent être traitée avec des antibiotiques. Un traitement précoce offre de bonnes perspectives pour une restauration complète. Cependant, même avec un traitement, certains cas graves peuvent être fatals.
Animaux portent la bactérie qui cause la tularémie. Le risque de contracter la maladie se développe au contact des animaux fréquents.
Les facteurs de risque pour la maladie comprennent:
travaillant en étroite collaboration avec les animaux (vétérinaires, soigneurs, les gardes du parc, etc.)
vivant dans les zones densément boisées
travaillant avec des carcasses d'animaux (chasseurs, taxidermistes, bouchers, etc.)
le jardinage et l'aménagement paysager
La bactérie Francisella tularensis provoque cette maladie créatures capables de transporter les bactéries comprennent.
le lapin et le cerf tiques
taons
des grizzlis
lièvre
lapins
y compris les rongeurs (hamsters)
chats (qui vont à l'extérieur)
Le site d'entrée dans le corps dicte la forme de la tularémie. L'exposition de la peau est la forme la plus commune. Inhalation par les poumons est la plus meurtrière. Cependant, d'autres formes (absence de traitement) peuvent éventuellement atteindre les poumons, la moelle épinière, le cerveau ou le cœur. Cela peut entraîner des complications graves et parfois la mort.
La voie d'entrée et de formes résultant comprend:
exposition de la peau provoque la tularémie ou glandulaire ulcéroglandulaire
inhalation de bactéries aérosol provoque tularémie pulmonaire
exposition à travers l'œil provoque la tularémie oculoglandulaire
l'ingestion cause la tularémie oropharyngée
infection systémique provoque la tularémie typhique
Les symptômes de la tularémie
Le point d'entrée de la bactérie détermine les symptômes.
Les symptômes de la tularémie ulcéro (infection à travers la peau) comprennent:
ulcère de la peau au niveau du point de contact avec l'animal infecté ou sur le site d'une morsure
gonflement des ganglions lymphatiques près de l'ulcère de la peau (le plus souvent dans l'aisselle ou l'aine)
mal de tête
fièvre
des frissons
fatigue
Les symptômes de la tularémie glandulaire (infection à travers la peau) sont semblables aux symptômes ulcéroglandulaire mais sans un ulcère de la peau.
Les symptômes de la tularémie pulmonaire (la forme la plus mortelle de cette maladie, qui se transmet par inhalation) comprennent:
la toux
douleur de poitrine
difficulté à respirer
forte fièvre
pneumonie (infection des poumons)
douleur musculaire
Les symptômes de la tularémie oculoglandulaire (infection à travers l'œil) peuvent inclure:
irritation de l'œil
douleur oculaire
le gonflement de l'œil
décharge et / ou une rougeur de l'œil
une plaie à l'intérieur de la paupière
glandes lymphatiques enflées derrière l'oreille
Les symptômes de la tularémie oropharyngée (infection par ingestion de la bactérie) comprennent:
gorge irritée
ulcères dans la bouche
lymphatique enflé glandes du cou
amygdalite (amygdales enflées)
vomissement
la diarrhée
Les symptômes de la forme la plus rare de cette maladie, la tularémie typhique, comprennent:
une très forte fièvre
fatigue extrême
la diarrhée
vomissement
Tularémie typhoïde peut conduire à la pneumonie et une hypertrophie du foie et de la rate.
Les cas graves et non traités de tularémie peuvent provoquer une insuffisance cardiaque chronique, la méningite (inflammation des membranes qui entourent le cerveau et la moelle épinière), et de la mort.

Quels sont les Iris biométrie?

La pratique de la biométrie crée un système d'identification basé sur les caractéristiques biologiques intrinsèques à chaque personne. Modèle de chaque personne iris est unique, rendant la détection d'iris l'une des technologies les plus parfaites biométriques disponibles. Iris biométrie est une méthode d'identification biométrique exécutée en prenant des images haute résolution de l'œil d'une personne. La technologie utilise une caméra pour faire un modèle de l'œil, prenant note de la réflexion cornéenne.

Le processus repose sur la conversion de l'image de l'iris de la personne dans un algorithme mathématique. Chaque fois que l'œil d'une personne est balayé, elle est comparée avec les données mathématiques de la première analyse. Une partie de l'œil est toujours couvert par la paupière. L'équation mathématique prend en compte la paupière lors de la recherche d'une personne à son analyse en soustrayant les domaines couverts par la paupière à partir des données. Cette technologie peut être utilisée pour identifier une personne dans une foule, ou correspondre à une seule personne de leur propre information d'identification.

L'iris est utilisé pour protéger les informations sensibles et de permettre l'accès uniquement à certaines personnes. Il est également utilisé comme un moyen de sécurité nationale dans certains endroits. Iris biométrie est considérés comme particulièrement fiable. Comme avec n'importe quelle méthode d'identification, il y a toujours un risque d'erreur humaine, mais elle l'est moins que les autres technologies depuis calculs pour l'identification d'iris sont effectuée par un ordinateur.

En comparaison des empreintes digitales, une autre méthode d'authentification de la biométrie, de l'iris biométrie présente plusieurs avantages. L'iris est un organe interne, protégée contre les dommages causés par l'environnement. La composition de l'iris est déterminée pendant la gestation. Bien que certaines conditions médicales et les interventions chirurgicales puissent affecter la couleur et la forme de l'iris, la texture, qui est ce qui est mesuré par la technologie, reste stable. Les dispositifs biométriques utilisant l'iris ont réussi à identifier la même personne pour des périodes de plus de 30 ans. Iris biométrie est considérée comme plus fiable que la méthode de lecture d'empreintes rétiniennes plus populaire depuis la rétine est soumise à des changements avec l'âge.

D'autre part, l'iris biométrie est toujours considéré comme une technologie relativement nouvelle. Par exemple, il n'a pas le temps associé à empreintes. Il est difficile d'effectuer à distance, et une personne ne détenant pas la tête toujours ou ne pas regarder la caméra peut être confondu. La mauvaise qualité d'image et une défaillance logicielle sont deux facteurs qui peuvent nuire à l'iris technologies biométriques.

Qu'est-ce que la maladie de Lyme?

La maladie de Lyme est un complexe d'infections bactériennes, virales et parasitaires qui sont transmis aux humains principalement par la piqûre d'une tique infectée, bien que la recherche montre que les infections peuvent aussi être transmises par les moustiques, puces, acariens, mouches de sable et d'autres piqûres d'insectes. En outre, ils peuvent être transmis in utero de la mère à l'enfant, ainsi que par les fluides corporels tels que la salive, les sécrétions vaginales et le sperme, et par des transfusions sanguines. La comorbidité avec d'autres conditions, telles que la maladie de la moisissure, la toxicité de l'environnement, l'hypothyroïdie et la fatigue surrénale, est commun. 

La maladie de Lyme est souvent diagnostiquée à tort comme le syndrome de fatigue chronique (SFC), l'encéphalomyélite myalgique (ME), la fibromyalgie, la sclérose en plaques de Parkinson (MS), le lupus, l'arthrite et d'autres maladies comme il imite de nombreuses dizaines d'autres conditions et maladies, bien que ces conditions sont pas toujours provoquée par Lyme. 

La maladie de Lyme est la maladie à vecteur la plus répandue aux États-Unis et au Canada, et il a dépassé le VIH que la maladie infectieuse la plus forte croissance dans les deux pays, ainsi que, éventuellement, dans certains pays d'Europe, au Mexique et en Australie. En 2013, le CDC estime qu'il y a plus de 300.000 nouveaux cas de la maladie de Lyme chaque année, bien que plusieurs milliers de cas ne sont pas diagnostiqués ou mal diagnostiqués. 

La maladie de Lyme se présente comme une maladie inflammatoire multisystémique qui peut parfois affecter la peau comme une éruption cutanée. Les symptômes peuvent ressembler à ceux de la grippe, y compris la fièvre, des frissons, de la fatigue, des douleurs musculaires, des maux de tête. La maladie de Lyme précoce est généralement mal traitée, comme la plupart des médecins ont appris qu'il peut être guérie avec deux semaines de traitement antibiotique, ou les gens ne manifestent généralement pas l'éruption œil de bœuf caractéristique pour laquelle la maladie de Lyme est connue. Cependant, si elle n'a pas pris en charge précocement, il se répand rapidement aux articulations, le système nerveux et d'autres systèmes d'organes, par lequel les médecins de temps peuvent être déroutés par le large éventail de symptômes. Même si un diagnostic et un traitement approprié sont donnés à ce stade, de nombreux patients continuent à présenter des symptômes pendant de nombreux mois, voire des années, avant que la maladie est mis en rémission, ou la réponse inflammatoire en cours est atténué et des lésions aux organes / systèmes a été guérie. 

Typiquement, la maladie de Lyme présente en trois étapes:
Étape 1 se produit dans les 30 jours une morsure de tique et provoque des symptômes non spécifiques, y compris la fatigue, des myalgies, des arthralgies, des maux de tête, de la fièvre, des frissons et une raideur du cou.
Etape 2, appelé le stade "précoce disséminée", peut mettre en peu de temps après l'étape 1, mais les symptômes aussi Semaines manifestes au mois après la morsure. Musculo-squelettiques et neurologiques symptômes sont communs.
Etape 3, comme la maladie disséminée précoce, peut mettre en relativement peu de temps après l'infection initiale, mais peut aussi être retardée mois à plusieurs années, en fonction de la réponse immunitaire de l'hôte, la virulence des organismes de Lyme, et d'autres facteurs. A ce stade, tous les systèmes du corps est affecté, y compris la neuroendocrine, musculosquelettique, digestif, cardiaque et le système nerveux central. Beaucoup de gens incubent les infections pour les années et les symptômes se manifestent seulement après un événement stressant.
L'exposition à la maladie de Lyme est parfois indiquée par une éruption cutanée, appelée érythème migrant, qui commence avec l'oeil d'un taureau rouge d'environ cinq à six pouces autour de la morsure de tique. L'apparition de l'éruption cutanée peut être retardée jusqu'à une à deux semaines après la transmission de maladies et peut persister pendant trois à cinq semaines. Cependant, autant que 50-70% de tous les patients atteints de la maladie de Lyme soit ne reçoivent pas une éruption cutanée ou de se rappeler avoir vu un.
Les taux d'infection les plus élevés se trouvent dans le nord-est des États-Unis, mais la maladie de Lyme est épidémique dans toutes les régions des États-Unis, y compris le Midwest, du Sud et de l'Ouest. Il est propagé rapidement à travers les Etats-Unis par l'intermédiaire de la migration des animaux infectés et des insectes. Tiques connus pour mener à la maladie de Lyme ont été identifiés dans les 50 états et sur tous les continents à travers le monde. 


L'histoire de la maladie de Lyme

La maladie de Lyme est nommée d'après les villes de Lyme et Old Lyme, Connecticut, deux communautés adjacentes situées à la base de la rivière Connecticut où il rencontre l'Atlantique. En 1975, Polly Murray, une femme de Lyme, dans le Connecticut, a contacté le Département Connecticut des services de santé de signaler une étrange maladie qui a été l'affliger ainsi que son mari et ses enfants, et de nombreux autres habitants de la ville. Polly avait connu un tableau déconcertant de symptômes qui avaient perplexes les médecins depuis les années 1960, mais quand son mari et ses enfants ont commencé à présenter des symptômes similaires - douleurs articulaires, maux de tête, maux de gorge, des éruptions cutanées - elle a réalisé qu'ils étaient tous souffrent de la même maladie. 

Par coïncidence, Judith Mensch, qui vivait à quelques miles à Old Lyme, Connecticut, a appelé le Département des services de santé à peu près au même moment. Sa fille, Anne, avait été diagnostiquée avec la polyarthrite rhumatoïde juvénile. Judith, qui a été mariée à un pathologiste à l'Hôpital Memorial à New London, interrogé le diagnostic après avoir remarqué les mêmes symptômes chez ses voisins et les enfants de ses voisins. 

Un médecin au Département Connecticut des services de santé, le Dr David Snydman, était préoccupé par l'étrange combinaison de symptômes, en particulier les éruptions cutanées, des maux de tête et des articulations enflées, et rapidement appelé le Dr Allen Steere à l'Université Yale. Les deux médecins avaient travaillé ensemble au Epidemic Intelligence Service de la CDC, un programme mis en place dans les années 1950 pour suivre les épidémies dans le monde entier. En conséquence, ils ont tous deux été formés pour rechercher les signes d'une épidémie. Comme le Dr Snydman, Dr. Steere rendu compte que quelque chose de nouveau, et peut-infectieuse, qui se passait dans Lyme. Il a rencontré Polly Murray et peu de temps après a commencé à tester les 39 enfants et 12 adultes que Polly avait identifiées dans son quartier comme ayant des symptômes similaires à la sienne. 

Deux ans plus tard, le Dr Steere publié le papier qui était de mettre la maladie de Lyme sur la carte: "l'arthrite de Lyme: une épidémie de l'arthrite oligoarticulaire chez les enfants et les adultes dans trois communautés Connecticut." Alors que le document suggérait un arthropode vecteur, il a fallu attendre 1982, un entomologiste, le Dr Willy Burgdorfer, a découvert la bactérie qui a causé la maladie de Lyme. Dr. Burgdorfer avait été d'analyser les tiques du chevreuil soupçonnés de transporter fièvre des montagnes Rocheuses (FPMR) quand il a vu quelque chose d'inattendu sous le microscope. Dans l'intestin moyen de la tique, il a remarqué spirochètes, bactéries pathogènes en forme de spirale. Tiques du chevreuil n'a pas été appelé à effectuer spirochètes, mais d'autres tests ont confirmé la bactérie responsable de la maladie de Lyme. Cette découverte a gagné Burgdorfer reconnaissance mondiale, et l'honneur d'avoir la bactérie qui porte son nom. 

Les manifestations de ce que nous appelons maintenant la maladie de Lyme ont été rapportées dans la littérature médicale en Europe en 1883, lorsque Alfred Buchwald, un médecin à Breslau, Allemagne (aujourd'hui Wroclaw, Pologne), fait état d'une maladie de la peau dégénérative appelée "acrodermatite atrophicans chroniques» dans ses patients. Il a été plus tard constaté que cette condition était un symptôme de la souche européenne de la maladie de Lyme. En 1909, dermatologue suédois Arvid Afzelius a été le premier à identifier l'éruption en forme d'anneau classique associée à la maladie de Lyme. Il l'a appelé «érythème migrant». La publication de ses recherches 12 ans plus tard, il a émis l'hypothèse que l'éruption était le résultat d'une infection transmise par les tiques, en particulier les membres du genre Ixodes. Les symptômes neurologiques associés à une morsure de tique Ixodes, y compris la paralysie, la paralysie, des maux de tête, et une vision double, ont été signalés en 1922 par deux médecins français, Charles Garin et A. Bujadoux, et encore dans le début des années 1940 par le neurologue allemand Alfred Bannwarth. Les symptômes neurologiques associés à Lyme sont connus comme Garin-Bujadoux-Bannwarth ou Bannwarth de, syndrome. 

Bien que la maladie n'a pas gagné la pleine reconnaissance aux Etats-Unis jusqu'à l'éclatement de Lyme dans les années 1970, le premier rapport de la fièvre récurrente due à une morsure de tique (Borrelia hermsii) était comme il y a longtemps que 1915, lorsque cinq patients sont tombés malades dans le Colorado. En 1970, un médecin dans le Wisconsin, Rudolph Scrimenti, a rapporté le premier cas d'érythème migrant aux États-Unis basé sur les rapports européens concernant l'infection liée tiques, il l'a traitée avec de la pénicilline, qui était devenu disponible dans le commerce en 1942. 

Depuis la découverte de Willy Burgdorfer de la bactérie qui cause la maladie de Lyme, plus de 36 espèces de Borrelia ont été identifiés, plus de 20 qui sont capables de provoquer une maladie, et plusieurs dizaines de souches de Babesia, Bartonella et d'autres co-infections Lyme ont également été identifiés . 

Déficience visuelle est corrigible

Déficience visuelle de plus de 100 millions de personnes est corrigible: Étude
Bien que des problèmes de vision comme la myopie, vision floue et l'hypermétropie soient corrigibles, les chercheurs disent qu'il est encore une cause majeure pour aveuglement.
Une personne sur 90 personnes, soit près de 108 millions de personnes partout dans le monde sont estimés à souffrir de corrigible déficience visuelle, une étude mondiale dit.
Les causes de cécité et modérée à sévère déficience visuelle dans près de 101 millions de personnes sont des erreurs non corrigées de réfraction (URE) - myopie, l'hypermétropie, et d'autres conclusions de focalisation étude problems. Elles ont été publiées dans Optometry and Vision Science, le journal officiel de l'American Academy d'optométrie.
Kovin Naidoo l'un des chercheurs de Brien Holden Vision Institute, Durban, Afrique du Sud, déclare: «erreur de réfraction non corrigée continue comme la principale cause de déficience visuelle et la deuxième cause de cécité dans le monde entier. 'L’erreur de réfraction est une gamme de problèmes de vision communs qui provoquent une diminution de l’acuité visuelle, y compris la myopie (myopie), l’hypermétropie (hypermétropie), ou l’astigmatisme.
Alors que normalement des lunettes ou des lentilles de contact sont couramment prescrits pour corriger ces causes de troubles de la vision, des millions de personnes à travers le monde ont encore troubles de la vision ou même la cécité provoquée par URE. Les ophtalmologistes et les optométristes ont recueilli des données de près de 250 études réalisées entre 1990 et 2010 et qui ont été analysées pour estimer le nombre de personnes touchées par la cécité et déficience visuelle due à URE, ainsi que les tendances de la prévalence et les différences par région.
L’erreur de réfraction non corrigée a été trouvé d'être la principale cause de déficience visuelle, qui touche environ 101,2 millions de personnes. Après la cataracte, il a été la deuxième principale cause de cécité car elle affecte encore 6,8 millions de personnes dans le monde. ‘En 2010, URE a contribué 20,9% des cas de cécité et de 52,9% de l'ensemble modérée à sévère déficience visuelle », a ajouté Naidoo.

Qu'est-ce que le bromure de méthyle?

Le bromure de méthyle est un gaz incolore et inodore qui n'est généralement pas inflammable, mais qui peut produire des gaz toxiques en cas d'incendie. Il est produit à partir de sels de bromure, qui se produisent naturellement. Le gaz peut être converti en un liquide lorsqu'il est placé sous une quantité suffisante de pression. Cette substance a été utilisée pour lutter contre les ravageurs tels que les insectes, les rongeurs et les mauvaises herbes. Il a également été utilisé pour protéger les cultures à la fois avant et après la récolte.

Le bromure de méthyle a été largement utilisé au niveau international par l'industrie agricole avant les phase-out exigences émises par le Protocole de Montréal sur les substances appauvrissant la couche d'ozone. Ce traité a été adopté en 1987 afin d'éliminer l'utilisation de substances qui détruisent la couche d'ozone. Le bromure de méthyle est censé agir de manière significative à cet égard.

Dans certains cas, la substance a été utilisée pour stériliser le sol. Cela se faisait habituellement par injection de bromure de méthyle dans le sol avant que les graines ont été plantées. Le but de cet exercice était de tuer les organismes nuisibles dans le sol. Cultures protégées de cette manière les tomates, les raisins et les fraises.

Cette substance a également été utilisée pour traiter les aliments après avoir été récoltés. Dans ces cas, les aliments comme les cerises et les noix ont été exposés au bromure de méthyle dans un cadre fermé. Cela a été fait à des fins de quarantaine et de remplir la réglementation commerciale.

Bien que l'utilisation de cette substance a été considérablement réduite par le Protocole de Montréal sur les substances appauvrissant la couche d'ozone, il n'a pas été complètement éliminé. Aux États-Unis, par exemple, les exemptions permettre son utilisation dans les cas critiques et quand il y a un besoin de mise en quarantaine.

Le bromure de méthyle n'est pas seulement un risque pour l'environnement, mais il peut aussi avoir des effets néfastes sur les humains. Lorsque la substance est inhalée, il peut provoquer une toux, des difficultés respiratoires, ou accumulation de liquide dans les poumons. Si l'exposition est plus grave, une série d'autres effets négatifs pourraient se produire. Il s'agit notamment des dommages au cerveau ou l'échec du système nerveux central. Une personne touchée par la substance pourrait ressentir des engourdissements des membres, des troubles de la coordination, et des changements de personnalité.

Même le contact avec la peau peut être dangereux. Les gens qui s'occupent de cette substance doivent porter une tenue de protection. Si cette substance entre en contact avec la peau ou les articles d'une personne est vêtue, il est conseillé de retirer les objets souillés et nettoyer immédiatement la peau avec du savon et de l'eau

Les premiers animaux multicellulaires complexes

Les premiers animaux multicellulaires complexes de toutes sortes apparaissent dans les archives des fossiles environ 600 à 590 millions années, en particulier dans la formation Twitya dans les monts Mackenzie du Canada. Ce sont de simples en forme de coupe d’animaux qui apparaissent sous forme de fossile comme un disque simple et impressions anneau. Ils sont pensés pour correspondre à des cnidaires simples (famille des méduses) ou des éponges. Parce qu'ils sont si simples, ces fossiles confèrent peu d'informations sur les animaux qui les ont faites. Cependant, ils sont toujours considérés comme «complexe» en raison de leur très grande taille (environ un pouce de diamètre) par rapport à la simplicité des fossiles microscopiques unicellulaires, d'avant et à côté d'eux.

Les plus anciens prochains animaux complexes conservés comme des fossiles apparaissent dans la Formation de Doushantuo dans le centre-sud de la Chine. Une grande variété d'embryons fossilisés sont préservés, ainsi que le plus ancien animal bilatérale connu, le Vernanimacula 0,1 mm (environ 590 à 600 millions d'années), l '«animal printemps petit», une minuscule sphère en forme d'animaux avec ce qui semble être un fossile gut, ainsi que des fosses de surface qui peuvent être des structures sensorielles. Les minuscules embryons fossiles d'animaux complexes, tels que des cnidaires, sont conservés à un degré inégalé de détail dans la formation Doushantuo, donnant paléontologues des informations importantes sur les premiers embryons connus.

Un autre fossile précoce chez les animaux est la Cloudina complexes énigmatique, un fossile segmenté constitué par des cônes de calcite en couches les unes des autres. Mesurée par incréments de millimètres, ces fossiles sont parmi les premiers obus connus dans le registre fossile. Ils affichent en herbe, ce qui suggère qu’il reproduit de façon asexuée, ainsi que ennuyeux prédateurs, ce qui montre qu'il y avait des prédateurs, même à l'aube de la vie multicellulaire connu. Comme beaucoup des premiers fossiles, il y a un manque d'incertitude quant à la nature exacte Cloudina était - l'opinion courante est divisée entre l'idée que le spécimen est un annélide groupe tige et que toute classification, même au niveau phylum, n'est pas sage. Ils peuvent être archaeocyathids, éponges anciens qui construisent des centaines de récifs de millions d'années avant l'évolution de corail. Les "animaux" premiers complexes (vraiment supérieure à 1 mm, pas cnidaires ou des coraux) sont des fossiles d'environ 575 millions d'années, et se trouvent à l'assemblage de Mistaken Point à Terre-Neuve, au Canada. La plus ancienne absolue est Charnia wardi, un organisme en forme de feuille avec la gauche et vers la droite des crêtes alternées. Parce que ces arêtes ne sont pas complètement symétriques autour de l'axe central, Charnia n'est pas un véritable organisme bilatéral, et peut seulement être décrit comme semi-biateral. Initialement décrite comme un parent au début des enclos marins, les scientifiques aujourd'hui n'ont tout simplement aucune idée de la façon de classer Charnia.

Qu'est-ce que Europa?


Europa est l'une des lunes galiléennes de Jupiter, découverts par Galilée en utilisant un télescope primitive en 1610. Ces quatre lunes, Io, Europe, Ganymède et Callisto, sont de loin les plus grands satellites de Jupiter naturelles. Europa est la plus petite des lunes galiléennes. A 3000 km de diamètre, il est un peu plus petit que la Lune de la Terre. Europa est nommé pour une maîtresse de Zeus dans la mythologie grecque. Jupiter, les orbites planétaires Europa, a été nommé d'après le nom romain de Zeus.Lorsque Europa a été découvert, il a permis de vérifier que les corps planétaires côté du Soleil exercer leur propre gravité. Cela a permis de remplacer la vue géocentrique de la cosmologie avec la version héliocentrique de Copernic. Europa orbite autour de Jupiter tous les trois jours ou plus et des orbites à une distance de Jupiter un peu moins de deux fois la distance de la Terre à la Lune. Comme les autres satellites galiléens et de notre Lune, Europa est en rotation synchrone à Jupiter, ce qui signifie du même côté fait face toujours tandis que l'autre opposé.
Europa apparence est celle d'une sphère blanche avec des fissures et des taches brunes partout. Principalement composée de roches silicatées, Europa a une mince couche de glace qui, selon certains scientifiques planétaires croire qu'ils pourraient cacher un océan d'eau liquide. Europa possède l'une des surfaces les plus lisses dans le système solaire. En raison de la possibilité d'océans d'eau, Europa a été la cible d'une sonde proposée atterrisseur depuis plusieurs décennies, mais les fonds n'ont pas encore matérialisé pour une mission. D'autres lunes qui peuvent avoir des océans souterrains comprennent Ganymède et Callisto.
Jupiter Icy Moons Orbiter l'(JIMO), qui aurait utilisé la glace d'un géoradar pour rechercher des océans tels, a été annulé en 2005 en raison d'un changement de priorités de la NASA en faveur des missions habitées. Le vaisseau spatial consistait à présenter des fonctionnalités innovantes comme une source de fission motrice et l'énergie nucléaire, ce qui lui aurait donné mille fois la puissance électrique des sondes spatiales classiques alimentés par des panneaux solaires et des générateurs thermiques radioélectriques.
Ecrit par: Michael Anissimov
Edité par: Bronwyn Harris

Qu'est-ce que l'analyse structurelle de génie?


 Ingénierie analyse structurelle est un type d'ingénierie qui traite principalement de la conception et l'analyse des différentes structures qui doivent prendre en charge ou de résister aux charges. Ce type de technique est généralement utilisé lors de la construction de grands bâtiments ou de forme inhabituelle, mais peut également être utilisé pour d'autres structures telles que les navires, les ponts, les pipelines, les avions et les usines de fabrication industriels. L'analyse structurale du génie est habituellement exigé pour s'assurer que la structure sera capable de supporter des charges de poids de certains, les changements climatiques ou des catastrophes naturelles. Le domaine de l'ingénierie analyse structurelle est généralement divisée en trois catégories distinctes: les civils, architectural et mécanique.
Structurelle théories d'ingénierie d'analyse est généralement basée sur des lois physiques connues ainsi que des connaissances par l'expérience de la performance passée des différents types de matériaux de construction. Ce type de technique n’utilise généralement que quelques éléments de base afin de mettre en place un système très complexe structurel. Les éléments de base qui composent la plupart des structures comprennent des colonnes, des arches, des poutres et des coquillages ainsi que des plaques et des câbles. Ces éléments sont également classés comme étant soit courbe ou droite, et une ou deux dimensions.
Le domaine de l'ingénierie analyse structurelle a commencé à être reconnu au cours de la révolution industrielle de la fin du 19e siècle. Avant cette date, un architecte et un ingénieur calcul de structures étaient essentiellement la même position, connue sous le nom d'un maître d'œuvre. Comme la connaissance de certaines théories structurelles a commencé à augmenter au cours de cette période, le besoin s'est fait sentir pour un type d'ingénieur civil qui s'est spécialisé dans l'analyse structurelle. Aujourd'hui, la complexité de la plupart des structures modernes exige une bonne dose de créativité à partir d'un point de vue structurel, pour que ces structures sont capables de supporter et résister aux charges auxquelles ils sont soumis.
Ouvrages de génie civil nécessitant l'analyse structurelle d'ingénierie comprennent généralement des barrages, des ponts, des canalisations et des structures offshore. Ces structures sont souvent soumises à des forces extrêmes causées par les variations de température et les charges dynamiques des vagues ou de la circulation. Ils sont parfois construits dans des environnements hautement corrosifs en mer et sous terre.
Ouvrages architecturaux, tels que les entrepôts, les dômes et les gratte-ciel, sont souvent très complexes et nécessitent une équipe d'ingénieurs d'analyse structurelle afin de compléter leur conception et de la construction. Ces ingénieurs doivent faire la part des forces telles que le vent, la neige, la pluie, le feu et les tremblements de terre lors de la conception d'une structure. En plus de maintenir l'intégrité structurelle, les services de base nécessaires telles que le chauffage, la climatisation, les communications et l'éclairage doivent être prises en compte dans la conception globale.
Les principes de base de l'ingénierie analyse structurelle sont souvent appliqués dans la construction de certains types de structures mécaniques ainsi. Structures mécaniques qui réclament ce type d'ingénierie comprennent généralement des navires, des avions, des voitures de chemin de fer, les ascenseurs et grues. Structures mécaniques tels que les navires et aéronefs sont souvent soumis à des forces extrêmes qui sont susceptibles de se produire à plusieurs reprises au cours de la durée de vie de leur service. Lors de la conception de ce type de structure, l'ingénieur doit s'assurer qu'il sera en mesure de supporter ces contraintes sur une longue période de temps.
Ecrit par: Childree T. L.
Edité par: Jenn Walker

Quels sont Les ichthyosaures?

Les ichtyosaures, dont le nom signifie «lézard poisson» en grec, étaient de grands reptiles marins qui ont vécu entre 230 et 90 millions d'années. Ils ressemblaient à des poissons ou superficiellement dauphins. Les ichthyosaures partagent les mers de la Terre avec les requins, les poissons et autres reptiles marins comme les plésiosaures et pliosaures. Ichtyosaures ont d'abord été décrits à partir de fragments de fossiles déterrés en 1699 au Pays de Galles.

Les ichthyosaures évoluent seulement 21 millions d'années après la plus grande extinction de masse de l'histoire, et a disparu environ 25 millions d'années avant l'extinction massive qui a tué les dinosaures. Bien ichtyosaures sont parfois appelés à tort dinosaures, ils n’étaient pas. La structure du corps du poisson-comme des ichtyosaures conduit le biologiste Stephen Jay Gould de les appeler son exemple favori de l'évolution parallèle.

L'évolution des ichtyosaures dans rationalisation des dauphins comme des formes est d'autant plus remarquable par le fait qu'ils ont évolué à partir des reptiles terrestres sans traits du corps pour travailler avec, même pas tellement comme une nageoire caudale petite. Les premiers ichtyosaures étaient de petite taille (environ un mètre de long) et ne disposaient pas des nageoires longues ichtyosaures plus tard, la natation plutôt vallonné avec une anguille comme le mouvement.

La plupart des ichtyosaures étaient d'environ 2 à 4 m (6,6 à 13,2 pieds) de longueur, avec une tête de marsouins comme, long museau et les dents pointues. Certains ont atteint 55 pi (17 m) de longueur, comme Shonisaurus, le fossile d'état du Nevada, si ceux-ci étaient très grandes et beaucoup moins typique. La plus importante était sikanniensis Shonisaurus, le plus grand reptile marin connu à 21 m (69 pi). Les plus grands ichtyosaures disparus des extinctions à la fin de la période du Trias.

La plupart des ichtyosaures avait de grands yeux exorbités. Ils mangeaient de la viande, en particulier le poisson et occasionnellement d'oiseaux ou juvénile reptile marin. L'heure de gloire des ichtyosaures était dans le Trias, et ils ont évolué à la même époque que les dinosaures ont faite. Après le Trias et Jurassique inférieur, leur diversité est allée en descendant, et par le Jurassique moyen, tous les ichtyosaures appartenaient à un seul clade. Ithyosaurs puis se sont éteints pendant le Crétacé, l'un des seuls groupes principaux de s'éteindre de lui-même et non en raison de l'extinction de masse à la fin de la période.