-Anatomie et physiologie • Animaux et l'environnement • culture generale • economie • flore et ses bienfaits • Internet et Informatique • L'alimentation et la nutrition • La Biologie • Le mésothéliome • Les épices • Les fruits et légumes • Les vitamines • Maladies & Affections • Médecine et traitements • Médicaments • monde technologique • remèdes naturels • Santé et Bien-être • sciences et génie -orange

vendredi 15 mars 2013

Qu'est-ce que l'énergie spécifique?

Pour un scientifique ou un ingénieur, le terme énergie est le potentiel d'un système pour effectuer des travaux ou pour produire de la chaleur. L’énergie spécifique est la quantité d'énergie par unité de masse. La concentration en masse est la mesure d'une quantité par unité de masse. L’énergie spécifique peut être considérée comme la concentration d'énergie par unité de masse.

Un joule est la métrique, ou plus exactement, le Système international d'unités (SI) de mesure de l'énergie. Elle est dérivée de la formule de l'énergie cinétique: Ec = ½ mv2, où m est égal à la masse de l'objet en mouvement et v est égalent à sa vitesse. Un joule est l'énergie nécessaire pour accélérer une masse d'un kilogramme à la vitesse d'un mètre par seconde au carré sur une distance d'un mètre. L'énergie spécifique est exprimé en unités SI comme joules par gramme (J / g), en kilojoules par kilogramme (kJ / kg), ou en joules par kilogramme (J / kg), selon le système à l'étude.

Une précédente tentative par les chimistes pour définir l'énergie a été le calorique, l'énergie nécessaire pour élever la température d'un gramme d'eau de 1 ° C. Ce n'est pas une mesure exacte, cependant, que l'énergie requise dépend peu de la température de départ de l'eau. La définition du SI calorie est désormais égal à 1 calorie 4,184 joules. L’énergie spécifique serait mesurée en calories / gramme (cal / g), kcal / kg (kcal / kg), ou kilocalories par gramme (kcal / g).

L'unité thermique britannique (BTU) est analogue à la calorie et est une mesure inexacte. Un BTU est l'énergie nécessaire pour élever la température d'une livre d'eau de 1 ° C. Un BTU d'énergie est légèrement inférieure à 1 kilojoule. L'énergie spécifique dans ce système est mesurée en BTU par livre (BTU / lb).

La lumière, une autre forme d'énergie, n'a pas de masse. Par conséquent, aucun terme n'existe pour l'énergie spécifique de la lumière. En discutant de l'énergie chimique, il est souvent plus utile de se préoccuper de l'énergie spécifique sur une base moléculaire à la place d'une base de masse. Un chimiste peut utiliser joules par mole (J / mol) au lieu de joule par kilogramme, car il est le nombre de molécules qui réagissent qui est utile dans cette application.

Quel est la terraforming?

La terraformation est une science controversée et actuellement théorique dans le but de transformer les planètes, les lunes ou d'autres corps célestes dans la terre comme des entités qui pourraient éventuellement soutenir la vie.

Mars apparaît comme le candidat le plus probable car il est plus proche de la Terre que tout autre objet dans notre voisinage. Si le rêve d'introduire la vie sur Mars est d'être à la mesure du possible, voici quelques-uns des obstacles qui devront être abordés:
Bien que nous ayons envoyé avec succès véhicules spatiaux vers Mars, il est encore difficile et coûteux à atteindre.

Il ne semble pas y avoir de l'eau liquide à la surface de Mars.
La température moyenne à la surface de Mars est-63C (-81F), bien que certaines parties sont beaucoup plus chaudes.

L’atmosphère ne contient pratiquement pas d'oxygène.
Bien que terraformation de Mars serait probablement un projet long et coûteux, il y a quelques technologies innovantes et des idées qui pourraient rendre le processus réalisable. Une plante transgénique, par exemple, pourraient s'auto-propager et convertir le dioxyde de carbone dans l'atmosphère de Mars en oxygène. Gaz à effet de serre pourraient être générés pour élever la température à la surface de Mars faisant plus hospitalier. D'autres théoriciens affirment que immenses miroirs fabriqués à partir de Mylar mince peut être positionnée pour réfléchir la lumière du soleil pour réchauffer de petites régions de la planète Mars. Perhpas auto-propagation nanodispositifs développés par les nanotechnologies pourraient également aider dans le processus.

Les théoriciens constatent que la Terre était à une époque pas propice à la vie encore aujourd'hui la vie abondante maisons; ne pourrions-nous modifier et d'accélérer l'évolution d'une autre planète, afin que lui aussi pourrait soutenir la vie? Bien que la terraformation est le plus souvent une partie de la science-fiction, les scientifiques sérieux et capable commencent à tenir des conférences et faire des calculs pour déterminer la faisabilité d'un projet aussi ambitieux.

Qu'est-ce qu'un Sphéromètre?


 Un sphéromètre est un dispositif utilisé en génie mécanique pour obtenir la mesure précise du rayon d'un cercle. Il s'agit d'un outil unique de mesure en ce sens qu'il peut mesurer avec précision des surfaces courbes. L'outil a été conçu à l'origine pour donner opticiens la capacité de mesurer la courbure des lentilles en verre sans avoir à compter sur des équipements coûteux interférométrie.
La plupart des sphéromètres sont construits d'une base à trois pieds qui prend la forme d'un triangle équilatéral. Tout le cône de jambes en pointes fines à la base. Dans le milieu de la base est une vis avec une pointe fine qui est attachée à un écrou et un cadran de mesure. Il s'agit généralement d'un axe vertical fixé sur le côté du sphéromètre, qui est utilisé pour indiquer le nombre de tours complets de l'écrou ont été faites, ainsi que pour fournir un index de lecture de la ligne de mesure bien fixé à la vis.
Pour obtenir une lecture à partir d'un sphéromètre, l'instrument doit être complètement rasé. Puis il peut être placé sur l'objet à tester. Les quatre points délicats doivent être en exerçant une quantité égale de la pression avant que la mesure ne peut être lu. La différence entre les mesures montre que l'épaisseur de la zone, qui est coupée par un plan qui passe par les trois pieds équidistants. R pour indiquer à l'aide de la distance globale et s la distance entre les pieds, le rayon peut être déterminé en utilisant la formule R = r2 + s2/2s.
Il y a aussi sphéromètres numériques, qui viennent généralement sous deux formes. La première forme permet aux utilisateurs d'obtenir une mesure directement sur le dispositif - à la place d'une ligne de mesure, la vis aura une plaque avec une face numérique sur elle. La seconde forme sphéromètre sans lecture du visage, reliant la place à un dispositif séparé qui affiche une lecture numérique. Un dispositif sphéromètre numérique peut être plus facile pour les utilisateurs à lire, mais il est à craindre qu'il arrive à un coût de la précision. Un appareil numérique peut ne pas être en mesure d'enregistrer la rugosité sur une surface ainsi que d'un accès commuté classique sphéromètre possible.
Bien que sphéromètres sont encore couramment utilisés par les opticiens, ils peuvent également être trouvés dans d'autres domaines, le plus souvent que la qualité des dispositifs de contrôle. Par exemple, un sphéromètre pourrait être utile pour tester des tiges de forage avant de les expédier à des entreprises afin de s'assurer qu’il ne se brisera pas en cours d'utilisation. Il peut également être utilisé par toute personne qui a besoin de mesurer l'épaisseur des plaques minces ou appartement.
Ecrit par: Michelle Baugh
Edité par: C. Wilborn

Quelles sont les différences entre les béchers et flacons?

Il y a plusieurs différences entre les deux récipients de laboratoire communs appelés béchers et flacons. La principale différence entre les béchers et flacons sont leurs formes. Un récipient est un cylindre avec une lèvre de coulée et sans couvercle. Les flacons sont courbés sans lèvre et munis de couvercles. Une autre différence entre les béchers et flacons sont leurs utilisations. Les béchers sont utilisés pour le mélange prudent, car ils ont une lèvre, mais ne sont pas utilisés pour le stockage. Flacons sont utilisés pour le stockage et empêcher la contamination par l'utilisation d'un couvercle, le plus souvent un bouchon en verre ou en caoutchouc.

Les béchers existent en plusieurs tailles, mais tous ont des parois droites et un fond plat. Le plus grand et le cylindre est plus large, plus il devient difficile de mesurer avec précision la quantité de liquide dans un bécher. La plus petite bécher est appelé l'éprouvette graduée. Ce bécher dispose de lignes de mesure pour déterminer le volume exact. Béchers d'autres ont un peu de lignes de mesure, mais ne sont pas considérées comme exactes et sont uniquement utilisées pour estimer la quantité de liquide dans le bécher.

Les flacons sont conçus pour contenir et sceller fluides. Ils ont généralement un corps large et un col étroit. Ceci permet au fluide de rester inférieure en contact avec le milieu extérieur. Flacons Bouchons et couvercles ont de confinement encore plus.

Les béchers et flacons ne sont pas faits avec les mêmes matériaux. Flacons sont toujours faites de verre et de plastique, tandis que gobelets sont parfois faites de métaux, comme l'étain. Béchers et flacons différents dans la variété et la forme. Seuls quelques types de gobelets sont utilisés pendant de nombreux types de ballons sont utilisés.

L'utilisation de gobelets en laboratoire est généralement de mélanger et de faire des expériences chimiques et physiques. Les éprouvettes graduées sont le bécher utilisé pour mesurer le volume. Les béchers plus courantes sont utilisées pour mélanger des acides et des bases à l'eau ou d'autres liquides réactions. Le dispositif de cristallisation est un bêcher courte échelle qui est utilisé pour sécher les matériaux qui forment des cristaux. Les gobelets sont pas utilisés aussi souvent, mais ils sont importants pour la bonne coulée et faire des observations en laboratoire.

Les flacons sont utilisés pour conserver et stocker des liquides sur de longues périodes de temps et dans un environnement étanche. Cela permet à un éventail beaucoup plus large d'utilisations pour les flacons. Les flacons peuvent être liés à d'autres équipements en verre ou en plastique flexibles ainsi. Presque toute réaction qui produit du gaz utilise un ballon de séparer le gaz et mesurer la quantité produite. Certains flacons utiliser une pompe à vide pour changer la pression dans un récipient de processus expérimentaux, comme la filtration.

Botox - la célébrité de la drogue

Ces quatre lignes reflètent la gloire de la jeunesse et des émotions tristes qui sont attachés à vieillir. Alors que la plupart des humains idéalisent la jeunesse, ils se rétractent de la pensée de cheveux grisonnants, le relâchement chair et les os fragiles, qui sont identifiés comme les infirmités de la vieillesse. Avec l'évolution des tendances, la notion de vieillir en améliorant sa beauté intérieure a pris. Néanmoins, il est une recherche effrénée de la fontaine de jouvence, surtout parmi les célébrités et les «perdants» en herbe, qui grimpent l'échelle sociale. Leur défi ne réside pas dans les années de plus en plus, mais, en se cachant efficacement ses symptômes. Pour eux, le Botox est Dieu ENVOYÉ '«Rappelez-vous toujours que la vraie beauté vient de l'intérieur -.. L'intérieur des bouteilles, bocaux, compacts, et tubes'- de Peter Almanach Botox a depuis quelques années fait l'injection qui a restauré l' beauté de nombreuses célébrités et maintenant est la procédure la plus courante de la chirurgie esthétique dans le monde.

Des célébrités comme Céline Dion, Cher, Madonna, Sharon Stone et Sylvester Stallone sont répandu pour avoir eu l'avantage de l'aiguille Botox. La raison Botox est devenu si populaire, c'est en raison de la simplicité de la procedure. Il ne nécessite pas d'hospitalisation, il n'y a pas de cicatrices chirurgicales sans anesthésie, et les résultats sont visibles en quelques jours. Comme un chirurgien plastique met-'With Botox, la beauté est plus profonde que la peau. "Le Botox est le nom commercial de la toxine botulique A, un type de neurotoxine qui est sécrétée par la bactérie Clostridium botulinum. Depuis 1989, il a été utilisé pour traiter plusieurs conditions médicales telles que le «clignotement incontrôlée» ou blépharospasme et «yeux croisés» ou strabisme.

Pendant un tel traitement, les médecins par hasard sur le fait que le Botox était capable d'effacer temporairement les rides du lion et "pattes d'oie" qui se sont formés autour des yeux. Fonctions de Botox en arrêtant la libération de l'acétylcholine, un neurotransmetteur, ce qui est essentiel pour les contractions musculaires. S'il n'y a pas de contraction musculaire, il ne peut y avoir de plis. Mais c'est seulement en 2002 que la FDA a approuvé de Botox à des fins cosmétiques.

 Bien que Botox a gagné en popularité pour son usage cosmétique, il est employé par plusieurs spécialistes pour traiter une série d'affections médicales qui impliquent des contractions ou des spasmes musculaires, tels comme le dystonies de divers organes. Il est envisagé pour divers autres troubles ainsi, comme la fibromyalgie ou le «syndrome de fatigue chronique», mais la FDA n'a pas encore l'approuver. Les effets du Botox ne sont pas de longue durée et ils ont tendance à s'user dans 3-4 mois. Il est donc essentiel de répéter périodiquement le traitement. Cela soulève la possibilité de Botox comme une substance toxicomanogène induire que l'utilisateur pourrait devenir fortement dépendante, afin de «se sentir bien». Modération, comme ils disent, est la clé. Après tout, comme le disait Voltaire, «La beauté plaît que les yeux, la douceur de l'âme disposition charmes.

Qu'est-ce que la nappe phréatique?


La nappe phréatique, généralement appelé la nappe phréatique, est la profondeur à laquelle le sol est saturé, ou rempli à sa capacité maximale, avec de l'eau. Lorsque l'eau atteint la surface de la Terre, que ce soit à travers la pluie, les inondations, ou d'autres moyens, l'eau commence à s'infiltrer, ou passer dans le sol. L'eau souterraine s'écoule goutte à goutte vers le bas à travers les pores des roches et du sol jusqu'à ce qu'il atteigne un point où tous les espaces disponibles sont pleins. Bien que le terme soit souvent utilisé au sens large, les eaux souterraines se réfèrent techniquement seulement à l'eau ou au-dessous de ce niveau. De cette manière, la nappe phréatique peut être considérée comme la surface supérieure de la nappe phréatique.
Le sol peut être divisé en deux parties: la zone d'aération qui se trouve au-dessus de la nappe phréatique et la zone saturée qui se situe au-dessous de la nappe phréatique. L'eau souterraine qui circule à travers les six à dix premiers pieds (de 1,83 à 3,05 mètres) du sol nourrit les racines des plantes et est appelé en eau du sol. Comme l'eau souterraine se déplace vers le bas au-delà des racines dans la zone non saturée, on apprend que l'eau vadose. Eau vadose fait son chemin jusqu'à la zone saturée à travers les pores, ou de petits trous, dans la roche et les sédiments jusqu'à ce qu'il atteigne la nappe phréatique et des eaux souterraines devient.La profondeur à laquelle la nappe phréatique se produit peut varier considérablement, de quelques pieds à certains endroits, à des centaines ou des milliers de pieds dans des lieux autres. Cet écart peut dépendre de plusieurs facteurs, notamment la  topographie régionale, ou les caractéristiques de la surface de la Terre dans un domaine particulier, le type de matériau de l'eau doit passer à travers les saisons, et l'extraction de l'eau. Les nappes phréatiques sont souvent profondes vallées au-dessous et plus profondément sous les collines, parce qu'il ya une plus grande distance à parcourir. La vitesse à laquelle le sol devient saturé, et donc la vitesse à laquelle la nappe phréatique monte, dépend aussi de la porosité ou la quantité d'espace, en matériau du sol. Rock, par exemple, se remplit plus vite que le sable parce qu'il ya tout simplement moins d'espace libre de remplir.
Les sécheresses, les inondations saisonnières ou les précipitations peuvent également affecter le niveau de la nappe phréatique si elle n'est pas trop loin de la surface du sol. Certaines zones saturées sont situés aussi profondément, cependant, que la longueur du temps qu'il faut à l'eau de s'infiltrer dans la zone saturée égalise les variations saisonnières, laissant la nappe phréatique non affecté par variations saisonnières. En général, l'infiltration est un processus lent, comme c'est le processus de décharge, dans lequel l'eau sort naturellement l'aquifère.
Un aquifère est une zone de roches ou de sédiments qui contient les eaux souterraines, qui peut être consulté à l'usage des êtres humains. Un exemple est l'aquifère Ogallala qui s'étend sur environ 174,000 miles carrés (450.657,9 km carrés) dans le Midwest américain. Contrairement à un aquifère confiné, dans lequel l'eau souterraine est coincé entre un matériau imperméable, l'Ogallala n'est pas confiné et peut toujours être rechargée par la fonte des neiges, les précipitations et d'autres types d'eaux de surface.
Comme beaucoup d'autres aquifères, cependant, le taux de recharge dans la Ogallala est très lente, et le taux d'extraction est élevé. Les humains extraire, ou à emporter, l'eau des aquifères à des volumes élevés pour l'agriculture, usage résidentiel et l'industrie. Lorsque le taux d'extraction dépasse la capacité de l'aquifère à recharger, il est appelé découvert et provoque la nappe phréatique à la baisse. Découvert a causé la nappe phréatique dans de nombreux endroits sur la Ogallala à décrochent plus de 100 pieds, soit plus de 30,5 mètres.
Ecrit par: Caitlin Kenney
Edité par: Bronwyn Harris

Qu'est-ce qu'une structure de cristal?


 Nombreuses matières solides et des liquides cristallins ont une régulier, répétitif, agencement tridimensionnel des atomes connus en tant que structure cristalline ou de réseau cristallin. En revanche, un solide amorphe est un type de matériau solide, tel que du verre, qui ne dispose pas d'une telle structure à longue distance répétition. La plupart des propriétés physiques, optiques et électriques des solides cristallins ou de liquides sont étroitement liées à la structure cristalline. Les motifs récurrents de la structure cristalline, qui sont constitués de petites boîtes ou d'autres formes tridimensionnelles, sont appelées "cellules". Bon nombre de ces cellules sont regroupées en une répétition, la structure ordonnée pour constituer la structure d'ensemble.
La structure cristalline d'un matériau donnent cristalline peut affecter un grand nombre de propriétés globales de ce matériau. Il est l'un des principaux facteurs qui affectent définissant les propriétés optiques du matériau, par exemple. Structure cristalline aussi affecte considérablement la réactivité de la matière cristalline, car elle détermine l'agencement des atomes réactifs sur les bords extérieurs et les faces du solide cristallin ou liquide. Autres caractéristiques matérielles importantes, y compris les propriétés électriques et magnétiques de certains matériaux, sont également déterminées en grande partie par la structure cristalline.
Les minéralogistes cristallographes, des chimistes, des physiciens et souvent l'étude des matériaux cristallins en laboratoire. Certains aspects les plus simples de structures cristallines peut être déterminé par de simples mesures géométriques, mais diverses méthodes basées sur la diffraction des rayons X, neutrons, électrons, d'autres particules ou permettre des déterminations beaucoup plus facile et plus précise de la structure. Certains chercheurs ne s'intéressent qu’à la détermination de la structure d'un matériau donné cristallin tandis que d'autres sont plus intéressés à déterminer comment cette structure se connecte à d'autres propriétés du matériau. D'autres chercheurs sont intéressés à trouver des applications utiles pour les différents matériaux en fonction de leurs structures, et certains tentent même de synthétiser de nouveaux solides cristallins et liquides basés sur les propriétés attendues de leurs structures désirées.
Il convient de noter que, bien que théoriques matériaux cristallins sont composées d'une série parfaite et cohérente des unités répétées, les cristaux réels ont tendance à avoir des failles. Ces défauts sont, dans la plupart des cas, de simples irrégularités dans la structure cristalline régulière autrement. Dans certains cas, cela se produit quand un atome occupe une place différente dans une structure cristalline donnée que normalement. Les différentes propriétés de cet atome peuvent avoir des répercussions importantes sur la façon dont les unités structurales du cristal se ranger autour de lui. De même, les défauts ou les irrégularités de vrais cristaux peuvent avoir des répercussions importantes sur l'ensemble des propriétés du matériau cristallin.
Ecrit par: Daniel Liden
Edité par: Jenn Walker

Qu'est-ce qu'un nanocomposite?

Un nanocomposite est un matériau artificiel conçu pour des performances améliorées dans un certain nombre d'applications uniques: structurel, fonctionnel ou esthétique. Comme pour les autres matériaux composites, le nanocomposite comprend un support de base, ou d'une matrice, composée de plastique, de métal ou de céramique combinés avec des nanoparticules en suspension. Les particules de charge sont beaucoup plus faibles que celles des composites sont réguliers et la taille des grosses molécules, au moins cent fois plus petit que le noyau d'un ovule humain.

Le support solide base d'un nanocomposite commence comme un liquide qui peut être pulvérisée sur une surface, extrudée ou injectée dans un moule. Les particules de charge fonctionne selon leur forme: rond, comme un ballon, ou long et mince, comme un tube. Fullerènes, nanoparticules composé uniquement d'atomes de carbone tels que les fullerènes ou des nanotubes, sont des ordres de grandeur plus petite que les fibres de carbone ou des charges présents dans les composites de talon réguliers. Ces fullerènes peuvent porter n'importe quel nombre de molécules réactives utilisées dans des applications médicales.

Plus la taille des particules de charge en suspension dans le milieu de base, plus la surface disponible pour l'interaction et plus le potentiel d'affecter les propriétés du matériau. Dans les premières étapes de formation de nanocomposites, le milieu de base doit circuler facilement dans des moules. Avec certaines applications, la charge doit être alignée avec, et ne pas perturber l'écoulement dans des directions spécifiques où la force ou de la conductivité est nécessaire. Charges élevées avec la longueur et la largeur de rapports cadrent bien dans l'écoulement d'un liquide de base qui n'est pas encore devenu solide.

L'augmentation de la surface des particules plus petites dans les nanocomposites force leur diffusion et les oblige à être plus équitablement répartis, ce qui entraîne des propriétés des matériaux plus homogènes. Agglutination des nanoparticules au cours de la circulation et un ensemble de support de base est causée par résiduelles charges atomiques ou lorsque des particules de ramification s'emmêlent lorsqu'ils s'écoulent dans une autre. Agglutination non désirées et inégale contribue aux contraintes résiduelles dans le matériau de base lorsque le milieu devient solide. Les distributions inégales de nanoparticules dans des endroits critiques pourraient provoquer un design à l'échec, à cesser de fonctionner ou de se casser. Procédé garantissant une répartition uniforme des particules est sonochimie, dans lequel - en présence d'ondes ultrasonores - bulles sont formées et l'effondrement, la dispersion des nanoparticules plus uniformément.

Parmi les nombreuses applications pour les matériaux nanocomposites, quelques-unes d'intérêt sont électroniques, optiques et biomédicales. Les nanocomposites combinant un support de base de polymère avec les nanotubes de carbone sont utilisés dans le conditionnement de produits électroniques qui nécessitent boîtiers pour dissiper les charges électriques statiques et accumulations thermiques. Par souci de transparence optique, des nanoparticules d'une taille optimale ne seront pas disperser la lumière, mais lui permettre de passer à travers tout en ajoutant de la force à la matière. Dans le photovoltaïque, la plus petite des particules, plus l'absorption solaire, ce qui entraîne une augmentation de la production d'électricité. Nanoparticules dans les lentilles de contact, formé d'un polymère de base, change de couleur en fonction de la quantité de glucose dans le liquide lacrymal du patient, indiquant la nécessité d'un diabétique pour l'insuline.

La vitamine B12 joue un rôle dans l'acné flambées?

Une nouvelle recherche suggère que des niveaux élevés de vitamine B 12 peuvent affecter l'activité le germe chez certaines personnes, augmentant les chances qu'ils vont développer l'acné.
Cependant, il est trop tôt pour dire si quelqu'un devrait réduire leur apport en vitamine B 12 des aliments ou des vitamines pour éviter d'avoir des boutons, selon les chercheurs.
"Je ne pense pas que nous ayons suffisamment étudiée pour suggérer que," a déclaré le chef de l'étude Huiying Li, professeur assistant de pharmacologie moléculaire et médicale de l'Université de Californie, Los Angeles. Pourtant, la recherche donne un aperçu non seulement de la vitamine B 12, mais aussi l'activité génétique qui pourrait inciter les boutons.
"Il ya certains gènes qui pourraient potentiellement influencer si les gens ont des poussées d'acné ou pas", dit-elle. "Ces gènes pourraient être la cible d'avenir traitement de la toxicomanie."
L'étude paraît dans le numéro de Juin 24 de Science Translational Medicine.
Une carence en vitamine B 12 peut causer des problèmes de santé graves, selon les US Centers for Disease Control and Prevention (CDC). Trop peu de vitamine B12 a été impliqué dans l'anémie; problèmes digestifs; et les problèmes neurologiques, comme des engourdissements et des picotements dans les extrémités, des problèmes de vision et la perte de mémoire.
La vitamine B 12 se trouve dans les produits animaux tels que des produits laitiers et de fruits de mer. Les végétariens et végétaliens sont invités à prendre des suppléments ou manger des aliments enrichis pour obtenir ce nutriment. Selon la US National Library of Medicine, «beaucoup de gens plus de 50 ans perdent la capacité d'absorber la vitamine B12 des aliments», et de la chirurgie de perte de poids peut causer le même problème.
L'étude actuelle a examiné les facteurs qui rendent les gens plus vulnérables à l'acné. Li et ses collègues ont trouvé des signes que la vitamine B12 peut stimuler l'acné en perturbant un type de bactéries de la peau connues sous le nom de Propionibacterium acnes qui est lié à l'acné.
Après la liaison de la vitamine pour l'acné, les chercheurs ont ensuite analysé 10 personnes à la peau claire qui ont dit de commencer à prendre des suppléments de vitamine B12. Leur consommation supplémentaire de vitamines affecté comment les gènes dans des bactéries de la peau traitées cette vitamine, Li a dit que, bien que seulement une personne par la suite éclaté avec l'acné.
Li a dit que cela fournit plus de preuves que la vitamine B12 peut affecter l'activité des bactéries de la peau. Selon elle, les germes touchées - P. acnes - peut contribuer à l'inflammation, une composante essentielle de l'acné.
Les chercheurs ont lié la vitamine B 12 à l'acné dans les études antérieures, a dit M. Li. Mais plusieurs questions demeurent sans réponse.
Si les gènes agissent différemment dans la seule personne dans l'étude qui a développé l'acné, on ne sait pas combien de personnes peuvent partager une vulnérabilité similaire. Cependant, l'activité de ces gènes pourrait être importante pour le traitement à l'avenir, dit-elle.
Li a également dit qu'il ne sait pas ce que les résultats de l'étude pourraient signifier pour personnes souffrant d'acné ou ceux qui veulent l'éviter.
Pour rendre les choses plus compliquées, "exactement comment les bactéries sur la peau contribuent à l'acné reste à être complètement compris," a déclaré le Dr Whitney Bowe, professeur adjoint de clinique de dermatologie à Mount Sinai School of Medicine Medical Center à New York.
«Par exemple, les bactéries P. acnes a longtemps pensé à jouer un rôle dans l'acné, mais il ya de nombreuses personnes qui ont P. acnes sur leur peau et ne jamais développer l'acné ", a déclaré Bowe, qui n'a pas participé à la nouvelle étude.
Et tout simplement tuer les bactéries ne fonctionne pas pour soigner l'acné, dit-elle.
Et maintenant? "Il est trop tôt pour dire à mes patients d'arrêter de manger des aliments ou de prendre des vitamines qui contiennent de la vitamine B 12 sur la base de cette étude», a déclaré Bowe. «Cette étude suggère que des niveaux élevés de vitamine B 12 dans le sang peut aggraver l'acné chez certaines personnes. D'autres études sont nécessaires pour confirmer ce résultat et nous aider à comprendre la pertinence clinique de ces résultats ".
Et, encore une fois, il est important de noter qu’une carence en vitamine B 12 peut avoir de graves conséquences dans tout le corps et le cerveau, selon les CDC.

Qu'est-ce qu'un oscilloscope numérique?

Un oscilloscope est un instrument électronique qui présente les tendances sur un écran qui sont des représentations graphiques des signaux électriques, et des mesures et analyse ces signaux. Oscilloscopes sont particulièrement utiles pour l'observation de la forme d'onde exacte d'un signal électrique. Un oscilloscope numérique est un oscilloscope numérique qui offre sa lecture.

Une grille, appelé un réticule, est superposé au signal électrique qui est affichée sur un écran de l'oscilloscope. Le panneau avant de l'oscilloscope a généralement les boutons de commande, les commandes d'affichage et des connecteurs d'entrée. Oscilloscopes peut être le laboratoire du type banquette variété ou des types les plus portables qui peuvent être transportés pour le travail de terrain. Certains types de portables sont à piles.

Oscilloscopes viennent dans la conception analogique et numérique. Le signal qui est à mesurer est introduit dans l'un des connecteurs d'entrée. La plupart des oscilloscopes dotés de connecteurs d'entrée de plusieurs, ce qui leur permet de mesurer et de contrôler simultanément plusieurs signaux.

Oscilloscopes analogiques travailler directement avec des tensions variant de façon continue pendant un oscilloscope numérique des échantillons du signal et, en utilisant un convertisseur analogique-numérique (ADC), la tension se traduit en une information numérique. L'oscilloscope numérique utilise ensuite ces informations pour reconstruire une forme d'onde sur le réticule. Tant l'analogique et l'oscilloscope numérique sont généralement adaptés à des fins plus générales, mais chaque type possède des caractéristiques distinctives qui font qu'il est adapté pour des emplois spécifiques.

Lorsque l'objectif est de faire varier rapidement visualisation des signaux tels qu'ils se présentent en temps réel, un oscilloscope analogique est préféré. D'autre part, un oscilloscope numérique a la capacité de capture d'événements qui se produisent qu'une seule fois. De plus, ils sont capables de traiter des données de forme d'onde ou de l'information de forme d'onde magasin indéfiniment pour les visionner plus tard. Ils peuvent également envoyer ces informations à des ordinateurs et d'autres équipements pour l'analyse, le traçage, ou la copie dur.

Un oscilloscope numérique dans sa forme la plus simple est composé de six éléments. Le premier amplificateur est une entrée analogique verticale, et la seconde est un convertisseur analogique-numérique et une mémoire de forme d'onde numérique. La troisième est une base de temps avec un disque de déclenchement et d'horloge, tandis que le quatrième est circuits de reconstruction de forme d'onde et d'affichage. Enfin, les cinquième et sixième éléments sont un écran d'affichage LCD ou LED et une alimentation électrique.

De techniciens de la radio et de la télévision à des physiciens, des oscilloscopes sont généralement un équipement indispensable pour ceux qui travaillent avec des équipements électroniques. L'une des utilisations les plus courantes de dépannage oscilloscopes est défectueux appareils électroniques, mais l'utilisation des oscilloscopes ne sont nullement limitée au domaine de l'électronique. Avec un transducteur approprié, un oscilloscope peut être utilisé pour mesurer tous les types de phénomènes physiques.

Le transducteur crée une tension électrique en réponse à des stimuli qui lui est amené, par exemple le son, la lumière, la chaleur, des contraintes mécaniques ou de pression. Ingénieurs des transports analyser les vibrations du moteur au moyen d'oscilloscopes. Les oscilloscopes sont utilisés par les chercheurs médicaux pour mesurer les ondes cérébrales ou pour afficher la forme d'onde d'un battement de cœur. Oscilloscopes avoir des applications étendues dans l'ingénierie, les sciences, la médecine, l'industrie et les télécommunications.

Qu'est-ce que la distillation continue?

La distillation en continu est un procédé utilisé dans l'industrie à des composés chimiques distincts. Il fonctionne en utilisant les principes de la distillation, mais elle est particulièrement utile dans le traitement de grands volumes de produits chimiques industriels en permettant de distillation pour produire sans interruption. Le procédé est particulièrement important dans l'industrie pétrolière, où il est utilisé pour raffiner le pétrole brut.

Quand un mélange de produits chimiques est à la coque, certains produits chimiques - ceux qui ont les plus bas points d'ébullition - subir un changement d'état de liquide à gaz et montée sous forme de vapeur. La distillation, cette vapeur est passée à travers un dispositif connu sous le nom d'un réfrigérant, qui est constitué d'un tube scellé entouré par une zone creuse remplie de liquide de refroidissement. Que la vapeur est refroidie, elle se condense à partir d'un gaz dans un liquide et coule le long du tube dans un récipient. En contrôlant la température de la chaudière, des produits chimiques spécifiques peuvent être séparés à partir d'un mélange liquide à l'aide de ce procédé.

La distillation continue utilise ce principe pour séparer et purifier les produits chimiques industriels. Une colonne ou une tour, est rempli de "feed", le mélange à purifier. Le mélange est ensuite chauffé, et certains composés augmenter à mesure que la vapeur. Comme ils se lèvent, mais ils ont aussi cool, et certains produits chimiques peuvent retomber sous forme liquide tandis que d'autres continuent à l'état de vapeur. Cela purifie progressivement le mélange et permet une séparation plus précise et contrôlée des composés différents. Les vapeurs de produits chimiques sont gérés par condenseurs séparés et en recevant des navires.

Le volume de liquide à purifier dans les applications industrielles rend distillation en continu une solution plus efficace que la distillation discontinue. Dans distillation discontinue, un certain volume du mélange est distillé complètement avant mélange, on ajoute plus. En revanche, dans la distillation en continu, le mélange est pompé en continu et les produits sont enlevés de façon continue. Les colonnes utilisées pour cette méthode ont de nombreux points de sortie différents pour différents produits, car ils sont tous éliminés simultanément. Chaque point de sortie est placé à une hauteur différente dans la colonne, selon l'endroit où la vapeur se condense en tombant.

Il est impossible, cependant, de distinguer un seul composé chimique par distillation continue. Au lieu de cela, une série de produits chimiques dans une gamme spécifique d'ébullition est séparé à chaque étage de la colonne. Ces groupements chimiques sont connus en tant que fractions, et le processus qui les produit est connu que la distillation fractionnée. Lorsque le pétrole brut est raffiné, par exemple, plusieurs fractions sont produites - naphta a le plus faible point d'ébullition, suivi par le kérosène, gazole, et des produits plus lourds en bas. Chacun de ces produits est alors affiné après la séparation jusqu'à utilisable.

Quels sont les glissements de terrain?

Les glissements de terrain sont à la baisse des flux de roches, de terre et d'autres matériaux. Les glissements de terrain peuvent causer beaucoup de dégâts, surtout quand ils sont grands, et ils constituent un danger géologique de préoccupation dans le monde entier, car ils peuvent se produire n'importe où et à tout moment. Un certain nombre de mesures peuvent être prises pour éviter les glissements de terrain et de réduire leur gravité, et ces étapes sont souvent utilisés dans des zones où des glissements de terrain sont communs, tels que les diapositives du diable infâme en Californie.

Dans un glissement de terrain, les matériaux sont secs et peuvent inclure des roches, de terre, les arbres, et les structures qui se trouvent être tirées par la chute d'objets. Les glissements de terrain peuvent être causés par les tremblements de terre, de déstabilisation en raison de l'eau qui coule sous terre, l'effondrement de rochers en surplomb, et la bataille simple gravité. Les activités humaines telles que la construction lourde, minant de la terre, et comme couvre-sol décapage plantent et les arbres peuvent aussi déclencher des glissements de terrain. Quand un glissement de terrain implique la boue et la matière humide, il est connu comme une coulée de boue; glissements de terrain peuvent suivre les tempêtes et les inondations. Le terrain visé par un glissement de terrain est généralement instable. Une des raisons les plus courantes pour l'instabilité est-sol pauvre. Les arbres et les plantes, surtout quand ils s'enraciner profondément, peut maintenir le sol en place afin qu'il ne puisse pas glisser, même sur des pentes très raides. Si le couvre-sol est rares ou mal enracinés, les roches et les matériaux en vrac peuvent commencer à glisser. Les diapositives également se produisent sur des pentes très raides, surtout si les notes sont surplombs.

Les glissements de terrain catastrophiques se produisent sur une base régulière. Un glissement de terrain peut détruire des maisons, de mâcher en dehors d'une autoroute, ou de déclencher d'autres événements catastrophiques tels que les inondations si cela arrive au mauvais endroit au mauvais moment. Les établissements humains à travers le monde sont construites à proximité glissements de terrain pourraient falaises et de montagnes, ce qui peut entraîner des conséquences tragiques. L’histoire géologique a un certain nombre d'exemples de glissements de terrain qui ont été assez grande pour déplacer des montagnes entières, et à l'époque moderne, plusieurs glissements de terrain catastrophiques tels que le glissement de terrain Monte Toc en Italie, le glissement de terrain 1991 Pubjabi en Inde, et le glissement de terrain Khait en Russie revendiqué des milliers de victimes et des dégâts considérables distribuées.

Les techniques pour gérer les glissements de terrain peuvent comprendre la mise en place de murs de soutènement qui piège les glissements de terrain avant qu'elles ne causent des dommages, la croissance des couvre-sols pour maintenir la terre végétale en place, et les codes du bâtiment qui interdisent la construction de glissements de terrain près de zones exposées afin que les structures ne seront pas endommagés lorsque tombe et coulisse ultérieure. Les activités humaines qui peuvent augmenter le risque de glissements de terrain peuvent également être restreintes, tout comme les activités qui contribuent à avalanches sont limités dans les régions où les avalanches sont fréquentes.

Qu'est-ce que Bohrium?

Bohrium est un élément chimique classé dans le groupe transactinide sur le tableau périodique des éléments. Peu est connu au sujet de cet élément, car il ne peut être produit synthétiquement, et il est de très courte durée; l'isotope plus longue vie a une demi-vie d'environ 22 secondes. En raison de la dépense impliquée dans la production bohrium et courte vie de l'élément, pas d'utilisation commerciale ont été mis au point pour cet élément, bien qu'il soit parfois utilisé dans la recherche scientifique.

Cet élément est obtenu en bombardant d'autres éléments tels que le bismuth. L'utilisation très précis des équipements scientifiques, les chercheurs peuvent identifier même des traces minimes d'isotopes Bohrium, et en apprendre un peu plus sur leurs propriétés avant de se désintégrer. Comme d'autres éléments transactinide, bohrium est radioactif, et il est présumé être métallique. Bohrium est aussi parfois appelé un élément transuranien, ce qui signifie qu'il a un nombre atomique supérieur à celui de l'uranium. Les transuraniens partagent un certain nombre de traits, y compris la radioactivité et de l'instabilité extrême qui les rend difficiles à étudier.

Cet élément est identifié par le symbole Bh, et il a un numéro atomique de 107. On croit que Bohrium partage un certain nombre de traits avec le rhénium, un autre élément chimique métallique. Vous pouvez également voir bohrium appelé unnilseptium, un nom provisoire donné à l'élément par l'Union internationale de chimie pure et appliquée pendant un conflit de nommage.

Les chercheurs en Russie ont affirmé avoir isolé l'élément en 1976, leurs efforts ont été confirmés par P. et G. Armbuster Münzenber au Schwerionenforschung Gesellschaft für Allemagne de l'Ouest en 1981. Les chercheurs allemands ont reçu le crédit de la découverte de l'élément, qui ont initialement nommé nielsbohrium, après Niels Henrik David Bohr. En fin de compte, ce nom a été déterminé à être un peu maladroit, et l'élément est venu à être connu sous le nom bohrium, bien que les chercheurs dans Dubna, en Russie également proposé "nielsbohrium" comme nom pour l'élément 105, qui fut plus tard nommé dubnium.

Cet élément est potentiellement dangereuse pour la santé humaine, car il est radioactif, mais il existe très brièvement et dans ces petites traces que sa radioactivité n'est pas une préoccupation majeure. Les gens ordinaires ont peu de chances de rencontrer bohrium, et les scientifiques qui travaillent avec elle utiliser un certain nombre de précautions pour minimiser l'exposition aux rayonnements. Les chercheurs espèrent que l'étude continue de cet élément peut produire un isotope plus stable, et peut-être en dire plus sur elle.

Qu'est-ce que l’ingénierie de contrôle d'instrumentation ?

L’ingénierie de contrôle d'instrumentation implique généralement la conception, le développement et le fonctionnement des systèmes utilisés avec des machines et divers procédés mécaniques. Cette discipline d'ingénierie spécialisée nécessite souvent un travail avec les systèmes de contrôle informatique, ainsi que Supervisory Control and Data Acquisition (SCADA) du logiciel. Il assure généralement que tous les composants d'un système de fonctionner normalement, en plus d'être sécuritaire pour les travailleurs qui les entourent. L'ingénierie des systèmes d'instrumentation et de contrôle est généralement importante pour toute entreprise qui les emploie, ainsi que pour les fabricants et les fournisseurs de ces produits.

Les automates programmables, en plus des programmes SCADA, sont souvent utilisés dans l'ingénierie de contrôle d'instrumentation. Le champ comprend généralement diverses responsabilités, qui incluent la conception et le développement de l'équipement, ainsi que la maintenance des systèmes plus anciens. La mise à niveau des composants exigent souvent une vaste mécanique, programmation informatique, de processus et de compréhension. Ingénieurs dans les départements de conception et d'exploitation travaillent souvent en collaboration avec le personnel des entreprises et les acheteurs.

Les compétences scientifiques sont généralement importantes pour l'ingénierie instrumentation de contrôle, mais un ingénieur de conception a souvent besoin d'être bon à la résolution de problèmes ainsi que la gestion de projet. La capacité de conseiller les autres sur les recommandations instrument le plus approprié est parfois nécessaire. Autres compétences peuvent inclure l'écriture de code pour les logiciels, la composition des propositions d'affaires, ou de gérer les opérations de systèmes d'équipement et de processus.

La conception de l'instrument de tout système dépend généralement des paramètres de l'équipement et de ce qu'il est utilisé pour. Les composants peuvent interagir différemment dans certains cas, mais en général, la plupart des systèmes d'instrumentation et de contrôle ont bien intégré les pièces. Les microprocesseurs sont souvent une composante majeure et de nombreux systèmes, comme le début du 21 e siècle, sont automatisées. Ingénierie de contrôle d'instrumentation, par conséquent, nécessite une bonne compréhension de ces concepts, et intègre souvent des compétences en robotique et en intelligence artificielle.

Une formation collégiale ou universitaire est généralement nécessaire de travailler en ingénierie d'instrumentation de contrôle. Les programmes d'études sont souvent constitués de plusieurs séances de laboratoire qui peuvent inclure des ordinateurs et de l'électronique. Les cours individuels peuvent couvrir le traitement du signal, concepts biomédicaux, ainsi que de contrôle de processus à l'aide de maquettes de véhicules électriques, pneumatiques ou hydrauliques. Ils peuvent également aider à la formation à l'utilisation des systèmes de contrôle et des logiciels de simulation, ainsi que divers dispositifs électromécaniques et des transducteurs.

L’ingénierie de contrôle d'instrumentation est un domaine spécialisé qui couvre souvent diverses disciplines scientifiques, de gestion, de conseil et d'affaires. Les ingénieurs peuvent remplir certains rôles ou d'accommoder plusieurs d'entre eux dans une position. Ils peuvent créer, gérer ou entretenir le matériel, ou de coordonner les efforts de développement ou de le remettre.

Qu'est-ce que l'écologie forestière?

L'écologie forestière est la science de la façon dont les organismes réagissent les uns avec les autres, et d'interagir avec l'environnement d'un écosystème forestier. Ce domaine d'étude est très important pour ceux qui sont préoccupés par la conservation des forêts. Sans de bonnes données sur la forêt, ce qui le rend sain ou malsain, il n'ya aucun moyen d'un plan de développement durable peut être mis en place. Un écologiste dans ce domaine peut travailler pour une université, un service de parc ou même d'une société privée.

Ceux qui sont impliqués dans l'écologie forestière sont l'espoir de trouver des conclusions d'un certain nombre de questions. Les études peuvent comprendre l'importance de la forêt ancienne et les forêts nouvelles, le niveau de menace d'animaux et d'espèces végétales envahissantes, et l'impact de l'activité humaine sur l'environnement local. Dans certains cas, en fonction de la taille de la forêt, l'écologiste peut avoir besoin d'examiner les données couvrant plusieurs zones ou biomes. Bien que ces zones distinctes peuvent sembler sans rapport, mais ils peuvent tous pointer vers la santé globale d'une forêt.

L'écologie forestière nécessite beaucoup de temps à enregistrer les différentes espèces trouvées dans le système. Souvent, ces points de données seront comparés avec les données recueillies au cours des années précédentes. Cette comparaison devrait fournir une bonne idée de ce que les tendances à long terme de la région ont tendance à être. Une réduction des espèces, ou une augmentation du nombre d'espèces peuvent être source de préoccupation particulière.

Alors que certains peuvent croire que la diversification des espèces est une bonne chose, toute personne impliquée dans l'écologie forestière sait qu'il doit être le bon type de diversification. Les espèces envahissantes de plantes et d'animaux peuvent être en mesure de décimer les populations indigènes, donc totalement changer presque toutes les espèces présentes dans l'écosystème forestier en quelques décennies. Alors que certains peuvent considérer cela comme une évolution naturelle de la nature, d'autres accusent les humains pour l'introduction de certaines espèces. Cela peut conduire à un résultat très naturel.

Une fois que les espèces ont été répertoriées, et les tendances étudiées, l'étape suivante consiste à déterminer si les changements font partie d'une maturation naturelle dans l'écologie de la forêt, ou le résultat de processus artificiels. Ceci est en partie déterminé en regardant le nombre de espèces non indigènes et de comprendre les changements qui ont lieu dans les forêts au fil du temps. Comme auvents devenir plus dense, par exemple, le nombre de fougères et d'autres plantes couvre-sol, diminue en raison d'un manque de lumière. Ceci est à prévoir.

Si les changements sont considérés comme non viables, ou contre nature, l'écologiste peut être demandé de venir avec un plan pour rétablir la santé des forêts. Dans certains cas, il peut y avoir de solution que les processus et les espèces concernées peuvent être devenues trop ancrée à changer. Dans d'autres cas, il peut y avoir des techniques qui permettent de retrouver une écologie de la forêt plus naturelle.

Naissance prématurée peut être abaissée par l'interdiction de fumer

Les naissances prématurées peut être abaissée par l'interdiction de fumer
Le tabagisme affecte la croissance d'un enfant et augmente les chances de naissances prématurées. C'est pourquoi les obstétriciens demandent aux femmes enceintes d'éviter strictement de fumer.

Selon une étude récente publiée dans le British Medical Journal (BMJ) scientifiques ont confirmé que les interdictions de fumer sont associés à un «modèle cohérent de diminution du lien d'accouchement prématuré." L'étude a souligné que les interdictions de fumer ont un impact positif dans la promotion des avantages de la santé de très début de la vie. C'est un fait bien connu que le tabagisme pendant la grossesse nuit à et retarde la croissance du bébé en développement dans le ventre de la mère et diminue la période de gestation. Exposition des femmes enceintes à la fumée secondaire est également connue pour affecter les naissances prématurées. Dr. Tim Nawrot et ses collègues de l'Université de Hasselt, en Belgique, ont étudié l'effet de l'interdiction de fumer et de naissances prématurées en Belgique. «En Belgique, la législation antitabac a été mis en œuvre en trois phases (dans les lieux publics et la plupart des lieux de travail en Janvier 2006, dans les restaurants en Janvier 2007, et dans les bars servant des repas en Janvier 2010). «Dans la terminologie médicale naissances prématurées sont définis comme la naissance du bébé avant 37 semaines de gestation. Les scientifiques ont examiné« 606 877 vivants, un seul bébé né livrés à 24-44 semaines de gestation en Flandre de 2002 à 2011 »Les scientifiques ont noté une réduction remarquable dans les cas de prématurés après l'introduction de chaque étape de l'interdiction de fumer. Pas évidente diminution a été observée avant l'interdiction. L'étude a révélé une diminution du risque de naissances prématurées de 3.13 pour cent le 1er Janvier 2007when interdiction de fumer a été forcée dans les restaurants. Cette réduction a augmenté de 2,65 pour cent à compter du 1er Janvier 2010, après l'interdiction de fumer dans les bars . D'autres facteurs tels que l'âge maternel, le statut socio-économique et les facteurs environnementaux (épidémiques de la grippe, la pollution de l'air, etc.) n'ont pas expliqué ces changements dans les naissances prématurées. Les chercheurs ont dit que l'étude était assez importante en raison des séquelles de la santé du tabagisme pendant la grossesse. Dr Tim Nawrot souligné, «Notre étude montre un modèle cohérent de réduction du risque d'accouchement prématuré avec des interventions de population successifs visant à limiter le tabagisme. Elle soutient l'idée que les interdictions de fumer ont des avantages pour la santé publique, même de début de la vie. De plus en plus de pays en Europe adoptent une législation plus stricte de fumer dans les lieux publics. Ces résultats soulignent l'intérêt des politiques de l'interdiction de fumer de la santé publique 

Qu'est-ce qu'un hétérozygote?

Un hétérozygote est un organisme qui a deux formes différentes d'un même gène, avec une étant la forme dominante et l'autre la forme récessive. Les gènes sont des unités fonctionnelles qui transmettent l'information héréditaire quand organismes se reproduisent. Ils se présentent en paires et ont des formes différentes, une forme dominante et au moins une forme récessive, appelées allèles. Les allèles peuvent appareiller de diverses manières comme dominant avec un allèle récessif, deux allèles récessifs ensemble, ou deux allèles dominants ensemble. Les différents allèles  se produisent dans un hétérozygote tandis que l'une des deux paires semblables peut se produire dans un homozygote.

La domination est la capacité d'un allèle d'exprimer son phénotype ou caractéristiques observables définies par son code génétique, alors que le phénotype d'un autre allèle est inexprimé. Un exemple de ceci est la couleur des yeux chez les humains. Brown est un trait dominant tandis que le bleu est récessif. Si une personne a un allèle pour la couleur des yeux bruns et un pour le bleu, yeux de la personne sera brune parce que le brun est dominant. Une telle personne est dit hétérozygote pour la couleur des yeux.

Quand un hétérozygote présente de remise en forme évolutive supérieure à celle de l'une homozygote, ce phénomène est connu comme un avantage hétérozygote, ou tout simplement surdominance. De nombreux experts estiment que les inconvénients de l'évolution peuvent être conservés dans le pool génétique par le biais de ce phénomène. Si avoir deux copies de l'allèle certains est un inconvénient évolutif, il serait normalement appelés à disparaître du patrimoine génétique par la sélection naturelle. Il peut être conservé, cependant, si avoir une copie de celui-ci associé à un autre allèle pose un avantage évolutif.

L'exemple classique de cette norme est l'anémie à hématies falciformes. L'allèle récessif d'un gène humain particulier provoque une anémie à hématies falciformes, ce qui est désavantageux pour les perspectives d'un organisme pour la survie et la reproduction. Lorsqu'il est couplé avec un autre allèle du même gène, cependant, la paire de gènes conférant la résistance organisme à une maladie mortelle appelée paludisme. Une telle résistance peut considérablement améliorer les perspectives d'un individu à la survie et à la reproduction dans les zones du monde où le paludisme est un sujet de préoccupation.

De nombreux autres exemples de l'avantage hétérozygote on pense qu'il existe, mais d'autres explications ne sont toujours pas être écartées. Certains rats, par exemple, présentent un avantage de la résistance aux pesticides qui semblent être lié à un désavantage de la carence en vitamine K niveaux. Un autre exemple est un avantage hétérozygote possible chez les pigeons femelles de la baisse des taux d'infection microbienne et la hausse des taux d'éclosion des œufs.

Le phénomène inverse avantage des hétérozygotes est, bien sûr, connu sous le nom inconvénient hétérozygote ou underdominance. Une espèce particulière d'herbe a été trouvée qui est un exemple possible d’underdominance. Hétérozygotes membres d'une population naturelle de cette espèce ont été trouvés à produire moins de graines viables que les homozygotes de la même espèce.

Qu'est-ce que l'angle d'élévation?

L'angle d'élévation est la mesure de l'angle formé par le plan horizontal dans lequel est situé un observateur et un objet au-dessus du plan horizontal. L'observateur se trouve au sommet de l'angle. Le point d'intersection des rayons de l'angle avec la verticale de l'objet par rapport au plan horizontal forment un triangle rectangle. Il y a un certain nombre de façons de déterminer cet angle, compte tenu de la hauteur et de la distance connue, et les dispositifs tels que les sextants peut être utilisé pour mesurer l'angle. Étant donné un angle d'élévation connue, il est possible de déterminer la hauteur et la distance de l'objet observé.

Si l'observateur se trouve directement au-dessous de l'objet dont l'angle d'élévation est mesuré, l'angle est de 90 degrés. Un objet sur le même plan horizontal que l'observateur a une élévation de zéro degré. La mesure de l'angle d'élévation peut se situer n'importe où entre ces deux valeurs.

Si le sextant est traditionnellement l'outil utilisé pour mesurer l'angle d'élévation d'objets célestes pour la navigation, il peut être utilisé pour déterminer l'angle d'élévation d'un objet quelconque. Pour utiliser un sextant, l'observateur tient l'outil à un œil et il pointe vers l'objet élevé. Marquages sur le degré sextant indiquer l'angle formé par le plan horizontal de l'observateur et le rayon coupant qui pointe vers l'objet élevée.

Les concepts géométriques et mathématiques associées aux triangles rectangles peuvent être utilisées pour déterminer les valeurs inconnues de la distance et de l'angle, et la trigonométrie simple peut être utilisée pour résoudre des valeurs inconnues dans la mesure où au moins deux sont connus. Si la hauteur de l'objet et la distance entre l'observateur sont connus, l'angle d'élévation peut être déterminée par la recherche de la tangente de l'angle - le rapport de la hauteur à distance. Si l'angle et la hauteur ou la distance soit sont connus, l'échantillon inconnu peut être déterminée de la même façon. Il est également possible de déterminer l'angle d'élévation lorsqu'elle est administrée seule valeur connue, même si cela nécessite l'utilisation de concepts plus avancés trigonométriques.

Qu'est-ce qu'un tour solaire?

Une tour solaire est un moyen écologique de produire de l'électricité en exploitant la différence de température entre l'air au niveau du sol et de l'air à une élévation significative. Un design prévu pour être construit en Australie dès 2006 est un grand kilomètre et produirait autant d'énergie que d'un petit réacteur nucléaire. Un design proof-of-concept en Espagne est de 195 mètres de haut et a été en mesure de produire jusqu'à 50 kW de puissance.

A la base d'une tour solaire est un capteur solaire - un énorme (~ 25.000 hectares ou 100 kilomètres carrés) jupe circulaire transparent en plastique qui crée un effet de serre et réchauffe l'air emprisonné dans la jupe. La tour solaire est creuse, comme une cheminée, et extrait de l'énergie à partir de l'air chaud augmente rapidement au sommet de la tour en utilisant des turbines. Le plus grand de la tour, plus l'énergie est extraite. La tour fonctionne 24 heures par jour parce que le sol en dessous de la tour conserve la chaleur absorbée pendant la journée et continue de le sortir dans la nuit.

La tour solaire australienne est prévue pour coûter environ 500 millions $ et serait le plus grand ouvrage artificiel dans le monde, près de deux fois la taille de la Tour CN de Toronto. Sa construction devrait être entreprise par l’Enviro Mission basée à Melbourne Limited, avec le soutien du gouvernement australien. Il est estimé que la tour serait de produire 200 mégawatts d'électricité, soit suffisamment pour alimenter 200.000 foyers, et de garder près d'un million de tonnes de gaz à effet de serre dans l'atmosphère chaque année. Une tour solaire serait un point de repère massif, visible d'aussi loin que 80 miles de là. Il nécessite un effectif de seulement 15 techniciens pour fonctionner.

La tour solaire est peut-être l'alternative la plus impressionnante proposé aux combustibles fossiles ou l'énergie nucléaire. Ce serait un palliatif idéal pour fournir la race humaine avec une puissance pas cher jusqu'à nous développons l'énergie de fusion, d'améliorer la fission, trouver un moyen de déployer les grands réseaux de panneaux solaires, ou venir avec une idée encore meilleure pour nous fournir de la puissance à laquelle nous aspirons.

Qu'est-ce qu'une pile de pont?

Une pile de pont est un type de structure utilisée pour soutenir une surface de déplacement comme une route. Le pont lui-même relie deux points, et il est soutenu par des piliers qui s'étendent vers le sol ou dans l'eau sous le pont. Un design pile de pont est utile pour certaines applications car elle peut être une structure extrêmement solide, il peut être construit pour être très attrayant, et il ne sera pas obstruer l'écoulement de l'eau ou des marées si le pont enjambe l'eau. Ponts routiers peuvent également utiliser cette conception, car les routes peuvent être facilement construits sous les ponts, depuis les supports ne prennent pas autant de place que les autres modèles de soutien.

La pile du pont lui-même peut varier en taille et en forme. Cette partie du pont est essentiellement un pylône supportant, et il peut avoir la forme d'un faisceau, ou il peut présenter une forme plus radicale, comme un V. En général, les piles modernes sont fabriqués à partir de béton, même si certains peuvent être en pierre ou en même le métal. Une pile de pont conçu pour être immergé dans l'eau est susceptible d'être en béton, en métal peuvent rouiller ou se corroder autrement en raison de l'exposition constante à l'humidité. Avant la pile de pont peut être installé dans l'eau, le fond de la rivière ou le fond du cours d'eau doivent être dragués afin que le sol peut supporter le poids de la jetée et de la surface du pont.

Les cours d'eau ne sont pas les seuls endroits où une pile de pont est utile. Dans de nombreux cas, cette conception peut être utilisée lorsque des ponts doivent être construits sur la terre ferme; réseaux routiers utilisent couramment ces conceptions, que les ponts autoroutiers peuvent être soulevés sur les autres voies publiques, en capitalisant sur la hauteur disponible là où plus de largeur n'est pas disponible. Viaducs sont très fréquents dans les grandes villes, où les routes sont regroupées dans plusieurs directions à un endroit central. Piliers du pont permettre à ces ponts et viaducs à construire sans éliminer la possibilité d'autres routes en cours de construction en dessous.

L'ingénieur du projet de pont devra déterminer quelle forme jetée est le plus approprié pour l'application spécifique. Il est possible que la structure de quai pour être construise de telle sorte qu'il ne sera pas empêché la circulation adéquate de l'eau d'une rivière, et dans d'autres cas, il peut être construit pour assurer la portance correcte de la chaussée. Parfois, la conception doit varier en fonction de ce que les autres forces seront agissantes sur le pont; vents violents, par exemple, peuvent nécessiter une seule conception de la jetée sur l'autre.

Qu'est-ce qu'un gène candidat?

Un gène candidat est un gène soupçonné d'être impliqué dans une maladie particulière, une condition ou une anomalie. Des chercheurs découvrent des gènes candidats par le biais d'un processus laborieux qui consiste à passer au crible de grandes quantités de matériel génétique pour identifier les gènes et de déterminer ce qu'ils font. Une fois qu'un gène candidat peut être positivement lié à un sujet médical spécifique d'intérêt, les chercheurs peuvent commencer à explorer les variations dans le gène et la manière dont elle agit sur le corps.

Pour trouver un gène candidat, les chercheurs ont d'abord identifié la zone d'un chromosome particulier qui est selon eux impliqués dans le processus d'une maladie génétique. Ensuite, ils recherchent des gènes spécifiques dans ce domaine pour voir si elles peuvent trouver un gène qui pourrait être un suspect probable. Chercheurs peuvent utiliser des données relatives au produit protéique d'un gène particulier pour savoir si oui ou non il s'agit d'un gène candidat; produits protéiques sont les molécules qui sont construits à l'aide des informations contenues dans un gène.

La cartographie des gènes candidats est un processus de longue haleine. De nombreux chercheurs utilisent des algorithmes pour affiner les possibilités, plutôt que d'essayer de charrue à travers l'information génétique manuellement. Une fois que les possibilités sont identifiées, elles peuvent être soumises à une analyse afin de déterminer si elles sont ou non les gènes candidats. Étant donné le grand nombre de maladies génétiques, jumelés avec des gènes qui se trouvent dans le monde, l'identification de gènes candidats, c'est un peu comme chercher une aiguille très fine dans une botte de foin extrêmement important.

Trouver des gènes candidats est important. D'un niveau de la recherche pure, les scientifiques sont intéressés à en savoir précisément ce qui est responsable de plusieurs maladies génétiques, et la façon dont les gènes défectueux amener les gens à développer des maladies héréditaires et d'autres anomalies. Les chercheurs s'intéressent également aux interactions entre les gènes défectueux, comment développer des gènes défectueux, et l'histoire évolutive de ces gènes. Certaines conditions nocives génétiques sont liées à des adaptations qui ont été conçus à l'origine pour aider les gens à prospérer dans des environnements difficiles, par exemple. Du point de vue des soins aux patients, la capacité d'identifier les gènes impliqués dans le processus de la maladie peut être utile dans le diagnostic, les patients peuvent être testés afin de déterminer si oui ou non elles sont porteuses du gène responsable d'une maladie. Les gens peuvent également subir un test génétique pour savoir si elles sont à risque de transmission du matériel génétique dangereux pour leurs enfants. Théoriquement, il peut être possible de manipuler les gènes nocifs pour les désactiver ou de modifier leur expression afin que les personnes atteintes de ces gènes ne connaissent pas les conditions médicales qui leur sont associés.

Qu'est-ce qu'un histogramme de distribution de fréquence?

Les histogrammes ont pour objet de  recueillir des données dans des compartiments et compter le nombre de fois les terres données dans un compartiment. Une forme courante de l'histogramme est un histogramme de distribution de fréquence. Établir un histogramme de distribution de fréquences des trois étapes, la collecte des données, le tri des données dans des compartiments de la même taille, et en comptant le nombre de fois les terres de données dans chaque compartiment. Tracer un graphique qui représente un histogramme de distribution de fréquence se fait généralement à l'aide d'un diagramme.

Les graphiques à barres utilisent des barres ou des bacs qui poussent un certain montant chaque fois plus de données sont ajoutées à une poubelle. L'histogramme de distribution de fréquences a des compartiments qui ont un certain nombre de fois les données atterri en elle. Par exemple, le bac contenant les nombres de un à dix augmentera à tout moment un nombre compris entre un et dix est produite. Si, par exemple, un trois et sept sont produites, le bac étiqueté «one to ten" et passera deux unités.

D'autres formes courantes d'histogrammes de distribution de fréquence sont des graphiques linéaires et les graphiques de fréquence relative. Les graphiques linéaires ne pas afficher la largeur bin dans le graphique, mais il suffit de placer un point à la valeur de la fréquence pour chaque bac. L'histogramme de distribution de fréquence relative permet seulement une fraction de l'ensemble de données à représenter. Pour trouver la fréquence relative, la fréquence de chaque casier est divisée par la quantité totale de données collectées. Ceux-ci sont souvent utilisés dans les sondages ou des enquêtes afin de simplifier les résultats.

Plusieurs utilisations pour les histogrammes de distribution de fréquence peuvent être trouvée dans l'économie. Il est souvent utile de faire un histogramme de distribution de fréquence avec bacs montrant une certaine fourchette de revenu du ménage. Par exemple, les ménages à faible revenu pourraient ne pas être en mesure de s'offrir une nouvelle technologie, et un histogramme de distribution de fréquences avec des compartiments du revenu des ménages peut le montrer.

Les principales caractéristiques de la modalité, la symétrie, et le type de distribution sont tous largement étudié pour améliorer les résultats économiques. Modalité montre où les pics sont et permet souvent expliquer pourquoi un graphe n'est pas symétrique. Graphes symétriques signifie généralement le type de distribution est normale et d'autres types de distribution peut en outre enquêter non symétriques histogrammes de distribution de fréquence.

Dans le secteur bancaire et la comptabilité, les histogrammes de distribution de fréquence sont utilisés pour suivre les bénéfices provenant de mois en mois. Chaque mois représente une poubelle et tous les profits vont à la poubelle correspondante mensuelle. La prochaine étape est de faire un histogramme de fréquence relative de distribution de comprendre clairement le pourcentage de profit chaque mois est responsable. Ce graphique aide les employeurs à élaborer des stratégies de campagne, ajuster les stocks, et le personnel de manière appropriée.

Qu'est-ce que la vapeur d'acide sulfurique?

La vapeur d'acide sulfurique est l'acide sulfurique (H2SO4) qui est à l'état gazeux, mais est suffisamment basse température en ce qu’ 'il peut être condensée en liquide par des changements de pression sans un changement de température. Les gens peuvent être exposés à des niveaux dangereux de la vapeur à la suite des choses telles que le travail sur un site industriel où l'acide sulfurique est utilisé et entrer en contact avec des batteries automobiles rompues et les accidents de laboratoire. L'acide sulfurique est hautement corrosif, et l'exposition à la vapeur d'acide sulfurique est un risque sérieux pour la santé. Les victimes doivent doit être retiré de la source de la vapeur, pris en air frais, et munie d'un médecin le plus rapidement possible.

Particulièrement dangereux pour les êtres vivants, l'acide sulfurique est très réactif avec l'eau et produit une grande quantité de chaleur tout en réagissant avec lui en plus d'être corrosif suffisant pour brûler la peau humaine et de la chair. Par conséquent, les dommages causés par les premiers effets corrosifs est aggravée par les dégâts supplémentaires de chaleur intense pendant l'exposition et la déshydratation subséquente des tissus endommagés. Conformément à la réglementation du travail des États-Unis en milieu de travail, à la limite légale pour les niveaux de travail des niveaux d'acide sulfurique de vapeur dans l'air est de 1 milligramme d'acide par mètre cube. L'American Conference of Governmental Industrial Hygienists, une organisation qui produit des lignes directrices largement utilisés pour l'exposition chimique en toute sécurité, donne aussi une limite maximale de sécurité pour l'exposition en milieu de travail prolongée milligrammes par mètre cube ainsi qu'une sécurité maximale exposition à court terme de 3 milligrammes par mètre cube mètre.

En cas d'inhalation, vapeur d'acide sulfurique peut causer de graves brûlures à l'intérieur de la bouche, du nez et des voies respiratoires, entraînant des douleurs et des difficultés respiratoires. Il peut aussi provoquer une accumulation de liquide, appelée œdème, dans les poumons, les bronches, ou du larynx; une pneumonie chimique, ou une inflammation des poumons, et des spasmes pulmonaires. Ces symptômes peuvent être mortels si elles nuisent à la respiration suffisante pour causer une insuffisance respiratoire.

Même lorsqu'il n'est pas inhalé, vapeur d'acide sulfurique est dangereux. Le contact avec la peau peut provoquer une inflammation douloureuse, les brûlures et nécroses. Entrer en contact avec les yeux peut provoquer une irritation, sensation de brûlure, ou une vision trouble, et si suffisamment grave, peut causer des dommages permanents au sens de la victime de la vue.

 En plus des dommages causés par un seul incident d'exposition concentrée, une exposition répétée à de faibles niveaux de vapeur d'acide sulfurique au cours du temps peut causer chronique de la peau, des yeux et inflammation des voies respiratoires. Si inspiré ou expiré par la bouche, il peut aussi causer de l'érosion dentaire. Fréquents à faible niveau d'exposition aux vapeurs d'acide sulfurique est également associée à un risque accru de cancer dans les poumons et les voies respiratoires.

Que sont les acides carboxyliques?


Les acides carboxyliques sont un grand groupe de composés chimiques qui ont tous une certaine structure commune, composée des trois éléments les plus importants de la planète - de carbone, d'oxygène et d'hydrogène. Ces différents composés constituent les plus abondants dans la nature des acides organiques. L'acidité légèrement piquant d'agrumes, comme les citrons, vient d'un exemple appelé acide citrique. La plupart des composés sont relativement simples chimiquement, et comme un acide, assez faible. Acides carboxyliques par eux-mêmes usages essentiels, mais plus important encore, ils sont assez faciles à séparer et recombiner avec d'autres composés chimiques pour créer des substances plus complexes.
Les acides ont toujours une sous-structure chimique comprenant un atome de carbone, et un atome d'hydrogène, et deux atomes d'oxygène appelé un groupe carboxyle. Également lié à l'atome de carbone est une grande variété de molécules organiques, dont certains sont très complexes. Il peut aussi y avoir plus d'un groupe carboxyle. Acides dicarboxyliques ont deux pendant un acide tricarboxylique en a trois, et certains acides peuvent avoir jusqu'à 20 groupes carboxyle.
L'une des caractéristiques des acides carboxyliques en les rendant ainsi utiles pour la vie biologique, c'est qu'ils se dissolvent facilement dans les molécules individuelles dans des solvants tels que l'eau. Même les plus complexes et tenaces d'entre eux sont généralement solubles dans une solution d'alcool. L'acide citrique tricarboxylique est un ingrédient commun dans les boissons soda et en denrées alimentaires, autres.
Un autre additif alimentaire commun est l'acide acétique dans le vinaigre. Il est également utilisé dans le commerce pour stopper les réactions chimiques lors du traitement de film photographique. Près de la moitié de la production mondiale d'acide acétique, cependant, est chimiquement transformé en acétate de vinyle, l'un des ingrédients essentiels dans les colles et les peintures. De la même façon à d'autres composés tels que l'acide acrylique, l'acétate de vinyle peut être en outre traité chimiquement à la matière plastique.
Cette polyvalence des acides carboxyliques vient de la facilité de rompre leurs liaisons chimiques. Une démonstration de ce volcan est le modèle d'un enfant contenant une bouteille de vinaigre. Quand une cuillère à café de bicarbonate de soude ou bicarbonate de sodium, est ajoutée, la bouteille bulle violemment sur une écume de l'eau, du dioxyde de carbone et de l'acétate de sodium. Les êtres humains et la plupart des autres animaux tirent l'essentiel de leur énergie à partir des aliments digérés par une série de réactions chimiques appelé le «cycle de l'acide citrique."
Les acides aminés sont aussi parmi les plus importants de la nature des acides carboxyliques. Ils sont surnommés "les éléments constitutifs des protéines." Protéines, à leur tour, créent la diversité presque infinie des tissus organiques, des cheveux, de la peau, de cœur à l'écorce des arbres. Les scientifiques ont pris cette cue, d'utiliser les acides, ou chimiquement secrète entre eux dans une grande variété d'applications. Parfums, agents de blanchiment industriels, les conservateurs alimentaires et les produits pharmaceutiques ne sont que quelques exemples supplémentaires.
Ecrit par: Meg Higa
Edité par: Shereen Skola

Qu'est-ce qu'un moteur cryogénique?

Un moteur cryogénique est typiquement un moteur-fusée conçu pour être soit échapper à la gravité terrestre d'envoyer des sondes en interligne ou à lever des satellites en orbite. Ils utilisent des combustibles liquides qui sont refroidis à très basse température et qui, autrement, seraient dans un état gazeux à la pression atmosphérique normale et à la température, tels que l'hydrogène et l'oxygène. Ces combustibles sont utilisés dans l'une des deux conceptions principales pour produire une force propulsive. Supporte l'hydrogène est vaporisée en tant que carburant et allumé par le dispositif d'oxydation de l'oxygène pour générer norme poussée de fusée à chaud, ou ils sont mélangés pour créer des super vapeurs chaude qui sort de la tuyère de moteur et crée une poussée.

Cinq pays possèdent actuellement testés avec succès, des systèmes de propulsion des moteurs cryogéniques à partir de 2011. Ce sont les États-Unis, la Russie et la Chine, ainsi que la France et le Japon. Travailler au Centre aérospatial allemand à Lampoldshausen en Allemagne, est en cours pour développer la propulsion cryotechnique. L'Inde a également testé sur le terrain une conception fusée cryogénique aussi récemment qu'en 2009, produite à l'Indian Space Research Organisation (ISRO), ce qui a entraîné une défaillance catastrophique du véhicule d'essai.

Ingénierie cryogénique pour carburants de fusée a été autour depuis au moins le design des années 1960, époque de la fusée Saturn V, utilisé par les missions lunaires Apollo États-Unis. Moteurs principaux de la navette spatiale américaine a également utiliser des combustibles cryogénie-enregistrées, de même que plusieurs premiers modèles de missiles balistiques intercontinentaux (ICBM) utilisés comme moyens de dissuasion nucléaire par la Russie et la Chine. Combustible liquide roquettes ont plus poussée et, par conséquent, la vitesse que leurs homologues à carburant solide, mais ils sont stockés avec des réservoirs de carburant vides, comme les combustibles peuvent être difficiles à maintenir, et détériore les soupapes du moteur et les accessoires au fil du temps. Utilisant un combustible cryogénique comme propulseur a requis des installations de stockage pour le carburant, de sorte qu'il peut être pompé dans les réservoirs de stockage de moteur-fusée en cas de besoin. Depuis le temps de lancement de missiles qui sont propulsés par un moteur cryogénique peut être retardée jusqu'à plusieurs heures, et le stockage du combustible est risqué, les Etats-Unis convertis à tous les solides alimentées ICBM nucléaires dans les années 1980.

L'hydrogène liquide et d'oxygène liquide sont stockés au niveau de -423 ° Fahrenheit (-253 ° Celsius) et -297 ° Fahrenheit (-183 ° C), respectivement. Ces éléments sont faciles à obtenir et offrir un des plus grands taux de conversion de l'énergie des combustibles liquides à propulsion par fusée, de sorte qu'ils sont devenus les combustibles de choix pour toutes les nations à travailler sur la conception des moteurs cryogéniques. Ils produisent également un des plus hauts taux connus impulsion spécifique pour la propulsion fusée chimique d'un maximum de 450 secondes. Impulsion spécifique est une mesure de la variation d'énergie cinétique par unité de carburant consommé. Une fusée générer 440 impulsions spécifiques, comme un moteur cryotechnique de la navette spatiale dans le vide, permettrait d'atteindre une vitesse d'environ 9,900 miles par heure (15,840 km par heure), ce qui est juste assez pour le maintenir sur une orbite autour de la Terre en décomposition d'un période de temps prolongée.

Une nouvelle variation sur les moteurs cryogéniques est le moteur cryogénique commun Extensible (CECE) mis au point par la National Aeronautics and Space Administration (NASA) des États-Unis. Il utilise typiquement l'oxygène liquide et hydrogène comme combustible, mais l'ensemble du moteur lui-même est également refroidi. Le carburant se mélange pour créer 5000 ° Fahrenheit (2760 ° Celsius) de la vapeur surchauffée comme une forme de poussée de fusée qui peut être étranglé haut et en bas d'un peu plus de 100% à 10% des niveaux de poussée, pour la manoeuvre d'atterrissage dans des environnements tels que la surface de la lune. Le moteur a subi les tests avec succès aussi tard que 2006, et peut être utilisé à la fois sur Mars et la Lune avenir des missions habitées.

Quelles sont les innovations les plus importantes dans l'évolution?

Les innovations évolutives apparaissent   relativement peu nombreuses et espacées dans les trois ou deux premiers milliards d'années de la vie sur Terre. Les principales innovations évolutives au cours de cette époque étaient l'évolution des bactéries et des cellules oxy photosynthétique complexes (eucaryotes). Bien que la vie elle-même issue d'au moins 3,7 milliards d'années, ce n'est que d'environ 600 millions d'années que la première preuve solide de la vie multicellulaire apparaît.

L'actualisation protozoaires (unicellulaires) innovations évolutives, que les scientifiques sont beaucoup diront la plus importante de toutes pour des raisons techniques, il y a un certain nombre d'innovations évolutives, dont l'utilité est évidente pour tout le monde. Cinq innovations évolutives qui semblent les plus importants sont l'évolution d'une couche de germe de tiers, ce qui permet une cavité du corps, également appelé un cœlome, la prédation, qui coup d'envoi d'une course aux armements du changement évolutif, des yeux, qui, après leur évolution initial est devenu un tel succès que l' majorité des animaux macroscopiques les posséder; la colonisation de la terre par les plantes et les animaux, et l'évolution du vrai vol, qui a eu lieu de façon indépendante à quatre reprises et a ouvert un créneau énorme nouvelle pour les animaux à coloniser.

L'évolution d'une couche de germe de tiers, c'est-à-triploblastiques animaux, a eu lieu entre 600 et 580 millions d'années. Le plus ancien fossile connu triploblastiques est Vernanimalcula guizhouena, une animale minuscule sphère de seulement 0,1 mm de diamètre. Cet animal a été trouvé pour avoir deux cavités du corps qui séparent son intestin à partir de la paroi du corps. Cet arrangement physiologique permet d'amortir les organes internes tout en découplant les dépendances structurelles entre les deux, ce qui leur permet de se développer indépendamment. Il s'agit d'une innovation précieuse de l'évolution.

L'évolution de la prédation et des yeux s'est probablement produite rapprochées, et à la fois très tôt. Compte tenu de ce que nous savons, il est raisonnable de supposer que ces deux événements se sont produits à la même époque, à la limite Précambrien-Cambrien environ 542 millions d'années. Tous les animaux sont monophylétiques yeux, ce qui signifie qu'ils partagent un ancêtre commun qui a évolué au cours de cette période. Ceci est en contraste avec une vue antérieure qui a affirmé que les yeux ont évolué indépendamment à plusieurs reprises. Vers la même époque, les premiers organismes à coquilles dures apparurent, et sondages petits peuvent être vus sur ces coquilles, un signe révélateur de prédateurs. La prédation peut avoir évolué plus tôt, car il est évident rapide de la prédation de la période d'Ediacara, 10-20 millions d'années avant la limite Cambrien-Précambrien.

Les deux dernières innovations évolutives de grande importance sont le passage à la terre et le passage à l'air. Le passage à la terre est le plus important des deux, se produisant entre environ 460 et 430 millions d'années, au cours de l'Ordovicien et le Silurien. Autour de ce temps, les algues vertes évolué en plantes terrestres, qui ont été suivies de plusieurs dizaines de millions d'années plus tard par des arthropodes simples, y compris les ancêtres des araignées modernes et moissonneurs. Le plus ancien fossile connu terrestre est un mille-pattes. Beaucoup plus tard, environ 350 millions d'années, au cours de la période Carbonifère, les insectes ont évolué de vol, en exploitant un créneau énorme nouvelle. Vol serait indépendante évoluer plus trois fois: en ptérosaures, oiseaux et chauve-souris.

Qu'est-ce que la grippe espagnole?

La grippe espagnole était une terrible épidémie qui a tué dans le monde entier entre 50-100 millions de personnes dans une période de 18 mois au cours de 1918 et 1919. Cette classe comme un 5 sur l'Indice de gravité en cas de pandémie, ce qui signifie plus de 2% des personnes qui ont été infectées mort. La grippe espagnole a causé la mort de 2,5-5% de la population mondiale au moment où elle a frappé, tuant plus de la Première Guerre mondiale, où il est survenu immédiatement après. La grippe espagnole était dans la même catégorie de gravité comme la peste bubonique, qui, quand il a frappé comme la peste noire, a tué environ 75 millions de personnes, 25-50 millions d'entre eux en Europe.

La grippe espagnole a été causée par une grippe exceptionnellement grave et mortelle Une souche de virus de sous-type H1N1. Contrairement à la plupart des éclosions d'influenza dans l'histoire, la grippe espagnole a frappé les gens dans la fleur de la vie, plutôt que de choisir au large de la vieille et jeune. Les personnes ayant un système immunitaire affaibli, comme les enfants et les adultes d'âge mûr, avaient des taux de mortalité plus faibles, tandis que les jeunes adultes avaient des taux de mortalité les plus élevés.

La répartition des décès a conduit les scientifiques à affirmer que la grippe espagnole a tué à cause d'une réponse immunitaire excessive, appelée tempête de cytokines. Dans une tempête de cytokines, la réponse immunitaire est si écrasante que la surabondance de cellules immunitaires comme les macrophages, peuvent obstruer les tissus locaux, ce qui provoque l'accumulation de fluides et des dommages éventuellement mortelle. Des tempêtes de cytokines sont habituellement rares, et sont pensés pour être causés par une réaction du système immunitaire à un roman et hautement pathogène envahisseur.

En comparaison à un cas plus typiques de la grippe, qui tue 0,1% des personnes infectées, la grippe espagnole a tué entre 2-20% des personnes atteintes. La principale cause de la mort était d'une infection secondaire des poumons, une pneumonie bactérienne. La cause du décès était secondaire par le virus lui-même, qui a causé des hémorragies massives et un œdème dans les poumons.

Le matériel génétique du virus de la grippe espagnole a été récupéré sur le cadavre d'une victime de la grippe en Alaska pergélisol, une femme qui s'était effondré dans le désert après avoir été frappé par la maladie. Ce matériel génétique a été utilisé pour recréer le virus à partir de zéro et la séquence de son génome entier, qui a été publié sur Internet. Certains technologues, comme inventeur Ray Kurzweil et Sun Microsystems Bill Joy, cofondateur, ont exprimé leur consternation face à ce développement.