-Anatomie et physiologie • Animaux et l'environnement • culture generale • economie • flore et ses bienfaits • Internet et Informatique • L'alimentation et la nutrition • La Biologie • Le mésothéliome • Les épices • Les fruits et légumes • Les vitamines • Maladies & Affections • Médecine et traitements • Médicaments • monde technologique • remèdes naturels • Santé et Bien-être • sciences et génie -orange

mercredi 20 mars 2013

Quelle est l'origine de l'air?

L'origine de l'air que nous savons qu'il commence par la catastrophe de l'oxygène, également connu sous le nom oxydation Grande, qui a eu lieu à environ 2,7 milliards d'années. Avant cela, le niveau d'oxygène dans l'air est d'environ 1/50e de un pour cent. Ceci est similaire au niveau de l'oxygène présent dans l'atmosphère de Mars, environ 1/5e de un pour cent. Comme moderne Mars, l'atmosphère de la Terre primitive était principalement du dioxyde de carbone. Aujourd'hui, l'atmosphère contient de l'oxygène 20%, et seulement 0,038% de gaz carbonique, ce qui rend l'air respirable à fond pour l'oxygène-dépendantes organisme comme la nôtre.

Avec l'avènement d’oxyphotosynthesis dans des microorganismes, ce dioxyde de carbone a été progressivement consommé, la création du «déchet» de l'oxygène élémentaire. La catastrophe de l'oxygène est clairement délimitée dans les archives géologiques par l'introduction de grandes quantités de fer oxygéné (rouille). Ces reliques sont appelées formations de fer rubané. L'événement est appelé une «catastrophe» car l'oxygène est toxique pour les organismes anaérobies, où l'événement anéanti en grand nombre. Il y avait un décalage d'environ 300 millions d'années avant l'évolution des premiers organismes producteurs d'oxygène et la catastrophe d'oxygène à part entière.

Dans les milliards d'années ultérieures, les organismes oxyphotosynthesizing prospéré, produisant de l'oxygène de plus en plus élémentaire. L'histoire de l'air, de l'oxygène pratiquement nulle à 20% d'oxygène, s'étend sur plus de deux milliards d'années. Au cours de la période carbonifère, environ 250 millions d'années, lorsque les plantes ont prospéré, les niveaux d'oxygène sont encore plus élevés qu'ils ne le sont aujourd'hui. Cela a permis l'existence de très grands insectes, y compris une libellule, Meganeura, avec une envergure de deux pieds. Aujourd'hui l'air serait irrespirable à Meganeura, en raison de son manque relatif d'oxygène
.
La recherche est en cours de planètes extraterrestres avec l'air similaire à celle de la Terre, sans succès jusqu'à présent. En examinant le spectre d'un corps planétaire près, les astronomes peuvent déterminer sa composition chimique, même si ce corps est extrêmement lointain. Il s'agit de la même technique utilisée pour déterminer la composition chimique des étoiles lointaines.

Récupération et Prévention de traitement du canal radiculaire

Récupération d'un traitement de canal radiculaire

Pendant que vous rencontrez traitement du canal radiculaire, évitez de mâcher ou mordre sur les aliments durs jusqu'à ce que le traitement soit terminé. Dans certains cas, cela pourrait être après plusieurs visites chez le dentiste.

Après votre traitement final, votre dent restaurée ne devrait pas être douloureux, mais il peut se sentir sensible pendant quelques jours après. Sans prescription analgésiques, comme le paracétamol ou l'ibuprofène , peuvent être prises pour soulager l'inconfort. Toujours lire le paquet pour s'assurer que:
• le médicament est adapté pour vous
• vous prenez la dose correcte
Retour à votre dentiste si vous continuez à éprouver de la douleur ou de l'enflure après avoir utilisé des analgésiques.
Entretien
Après un traitement de canal, nettoyer la dent de la même façon que vos autres dents et revenir à votre dentiste pour des examens aussi souvent qu'ils le conseillent.

Prévenir le traitement du canal radiculaire

La carie dentaire  est le moyen le plus commun pour les bactéries pour infecter le système de canal. Si vous prenez soin de vos dents, vous pouvez prévenir la carie dentaire en développement et le traitement du canal radiculaire ne sera pas nécessaire.

Les bactéries peuvent également entrer dans le canal de racine sous les obturations non étanches, à travers de petites fissures ou lorsque les dents se brisent si elles reçoivent un traumatisme, par exemple après une chute. Par conséquent, il est important de consulter votre dentiste régulièrement, car ils peuvent repérer les problèmes potentiels et éviter les traitements inutiles.
Hygiène bucco-dentaire

Maintenir une bonne hygiène bucco-dentaire est un des moyens les plus efficaces de prévenir la nécessité d'un traitement de canal. Brossez-vous les dents au moins deux fois par jour avec un dentifrice au fluor. Le fluor est un minéral d'origine naturelle qui peut aider à prévenir la carie dentaire.  La soie dentaire est aussi un élément important de l'hygiène buccale. Prenez un morceau de fil dentaire et guider doucement dans l'espace entre vos dents. Déplacez le fil de haut en bas plusieurs fois avant de passer à l'espace suivant.

Il est recommandé que vous la soie dentaire une fois par jour. Vous pouvez trouver la soie dentaire difficile au début, et vous pouvez avoir des saignements de gencives pour les premiers jours. Cela devrait améliorer avec le temps. Demandez à votre dentiste pour des conseils si vous avez besoin d'aide ou si le saignement continue.

Régime

Ne pas consommer d'aliments et de boissons à haute teneur en sucre trop souvent. Les bactéries dans votre bouche se décomposent le sucre en acide qui attaque les dents et la carie dentaire. Manger des aliments sucrés est régulièrement plus susceptibles de causer la carie dentaire que de manger une grande quantité de sucre en une seule séance.
Nourriture et boissons qui sont riches en sucre sont les suivants:
• boissons gazeuses
• chocolat
• bonbons
• gâteaux
• biscuits
Vérifiez l'étiquette pour voir combien de sucre contient un produit (voir encadré à droite). Mâcher de la gomme sans sucre après avoir mangé peut aussi aider à prévenir la carie dentaire. Lorsque vous mâchez de la gomme, votre bouche produit de la salive qui neutralise l'acide dans votre bouche avant il peut endommager vos dents.
Fumeur
Fumer peut affecter la façon dont votre bouche guérit après le traitement du canal radiculaire. Le tabagisme est également un facteur de risque important pour les maladies des gencives , un autre état de santé dentaire.
Arrêter de fumer sera également aider à prévenir les conditions de vie en danger, comme:
• maladie cardiaque , lorsque l'approvisionnement en sang de votre cœur est bloqué ou interrompu par une accumulation de corps gras
• coup , lorsque l'approvisionnement en sang au cerveau est limité ou interrompu
• cancer du poumon 
Parlez-en à votre médecin si vous voulez arrêter de fumer. Un certain nombre de traitements sont disponibles pour augmenter vos chances de cesser de fumer avec succès, et votre médecin peut vous mettre en contact avec des groupes de soutien locaux et un-à-un conseillers. 

Qu'est-ce qu'une usine de procédés chimiques?

Une usine de traitement chimique est un environnement industriel où les produits chimiques peuvent être fabriqués. Dans certaines usines, les produits chimiques existants sont transformés en nouveaux matériaux. La gamme de produits chimiques et les produits fabriqués dans ces établissements est large. Différents procédés chimiques sont souvent nécessaires.

Le procédé qui est utilisé dans une installation de traitement chimique comprend les étapes normalement appelées opérations unitaires. Chaque opération unitaire est généralement effectuée dans une unité séparée ou une zone de l'usine de traitement chimique. Les unités sont habituellement reliés les uns aux autres d'une manière qui permet que les matériaux sont transportés à l'unité suivante lorsque chaque opération est terminée.

Les produits chimiques et produits chimiques à base de produits doivent provenir d'autres choses. La première opération unitaire dans une usine de traitement chimique est généralement la consommation de matières premières, également connu comme matières premières. Une charge ne concerne pas seulement les matières premières de premier introduites dans le processus, mais il peut aussi désigner une substance qui pénètre dans une certaine unité.

La sortie dans une usine de traitement chimique peut se référer à la matière qui a terminé une opération unitaire et sortant d'une unité spécifique. Il peut également se référer à la matière qui a terminé le processus chimique entier et est prêt à quitter l'usine. Un produit chimique ou complété moins une usine de traitement chimique peut être encore qu'à ses premiers stades. Sortie d'une plante est souvent matière première pour une autre.

Les opérations de l'unité qui se produisent entre l'entrée des matières premières et la production finale varient. L'approche adoptée dépendra fortement de ce qui est produit. Même dans un cadre général de la zone de traitement chimique, comme la production de produits pétrochimiques, les processus peuvent varier considérablement.

Les installations où ces processus chimiques sont employés sont généralement conçues par des ingénieurs chimistes. Construire une usine de traitement chimique n'est pas aussi simple que l'emploi de personnes pour ériger la structure et raccorder des tuyaux et de l'électricité. Contrairement à d'autres structures, comme les magasins ou les immeubles de bureaux, il y a beaucoup plus de considération qui doit être pris avec les usines de transformation chimique.

Les matières premières et de sortie de ces installations industrielles peuvent être dangereuses ou toxiques. De graves dommages à l'environnement ou à la santé humaine et animale pourraient se produire si le processus chimique n'est pas bien contenu. Pour assurer la sécurité, les ingénieurs chimistes doivent évaluer comment certains processus chimiques aura une incidence sur les matériaux dont ils interagissent. Les ingénieurs chimistes doivent également évaluer la configuration qui permettra au processus chimique pour atteindre ses objectifs.

Qu'est-ce qu’un graphique d'astronomie?

Un diagramme de l'astronomie est un graphique qui trace une zone de l'univers. Les gens utilisent souvent ce terme pour se référer spécifiquement à des graphiques montrant différentes vues du ciel de la Terre, bien qu'il soit théoriquement possible de faire des cartes d'astronomie qui montrent la vue depuis d'autres planètes ou des points dans l'univers. Astronomie cartes sont utilisées dans un certain nombre de paramètres différents, d'étoile amateur regardant à l'astrologie.

Un tableau de l'astronomie classique montre une section du ciel de nuit avec des étoiles dessinées sur elle. La carte ne peut décrire constellations, observer planètes visibles, et de fournir d'autres informations que les gens peuvent trouver intéressant. Il utilise également les coordonnées de sorte que les gens peuvent s'orienter par rapport à la carte. Aussi connu comme une carte du ciel ou de carte d'étoile, un tableau de l'astronomie peut fournir une grande quantité de données.

Comme beaucoup l'ont noté, les étoiles visibles depuis la Terre varient en fonction de l'endroit où sur la planète on est et ce moment de l'année il est. l'astronomie des cartes sont adaptés à des domaines particuliers et les saisons. Plusieurs sites internet pour les astronomes peuvent créer des cartes personnalisées sur la base d'un code postal ou un ensemble de coordonnées, montrant exactement où les étoiles doivent être visibles dans cette région à un moment donné dans le temps. Les gens peuvent utiliser les cartes du ciel pour suivre les étoiles ou constellations d'intérêts comme ils se déplacent dans le ciel, à la fois au cours de la soirée et au cours de l'année.

Les livres imprimés de cartes astronomiques sont facilement disponibles. Stargazers pouvez les utiliser comme référencent quand ils regardent les étoiles la nuit, et ils ont aussi d'autres fins. Par exemple, les personnes qui tentent d'identifier les supernovae utiliser ces cartes pour voir si une étoile a été cartographié auparavant. De même, les astronomes utilisent ces cartes pour trouver des informations sur l'emplacement des étoiles et d'autres phénomènes. Les astrologues utiliser des tableaux de l'astronomie avec effet rétroactif à la date et le lieu de naissance d'une personne lors de la préparation d'un diagramme d'astrologie, dans la conviction que la position des étoiles peut influer sur le destin de quelqu'un.

La lecture d'un tableau d'astronomie du type de base est généralement assez facile. Il souligne en général les étoiles qui peuvent être utilisés comme points de référence, et les gens peuvent utiliser ces étoiles afin d'identifier d'autres objets d'intérêt dans le ciel nocturne. Le tableau astronomie peut également inclure des informations sur la façon de régler le tableau que la Terre tourne pendant la nuit afin que les observateurs puissent suivre le déplacement des étoiles dans le ciel.

Quels sont Les actinidesu?

Les actinides est le nom collectif donné à des éléments 90-103 du tableau périodique, comprenant le thorium, le protactinium, l'uranium, le neptunium, plutonium, américium, curium, berkélium, californium, einsteinium, fermium, mendélévium, nobelium et lawrencium. L'actinium élément, de numéro atomique 89, après quoi le groupe est nommé, n'est pas - à proprement parler - lui-même un des actinides, mais il est souvent inclus avec eux. Comme avec tous les éléments plus lourds que le plomb, aucun de la série des actinides ont des isotopes stables et radioactifs sont donc tous, en général l'objet d'une désintégration alpha en d'autres éléments. L'uranium et du thorium naturellement, ainsi que des traces de l'actinium, le protactinium, le plutonium et le neptunium. Les éléments restants n'ont jamais été observés dans la nature, mais ils ont été fabriqués en très petites quantités dans les accélérateurs de particules.

L'uranium et le thorium ont une longue demi-vie et ont été présents dans la Terre en quantités importantes depuis sa création. On pense qu'une grande partie de la chaleur dans le noyau de la Terre, qui entraîne la tectonique des plaques et le volcanisme, est due à la décroissance radioactive de ces éléments. L'isotope du plutonium-244 a une relativement longue demi-vie et des traces de plutonium d'origine de la Terre survivent encore, mais la plupart du plutonium dans l'environnement provient de réacteurs nucléaires et des essais d'armes. Naturellement l'actinium, le protactinium, et le neptunium ont beaucoup plus courtes demi-vies, si les quantités de ces éléments qui étaient présents lorsque la Terre s'est formée il ya longtemps ne sont désintégrées en d'autres éléments. Forme actinium, le protactinium et le neptunium par des processus nucléaires associés à la désintégration des isotopes de l'uranium.

Comme les lanthanides, les actinides occupent un bloc séparé de la table périodique principal, car il est généralement représenté, en raison de leurs configurations électroniques. Dans ces deux blocs, la sous-couche la plus externe d'électrons a été occupée avant une sous-couche avant, à cause de celui-ci ayant un niveau d'énergie supérieur, et il est le nombre d'électrons dans cette sous-couche qui différencie les éléments les uns des autres. Pour les lanthanides, il est la sous-couche 4f qui est important, et pour les actinides, la sous-couche 5f. Ces éléments sont également connus comme les éléments f-blocs. La sous-couche la plus externe est la même pour tous les éléments à l'intérieur de chaque bloc, à l'exception de lawrencium, qui diffère de l'élément précédent dans la sous-couche ne 5f, mais en ayant une sous-couche supplémentaire contenant une 7p électrons.

La chimie des actinides est régie par le fait que les électrons de valence, qui peuvent se lier avec d'autres atomes, ne se limitent pas à la sous-couche la plus externe, ce qui donne un nombre variable d'états d'oxydation entre ces éléments. Par exemple, le plutonium peut avoir des états d'oxydation 3 à 7. Tous les éléments sont chimiquement réactif, et s'oxyder rapidement, de plus revêtu d'une couche d'oxyde. La réactivité augmente avec le poids atomique au sein du groupe; toutefois, l'enquête sur les propriétés chimiques de certains des membres les plus lourds est difficile en raison de leur radioactivité intense et très courte demi-vie.

Les isotopes d'actinides à vie longue ont trouvé une grande variété d'utilisations. Le thorium a été utilisé depuis la fin du 19e siècle dans la production de manchons à gaz. La capacité de certains isotopes de l'uranium et du plutonium de subir la fission nucléaire a conduit à leur utilisation dans les réacteurs nucléaires et les armes nucléaires, du plutonium et a également été utilisé comme source d'énergie durable pour les sondes spatiales. L'américium est utilisé dans les détecteurs de fumée.

Quel est le rapport de luminosité de masse?

La relation luminosité de masse est une loi astrophysique concernant la luminosité d'une étoile, ou la luminosité, à sa masse. Pour les étoiles de la séquence principale, la relation moyenne est donnée par L = M3.5, où L est la luminosité dans des unités luminosité solaire et M est la masse de l'étoile mesuré en masse solaire. Étoiles de la séquence principale représentent environ 90% des étoiles connues. Une légère augmentation des résultats de masse dans une grande augmentation de la luminosité d'une étoile.

Un diagramme de Hertzsprung-Russell (DRH) est un graphe où la luminosité d'une étoile est tracée par rapport à sa température de surface. La grande majorité des étoiles connues tombé dans une bande allant de chaudes étoiles avec une grande luminosité des étoiles froides avec faible luminosité. Cette bande est désignée comme la séquence principale. Bien que mis au point avant la fusion nucléaire a été trouvée pour être la source d'énergie d'une étoile, la DRH fourni des indices théoriques pour calculer les propriétés thermodynamiques d'une étoile.

L'anglais astrophysicien Arthur Eddington a fondé son développement sur la relation luminosité de masse sur le développement des ressources humaines. Son approche considérée étoile comme si elles étaient composées d'un gaz parfait, une construction théorique qui simplifie le calcul. Une étoile a également été considérée comme un corps noir, ou un émetteur parfait de rayonnement. En utilisant la loi de Stefan-Boltzmann, la luminosité d'une étoile par rapport à sa surface et donc son volume peut être estimée.

Sous l'équilibre hydrostatique, la compression des gaz due à la gravité de l'étoile est équilibrée par la pression interne du gaz, la formation d'une sphère. Pour un volume sphérique d'objets de masse égale, comme une étoile composée d'un gaz parfait, le théorème du viriel donne une estimation de l'énergie potentielle totale du corps. Cette valeur peut être utilisée pour calculer la masse approximative d'une étoile et relier cette valeur à sa luminosité.

L'approximation d'Eddington théorique de la relation luminosité de masse a été vérifiée de façon indépendante par la mesure des étoiles binaires voisines. La masse des étoiles peut être déterminée à partir de l'examen de leurs orbites, et leur distance établie par les lois de Kepler. Une fois la distance et la luminosité apparente est connue, on peut calculer la luminosité.

La relation luminosité de masse peut être utilisée pour trouver la distance des fichiers binaires qui sont trop loin pour la mesure optique. Une technique itérative est appliquée où une approximation de la masse est utilisée dans les lois de Kepler pour obtenir une distance entre les étoiles. L'arc des organismes sous-tendent dans le ciel et la distance approximative séparant le rendement deux une valeur initiale de leur distance de la terre. À partir de cette valeur et leur grandeur apparente, leur luminosité peut être déterminée et, au moyen de la relation luminosité de masse, les masses. La valeur de la masse est ensuite utilisée pour recalculer la distance séparant les étoiles et le processus est répété jusqu'à ce que la précision souhaitée est obtenue

Qu'est-ce que la mort cellulaire programmée?

La mort cellulaire programmée est un processus par lequel les cellules dans les plantes et les animaux meurent par l'autodestruction, plutôt que pour cause de blessure. Également mentionnée dans les cellules animales que l'apoptose, le processus est typiquement une partie du développement embryonnaire de tous les animaux et est pensé pour être responsable de l'élaboration des chiffres individuels et l'élimination des matériaux excédentaires à différents stades de développement des animaux. Il est également un élément du système immunitaire chez les animaux, et le processus par lequel les cellules excédentaires ou défectueux dans le corps sont éliminées pour maintenir l'homéostasie et de la santé. La mort cellulaire programmée peut également avoir un effet négatif sur le corps d'un animal ou un être humain quand il est déclenché par des virus.

Étudiée et documentée  tout au long de la seconde moitié du 20e siècle, la mort programmée des cellules est responsable de la façon dont divers animaux et plantes se développent et grandissent. Les plantes et les animaux en général se développer par la division et la multiplication des cellules dans l'organisme. Afin de bien compenser ce processus, cependant, la mort cellulaire programmée a lieu de garder le corps de la plante ou de l'animal de croître à un rythme trop énorme.

Le processus est assez compliqué, mais, fondamentalement, une cellule reçoit un signal à l'intérieur ou de l'extérieur de la cellule pour commencer à tomber en panne. Ces pièces sont ensuite marquées comme devant être «mangé» par les phagocytes dans l'organisme. On évite ainsi tout matériau nocif ou de codage de la cellule d'affecter le reste des cellules de l'organisme.

La mort cellulaire programmée est considéré comme un élément particulièrement important de la croissance des animaux et le développement dans la petite enfance et le stade embryonnaire. Par exemple, il est démontré que le développement précoce des doigts et des orteils individuels chez le fœtus humain est due à l'apoptose des cellules qui existent entre les chiffres, mais mourir, laissant les cellules restantes pour former les doigts individuels. De même, la réintégration de la queue d'un têtard dans son corps comme il devient une grenouille est due à la mort cellulaire, plutôt que la division et la croissance de ces cellules queue.

Malheureusement, la mort cellulaire programmée peut être entravée par certains virus et autres mauvaises conditions physiologiques. La propagation du cancer à travers le corps d'un animal est généralement due à l'apoptose se produit pas correctement dans le corps de l'organisme. Dans des conditions idéales, les cellules cancéreuses doivent être commandés à mourir par des protéines dans le corps, empêchant ces cellules cancéreuses de se diviser et de se propager.

La mort cellulaire programmée ne se produit pas correctement, cependant, dans de nombreux cas de cancer, ce qui conduit à la propagation de cellules potentiellement mortelles dans tout le corps. Le virus de l'immunodéficience humaine (VIH) utilise même la mort cellulaire programmée dans un sens négatif en provoquant des lymphocytes T auxiliaires qui normalement combattent les virus et autres infections dans le corps humain pour commencer à s'autodétruire. Cette condition, appelée aussi syndrome d'immunodéficience acquise (SIDA), détruit efficacement le système immunitaire de l'organisme, ce qui entraîne souvent des complications ou la mort d'une autre maladie.

Qu'est-ce qu'un magnétomètre fluxgate?

Un magnétomètre à vanne de flux est un type d'instrument scientifique utilisé pour détecter les variations du champ magnétique terrestre. Magnétomètres fluxgate jouer un rôle important dans la détection d'objets souterrains ou sous-marins. Les archéologues, ingénieurs, géologues et les militaires tous utilisent ou ont utilisé différents types de magnétomètre fluxgate.

Un magnétomètre à vanne de flux est un magnétomètre vectoriel, ce qui signifie qu'il ne mesure pas seulement l'amplitude, mais aussi la direction du champ magnétique terrestre. Le dispositif est constitué de deux noyaux ferromagnétiques entourés par deux bobines de fil. Lorsque le magnétomètre est actif, le courant passe en alternance à travers l'une des bobines, dite "de bobinage," créant des champs magnétiques induits d'intensité différente et complémentaire de direction dans les noyaux. Changements dans le champ magnétique génère un courant électrique dans la bobine seconde, dite "bobine de détection", laquelle peut alors être mesurée. Exposition aux variations du champ magnétique terrestre provoque des variations dans les champs magnétiques des noyaux, ce qui conduit à des changements dans le courant dans la bobine de détection.

Victor Vacquier a inventé le magnétomètre fluxgate dans les années 1930. Avions volant à basse altitude effectués magnétomètres fluxgate pendant la Seconde Guerre mondiale. Les grosses pièces en métaux ferreux, tels que les sous-marins, provoquent des variations localisées dans le champ magnétique de la Terre, de sorte que le magnétomètre est capable de détecter les navires ennemis.

L'utilisation militaire du magnétomètre fluxgate sont poursuivies après la Seconde Guerre mondiale. Magnétomètres fluxgate sont parfaitement adaptés pour le travail de terrain en raison de leur taille et de la durabilité de petite taille. En conséquence, ils sont devenus un outil commun pour la détection des munitions non explosées telles que les bombes, d'obus et de mines terrestres.

Les militaires ne sont pas les seuls clients pour une lumière, un instrument portatif qui peut détecter les variations du champ magnétique de la Terre. Après la Seconde Guerre mondiale, et de plus en plus à partir des années 1960, les archéologues ont commencé à faire usage de magnétomètres fluxgate pour détecter les caractéristiques souterraines. Les métaux ferreux ne sont pas les seules substances utilisées archéologues magnétomètres à rechercher. Brûler modifie localement le champ magnétique de substances telles que la pierre, de la terre et de la poterie, ce qui permet aux archéologues de détecter des dépôts de matériel ancien. Le magnétomètre fluxgate est devenu un favori particulier avec les archéologues, non seulement en raison de sa légèreté et de durabilité, mais aussi en raison de son coût généralement faible.

Le magnétomètre fluxgate est également utilisé dans la recherche en physique. Ces instruments sont montés sur l'aéronef ou véhicule spatial et servant à mesurer les variations du champ magnétique dans l'atmosphère. Magnétomètres fluxgate montés sur engin spatial permet de mesurer les champs magnétiques des planètes autres que la Terre.

Qu'est-ce que La biotechnologie?

La biotechnologie est utilisée pour traiter la nourriture et des médicaments pour des milliers d'années. La levure est souvent une partie de la fabrication du pain ainsi que la fermentation du sucre en alcool. Les scientifiques qui travaillent dans les bioprocédés généralement combinent la technologie et des matières organiques dans les industries pharmaceutiques agro-alimentaire et agricole,. Biologie peut être appliqué à de nombreux procédés industriels, comme la fabrication des plastiques, la production de carburant, et le traitement des déchets. Le génie génétique ainsi que la nanotechnologie est souvent intégrée avec génie biologique ainsi.

Les bactéries, les enzymes, les protéines et divers autres matériaux biologiques peuvent être traités dans des installations de fabrication. Les équipements tels que réservoirs, pompes, turbines et des vannes est généralement utilisé dans les bioprocédés de travailler avec ces substances. Les organismes tels que les bactéries peuvent être conçus pour produire de l'insuline pour les diabétiques, alors que les sucres peuvent être synthétisés en faisant quantités niveau de la production de sirop de maïs ou des boissons gazeuses, par exemple.

Les efforts de génie biologique ont également permis le développement de plastiques biodégradables qui peuvent également être fabriqués à partir de matières renouvelables. Enzymes, naturellement présente chez l'homme et d'autres organismes, peuvent être ajoutés à des procédés industriels et de permettre à ces avoir lieu sans chauffage ou de refroidissement importante. Huiles et graisses peuvent être traitées dans un environnement industriel, tandis que les chercheurs peuvent développer des réactions avec des matières organiques. Traitement biologique des déchets contribue parfois à la purification de l'eau, évacuation des gaz, et la compensation des odeurs.

L'agriculture est un autre secteur qui génie biologique a eu un impact. Elle est parfois associée à la génétique pour produire des cultures avec des protéines qui aident à lutter contre les parasites. Les plantes qui synthétisent des protéines appropriées pour la médecine humaine peuvent être produites aussi bien. La biotechnologie a également impliqué la cartographie du génome humain, en plus de l'élaboration de bases de données informatiques des séquences de protéines dans l'acide désoxyribonucléique (ADN).

En plus de la thérapie génique et la production de vaccins, les nanotechnologies ou la manipulation de composés organiques et inorganiques à l'échelle moléculaire, est souvent intégrée avec génie biologique. Ce type de recherche peut aider à rendre l'utilisation du fonctionnement des cellules, l'intégration de ces moléculaire avec la capacité de générer des données de l'électricité ou un magasin, par exemple. Les chercheurs travaillent à comprendre comment modifier la fonction des cellules pour accomplir des tâches efficaces.

La génie biologique est effectué à de nombreux laboratoires et universités offrent divers sujet comme un domaine d'étude. Un diplôme peut être obtenu dans le domaine, et l'emploi dans les différentes disciplines sont souvent disponibles. Chimie, génie des procédés, microbiologie, et d'autres sujets sont généralement étudiés pour acquérir les connaissances nécessaires pour travailler dans un laboratoire de génie biologique.

Qu'est-ce que le stress du faisceau?

La contrainte faisceau est la pression appliquée à un faisceau qui peut provoquer des tensions, la compression et au flambage. Ces éléments structurels sont conçus avec une certaine élasticité de sorte qu'ils donnent au lieu de claquer sous tension. Dans la conception et la construction d'un bâtiment, il est important de choisir des poutres d'une résistance suffisante pour éviter les compromis l'intégrité structurale. Si une poutre n'est pas assez forte, il peut échouer, ce qui pourrait créer un point faible dans un bâtiment. Suffisamment de points faibles, ou une mauvaise position, pourraient entraîner l'ensemble de la structure à l'automne.

Les ingénieurs peuvent utiliser un certain nombre de formules différentes pour calculer le stress faisceau. Les caractéristiques du faisceau sont une partie importante de l'équation, y compris la longueur, la hauteur et le profil en coupe transversale. Une autre considération est la matière. Poutres métalliques sont plus fortes que celles en bois, par exemple, et certains métaux sont plus élastiques que d'autres. Ces traits peuvent tous avoir un impact sur la façon dont un faisceau effectue quand il est soumis à la pression.

Les structures ajoutent un poids de chargement pour un faisceau. Calculs de contraintes faisceau besoin de déterminer ce qu'il adviendra de la poutre dans la structure finie. Autres éléments de structure devrait prendre un peu de poids, réduire la tension sur une poutre, et la configuration dans le bâtiment peut déterminer comment il se comporte. Faisceaux sont utilisés dans les planchers, les toits et les autres composants d'une structure, et ont besoin d'être très fort dans les immeubles de grande hauteur en raison du poids incroyable de la structure finie.

En plus de poids mort, les ingénieurs doivent penser de poids vif. Cela inclut le stress faisceau lorsqu'un bâtiment est plein de personnel qui peuvent être mobiles et le repositionnement des objets lourds, des ascenseurs au matériel de fabrication. Le vent et d'autres pressions venant de l'extérieur peuvent également contribuer au poids vif. Calculs de contraintes faisceau peut montrer qu'un faisceau ne peut pas fonctionner dans certaines conditions, auquel cas il ne sera pas suffisant pour les besoins du bâtiment.

Pour tout faisceau donné dans un bâtiment, un ingénieur peut déterminer la charge qui sera placée sur elle, et si le faisceau peut lui résister. Si un contrôle technique montre que certains faisceaux ne sont pas suffisants pour le besoin, l'ingénieur peut avoir besoin de faire quelques modifications de conception. Ceux-ci peuvent aller de la modification d'un faisceau d'un élément de structure solide qui peut résister à la charge de la reconfiguration d'un espace de réduire la pression sur les poutres. Ces modifications doivent être faites avec prudence, car ils peuvent à leur tour le poids redistribuer aux autres poutres et de provoquer un problème ailleurs. Logiciel de conception assistée par ordinateur peut aider dans cette tâche.

Qu'est-ce qu'un digesteur de méthane?

Un digesteur anaérobie est plus correctement appelé un digesteur anaérobie, car il se décompose les déchets organiques en limitant l'apport d'oxygène et produit du gaz méthane comme sous-produit. La décomposition anaérobie de matières organiques telles que les matières fécales des animaux, de la nourriture, des déchets et des matières végétales est un processus naturel qui produit du gaz méthane, mais, quand il se produit dans un digesteur de méthane, le gaz peut être récupéré et utilisé comme combustible. Grandes exploitations agricoles et des installations de traitement des déchets souvent recycler les déchets animaux et des eaux usées dans un digesteur de méthane et d'utiliser le gaz, qui est semblable au gaz naturel pour le chauffage et la production d'électricité.

La décomposition anaérobie se déroule en deux étapes. Dans la première, les molécules organiques complexes dans les déchets sont décomposées par les microbes en peptides acides, l'alcool et les sucres simples. Ces molécules sont ensuite décomposées à nouveau par un ensemble différent de microbes. Comme sous-produit, le procédé permet de produire des gaz, y compris le méthane, l'hydrogène et le dioxyde de carbone, et les matières solides à forte teneur en azote. Ce procédé diffère de la décomposition aérobie, ou de la décomposition en présence d'oxygène, qui produit principalement du dioxyde de carbone et de l'ammoniac en tant que sous-produits. En outre, elle réduit également la matière première en une substance qui est inférieure à l'azote et qui peut être utilisé comme engrais.

La construction d'un digesteur anaérobie comprend un récipient étanche à l'air avec un orifice pour l'introduction de la matière de déchets et un tube pour recueillir le gaz. La digestion se déroule le mieux à des températures de l'ordre de 32 ° C à 35 ° C (89 ° F à 95 ° F) et sont fortement réduites si la température descend en dessous de 16 ° C (61 ° F). Le rapport des solides à l'eau doit être d'environ 8%, ce qui signifie que les déchets animaux doivent être mélangés avec une quantité égale d'eau. Même si un digesteur de méthane fonctionne bien avec des déchets animaux seulement, son efficacité peut être améliorée en ajoutant de la matière végétale.

Le double avantage de combustible pour l'électricité et de la chaleur, et la réduction des déchets à un recyclables, sans odeur boues du digesteur de méthane font une option rentable et respectueuse de l'environnement pour le traitement des déchets. Un digesteur de grande taille peut être construit comme une lagune couverte de collecteurs pour recueillir le gaz, tandis qu'un plus petit peut être constitué d'un réservoir qui peut être assis sur le sol ou être enterré. Digesteurs réservoir peut être chauffé, ce qui fait d'eux de meilleurs candidats pour les climats froids. Même si un digesteur de méthane réduit les déchets à un matériau sans odeur, le processus n'est pas sans odeur. En outre, les digesteurs émettre des gaz nocifs comme le monoxyde de carbone, les oxydes de soufre et d'ammoniac, de sorte que la zone immédiate autour d'un digesteur large n'est pas une zone résidentiel idéal.

Qu'est-ce chromatographie en phase gazeuse?

La chromatographie en phase gazeuse est une technique d'analyse utilisée pour recueillir des informations sur les composants chimiques d'un échantillon de gaz. Pas tous les échantillons ne se prêtent à ce type d'analyse, ce qui nécessite un chauffage de l'échantillon pour le vaporiser. Certains peuvent se dégrader dans ces conditions et peut donner des résultats inexacts ou incomplets. Dans les cas où il est approprié d'utiliser cette technique, plusieurs passages peuvent être nécessaires pour recueillir toutes les données nécessaires, en fonction de l'échantillon et la raison de l'essai.

Dans cette procédure, un chimiste injecte une petite quantité d'un échantillon dans un port qui chauffe rapidement, bien au-delà du point d'ébullition du mélange. Le chromatographe en phase gazeuse pompe d'un gaz porteur inerte à travers l'échantillon, le poussant dans une colonne. Lorsqu'il se déplace à travers la colonne, les éléments séparer car ils se déplacent à des vitesses différentes lorsqu'ils sont vaporisés. Ce qui leur permet de passer à travers un détecteur à des moments différents.

Le détecteur déclenche un enregistreur de noter la présence de gaz particuliers. Certains détecteurs utilisés en chromatographie gazeuse sont sensibles à un composé spécifique et ne réagit pas aux autres, ce qui permet aux scientifiques de déterminer si un produit chimique particulier est dans un échantillon, et à quelle concentration. D'autres ont un mécanisme d'action plus large et peut noter la présence de plusieurs produits chimiques dans un seul test. Chromatographie en phase gazeuse n'est pas infaillible, car il est possible pour les produits chimiques de se cacher derrière des traces de l'autre, et une autre passe peut être nécessaire pour préciser les composantes d'un mélange et leurs concentrations.

Une utilisation possible de chromatographie en phase gazeuse est en essai de pureté. Il peut aussi aider les gens à déterminer les concentrations des différents composés dans un échantillon mixte. Certains chimistes de l'utiliser pour l'identification des échantillons inconnus. Ce processus est souvent en vedette dans des émissions de télévision en médecine légale, où il faut se traduit généralement par secondes et des rendements très précises. Dans les laboratoires de chimie, chromatographie en phase gazeuse peut prendre une heure ou plus pour la première passe, et plus les essais peuvent être nécessaires pour recueillir toutes les informations nécessaires.

Ce processus doit être étroitement contrôlé pour obtenir les résultats les plus fiables et efficaces. Contrôle de la température est essentiel de maintenir l'échantillon dans la bonne fourchette, et l'équipement doit être calibré et nettoyé entre les échantillons. De nombreux laboratoires de fournir un manuel contenant des instructions détaillées sur les politiques et procédures visant à assurer que les tests est cohérent, et tout le personnel de savoir comment gérer l'équipement. Dans le cas d'un différend ou une question sur un échantillon, le laboratoire peut envoyer l'échantillon à un autre établissement pour vérification, ou pourrait demander une visite d'un technicien pour confirmer que le chromatographe en phase gazeuse est étalonné et fonctionne correctement.

Qu'est-ce que la vitesse angulaire?

La vitesse angulaire est souvent utilisée pour décrire la rotation d'un objet dans une trajectoire circulaire. Il définit généralement la vitesse de variation, en fonction du temps, de déplacement angulaire, ou le changement de la position d'une particule ou d'un autre objet. Généralement déterminée par une droite perpendiculaire à la courbe d'un cercle, la vitesse angulaire est aussi perpendiculaire à la direction dans laquelle tourne quelque chose. Il est généralement calculé par une formule mathématique et peut être indiquée par le symbole grec oméga.

La vitesse d'un objet est généralement déterminée par sa vitesse angulaire. Pour calculer cet attribut, la position initiale de l'objet est en général déduite de la position de fin. Le nombre calculé est ensuite divisé par le temps pour aller d'un endroit à un autre. Vitesse angulaire, par conséquent, est généralement mesurée en voyage le long d'un cercle dans une période de temps spécifique. Degrés, des révolutions ou des unités d'un cercle appelé radians parcouru chaque seconde peut être calculée; la mesure est aussi appelée vitesse de rotation.

La vitesse angulaire constante peut être mesurée, ou la vitesse moyenne le long d'un trajet peut être déterminée. Multipliant la vitesse moyenne de temps permet de déterminer le déplacement angulaire, qui sont tous deux également des éléments de rotation. La vitesse à laquelle les changements de vitesse est défini par son accélération. Il existe différentes formules pour le calcul de chaque caractéristique, une certaine connaissance des lettres grecques et les symboles, ainsi que la trigonométrie, est généralement utile pour comprendre comment utiliser la plupart des équations appropriées.

Le mouvement des particules microscopiques est souvent déterminé par la vitesse angulaire calculée. Rotation peut être positif ou négatif, en fonction de l'orientation de la particule à l'axe horizontal X et l'axe Y vertical. La vitesse est également déterminée par le point d'origine et la façon dont les axes de coordonnées sont mis en place. Le mouvement d'une particule, par exemple, on peut supposer que se produisent autour d'une courbe ou en ligne droite. Vitesse angulaire peut être mesurée en deux dimensions, la direction d'un objet n'est pas spécifiée dans ce cas, alors que l'ampleur et la direction sont tous deux définis pour quelque chose qui tourne dans un espace à trois dimensions.

Pour un objet se déplaçant dans une voie qui n'est pas circulaire, angulaire vitesse linéaire se produit généralement à angle droit à une direction prédéterminée. La demande de position, appelé vecteur, et la vitesse de l'objet forment un angle généralement utilisé dans une équation. Deux directions de déplacement peuvent être prises en compte dans le calcul. Un vecteur supplémentaire, cependant, peut être ajouté à un système de coordonnées à trois dimensions afin de calculer la vitesse angulaire.

Quels sont les différents sphincters dans le système digestif?

Comme alimentaire progresse à travers le corps, il se déplace à travers les différents sphincters dans le système digestif. Au total, il existe six sphincters dans le système digestif, qui ont le rôle général de contrôle de la direction et le mouvement du matériau. Ainsi que les six sphincters distinctes, il ya aussi des muscles du sphincter qui bordent la fois l’œsophage et des intestins pour aider matériau de poussée le long.

Chez les humains, le système digestif commence à l'embouchure et se terminent au anus, où les déchets sont déchargés par le corps. Les six sphincters différents dans le système digestif sont le sphincter œsophagien supérieur (UES), le sphincter cardiaque, le sphincter du pylore, le sphincter iléo-colique et l'involontaire et sphincters anaux volontaires. Certains scientifiques estiment que le sphincter cardiaque ne est pas un véritable soupape de sphincter, donc peut ne pas l'inclure dans son énumération des différents sphincters dans le système digestif.

La digestion commence dans la bouche, avec des enzymes digestives étant ajoutés à la nourriture comme il est mâché. De la bouche, les produits alimentaires se déplacent dans l'œsophage pour être transportés jusqu'à l'estomac. La nourriture est poussée à travers les UES pendant la déglutition. Ce sphincter permet à la nourriture à travers et empêche l'air de pénétrer dans l'œsophage en même temps.

Le sphincter cardiaque est également désigné sous le sphincter œsophagien inférieur (LES), et se trouve à la base de l'œsophage où il rencontre l'estomac. Le rôle du sphincter cardiaque est d'arrêter l'écoulement du matériau dans l'œsophage. Le contenu de l'estomac sont très acides et peuvent brûler l'œsophage, qui est ce qui provoque les symptômes de brûlures d’estomac.

Dans l'estomac, de la nourriture est agitée et mélangée avec les sucs gastriques pour former un mélange crémeux. Ce mélange est appelé chyme, et il se déplace à partir de l'estomac à l'intestin grêle à travers le sphincter pylorique. Ce sphincter empêche le reflux du chyme du duodénum dans l'estomac. Elle réglemente également la vitesse de libération du chyme sorte qu'il y ait un flux régulier de nourriture dans l'intestin grêle pendant plusieurs heures après avoir mangé. Cela permet de la quantité maximale de digestion se produit.

La digestion et l'absorption des éléments nutritifs se produit dans l'intestin grêle. De là, ce qui reste du chyme passe à travers le sphincter iléo-caecale dans le gros intestin. C’est là que l'eau soit absorbée dans le corps comme le chyme se déplace à travers elle vers le rectum. Le sphincter anal involontaire produit le besoin de déféquer, tandis que le sphincter anal volontaire est responsable de déféquer et d'expulser les selles qui restent après la digestion et l'absorption a eu lieu.

Que signifie Ève mitochondriale?

«Ève mitochondriale» est le nom donné par les scientifiques à la femme qui est le plus récent ancêtre matrilinéaire commun de tous les humains vivants. Cela signifie que tous les êtres humains vivants ont l'ADN mitochondrial provenant de la sienne. Ève mitochondriale est pensée pour être une femme qui a vécu en Afrique orientale environ 140.000 ans. Le concept est distinct du plus récent ancêtre commun - car le nombre d'ancêtres l'on a augmente de façon exponentielle à mesure qu'on en arrière dans le temps, le plus récent ancêtre commun de l'humanité entière a vécu plus récemment, probablement moins de 100.000 ans. Mais en raison de la recombinaison de l'ADN nucléaire sexuel, chaque personne vivante aujourd'hui seulement une fraction du matériel génétique commune avec celle ancêtre commun.

Les tests qui permettent scientifiques savent à peu près quand Eve mitochondriale a vécu sont basées sur l'ADN mitochondrial, de petites boucles d'ADN trouvés dans les mitrochondria, les centrales électriques de nos cellules. L'ADN mitochondrial n'engage que la recombinaison génétique avec lui-même, ce qui signifie qu'il reste relativement constant d'une mère à sa progéniture. Le seul facteur qui fait changer est la mutation, et puisque le taux moyen de mutation est connue, les scientifiques peuvent estimer combien différente humaine (ou animale) lignées sont liés les uns aux autres, et que leur ancêtre commun le plus récent est susceptible d'avoir vécu. Les estimations ont tendance à être plus précis lorsque l'échelle de temps est relativement courte, dans des centaines de milliers d'années plutôt que des millions d'années. Délais impliquant des centaines de millions d'années sont généralement considérés comme ayant une faible précision.

Il y a quelques idées fausses associées à la notion d'Eve mitochondriale. Cette femme n'était pas la vie que l'homme à l'époque - depuis que les humains descendent d'autres hominidés incrémentielle, les scientifiques ont émis l'avis qu'il n'y avait pas de "Adam et Eve" - ​​Aucun couple fondateur et Ève mitochondriale représente seulement la personne que tous les humains vivants ont obtenu leur ADN mitochondrial. Ève mitochondriale était une femme parmi des dizaines ou des centaines de milliers de personnes qui vivaient en Afrique à l'époque. D'autres femelles vivant à l'époque était peut-être l'ancêtre commun de tous les êtres humains vivant aujourd'hui, mais il existe au moins un homme dans leur lignée ancestrale entre hier et aujourd'hui. A l'inverse, Ève mitochondriale a donné naissance à une fille qui a donné naissance à une autre fille, à travers des milliers de générations jusqu'à aujourd'hui, où l'ADN mitochondrial est toujours transmis dans un format fille à fille.

Qu'est ce qu'une des puces à ADN?

Un micro-réseau d'ADNc est une méthode de déterminer quels gènes dans une cellule sont actifs à un moment donné. Ceci est utile pour distinguer les gènes qui agissent différemment dans différents types de cellules et aussi quels gènes sont actifs dans certaines conditions, telles que le cancer. Le nom d'ADNc dérive de l'utilisation de l'acide désoxyribonucléique petite (ADN) qui collent à l'acide ribonucléique (ARN) que les cellules expriment. Ces petites séquences d'ADN sont complémentaires (c) les séquences d'ARN, d'où le collant, et ils sont aussi marqués avec des étiquettes fluorescentes, si un expérimentateur peut voir des séquences d'ARN qui sont exprimés et dans quelle mesure.

Les cellules contiennent de l'ADN comme un modèle pour toutes les protéines d'une cellule a besoin. La séquence de l'ADN représente les acides aminés que le corps a besoin de rassembler et de faire pendre une protéine. Fabrication entre l'ADN et la protéine est une étape intermédiaire. La cellule copie de la séquence du gène dans une autre forme appelée ARN messager (ARNm). Ensuite, la machinerie cellulaire se lit comme instructions de l'ARNm de la protéine désirée.

Comme l'ARNm de gènes particuliers n’est pas tous exprimés en permanence, les généticiens peuvent regarder ce qui est exprimé sous certaines conditions. Il peut être utile de comparer les cellules tumorales des cellules saines et de voir quels gènes expriment l'ARNm différemment dans les deux situations. Cette information peut ensuite pointer vers des cibles scientifiques pour les traitements. Différents types de cellules produisent également des modèles d'ARNm différents, car chaque type de cellule a un travail différent.

La base d'un micro-réseau d'ADNc est que le test identifie l'ARNm exprimé à partir d'un échantillon d'une sensibilité qui permet à l'expérimentateur de déterminer quels sont les gènes exprimant plus que d'autres et qui ne sont pas du tout exprimer. Comme un micro-réseau d'ADNc teste habituellement des centaines de milliers de séquences d'ARNm, il est généralement fait à la machine. L'analyste ne pas utiliser l'ARNm il extrait d'une cellule directement, mais fait plutôt une copie de cet ARNm en une séquence d'ADN.

Les sociétés commerciales fabriquent des plaques de micro-réseaux d'ADNc pour les laboratoires à utiliser. Ils font les séquences d'ADN qui correspondent à des centaines ou des milliers de gènes que l'expérimentateur souhaite tester et mettre chacun individuellement sur une lame de puces à ADN unique. Cela représente l'ensemble des gènes qui pourraient être exprimées dans ce groupe.

Des séquences complémentaires de l'ARNm que les extraits de chercheur de la cellule sont ensuite réalisés en laboratoire en copiant l'ARN en ADN. Ces produits ont une séquence qui colle à l'ADN sur la diapositive puces à ADN qui aurait produit l'ARNm. L'analyste se fixe alors des molécules fluorescentes sur ces séquences d'ADNc.

Couvrant la glissière puce à ADN dans l'ADNc permet des séquences complémentaires à coller ensemble. La lame est ensuite lavé pour éliminer les non liée ADNc. Dispositif de balayage mesure alors la quantité de fluorescence, le cas échéant, sur chaque point de l'ADN. Gènes qui expriment l'ARNm de plus auront plus de fluorescence ADNc lié à eux que des gènes qui expriment l'ARNm de moins. De cette façon, l'analyste peut déterminer quels gènes sont plus actifs que d'autres et comparer les résultats à un type cellulaire différent.

Qu'est-ce que la guerre biologique?

La guerre biologique, aussi appelé la guerre bactériologique, est l'utilisation de micro-organismes nuisibles tels que des virus ou des bactéries par des factions militaires ou terroristes contre des civils, des militaires, opposées, des cultures ou des animaux. Les organismes qui sont utilisés peuvent travailler en produisant des poisons ou des toxines nocives que ce soit avant ou après leur expédition. Il peut ne pas être nécessaire de libérer une grande quantité d'armes biologiques, étant donné que certains types d'agents mortels ont le potentiel de tuer même des millions de personnes en libérant seulement des traces.

La guerre biologique peut être utilisée de plusieurs manières différentes par une tenue militaire ou d'autres personnes avec des intentions nuisibles. La perception la plus courante de l'utilisation d'agents biologiques est qu'ils sont destinés à tuer des quantités massives de soldats et de civils, mais il y a des nombreuses façons dont ils pourraient être utilisés. Germes moins nocifs pourraient être réparties entre les soldats ennemis pour les rendre trop malade pour se battre. Une autre utilisation efficace des micro-organismes est de les utiliser pour tuer ou endommager les cultures vivrières de l'ennemi dans le but de couper leur approvisionnement en nourriture, ce qui peut inclure le bétail ainsi que les principaux aliments de base à base de plantes
.
En 1969, aux États-Unis, l'ancien président américain Richard Nixon a déclaré que le pays ne plus utiliser la guerre biologique contre d'autres pays. Ce type de combat a été interdit par un traité international en 1975, et il inclut également la possession et la production d'armes biologiques. Cependant, les stratèges militaires doivent encore, à ce jour, prendre en compte l'éventuel recours illégal de la guerre biologique par l'ennemi. Pour cette raison, il ya une recherche constante partout dans le monde scientifique qui se consacre à la défense contre une multitude de scénarios d'attaques biologiques. Il s'agit notamment des attaques terroristes, aussi appelés bioterrorisme, ce qui pourrait se produire n'importe où et à tout moment.

Pour une arme biologique pour être efficace, il doit être capable de se déplacer rapidement et sur une large zone. Il doit aussi être difficile à corriger. Par exemple, si c'est une maladie, le vaccin doit être difficile à trouver, voire inexistants. Le charbon est une forme de guerre biologique qui, si elles sont produites correctement, pourrait se propager par l'air sur une grande surface et d'infecter sa cible assez rapidement. Comme les effets de l'anthrax ne sont pas transférés entre des personnes ou des animaux par des moyens normaux tels que la respiration, l'anthrax peut facilement être confiné à une zone cible. Cependant, cette région a le potentiel d'être très grand et restera contaminée pendant une longue période après l'arme a été libéré en raison de la force accrue d'un contaminant qui a été spécialement conçu comme une arme biologique.

D'autres agents qui ont été utilisés ou manigancé que la guerre biologique contre les gens comprennent le choléra, la variole et la fièvre jaune, pour n'en nommer que quelques-uns. Comme il y a tant de variétés, ceux qui s'intéressent à la défense contre les attaques biologiques doivent être prêts à identifier le type de germes ou de toxines aussi vite que possible à travers un large éventail de méthodes. Les toxines et les poisons produits par des armes biologiques sont souvent considérés comme des types de guerre chimique. Il y a une bonne partie de la recherche qui se fait dans les deux domaines de la guerre biologique et chimique simultanément, car ils peuvent être si étroitement liés.

Quelle est la probabilité conditionnelle?

La probabilité conditionnelle est un terme souvent utilisé pour décrire la probabilité d'un événement spécifique, étant donné qu'un second événement se produit. Cette probabilité est exprimée comme formulaically P (A / B). Probabilité conditionnelle est un concept mathématique, mais il est souvent utilisé dans les expériences scientifiques dans lesquelles deux ou plusieurs variables d'événement sont concernés.

Afin de déterminer la probabilité conditionnelle, la probabilité combinée de la première et deuxième événement est divisée par la probabilité de l'événement secondes. Par exemple, s'il y a 100 personnes dans une chambre, 25 pour cent d'entre eux ont à la fois les cheveux bruns et les yeux verts, et 40 pour cent d'entre eux ont les yeux verts, la probabilité conditionnelle serait représenté en divisant par 0,25 à 0,40. Le résultat est de 0,625. Cela signifie qu'il ya une probabilité de 62,5 pour cent que tout individu choisi parmi le groupe aura les cheveux bruns, étant donné qu'il ou elle a les yeux verts.

La probabilité conditionnelle a un certain nombre d'applications dans de nombreux domaines. La formule peut facilement être appliquée à une grande variété d'expériences scientifiques afin d'obtenir des informations importantes. Cette information est importante pour les chercheurs médicaux et pharmaceutiques, tous les types d'ingénieurs de développement et même les analystes d'affaires.

Les chercheurs médicaux et pharmaceutiques pourraient utiliser les données de probabilité par rapport à des réactions ou des interactions médicamenteuses pour déterminer la probabilité d'un patient ayant une certaine condition fondée sur un ensemble donné de circonstances, ou pour déterminer la réaction probable d'un patient à un certain traitement en fonction de variables connues. Les ingénieurs peuvent utiliser ces équations par rapport aux taux d'échec, de choisir les meilleurs matériaux possibles pour un projet ou pour déterminer les temps de guérison pour certains types de matériaux. Un analyste d'affaires voudra peut-être de déterminer la probabilité d'un client achetant un élément spécifique, étant donné qu'il possède déjà un autre élément spécifique. Ceci peut être utilisé pour aider à déterminer les meilleures cibles pour le marketing et les campagnes publicitaires.

L'illustration des résultats de probabilités conditionnelles sont parfois présentées dans un diagramme de Venn, qui est un schéma de deux ou plusieurs cercles qui se chevauchent. Un cercle représente les cas où à la fois le premier et le deuxième événement se produire. L'autre cercle représente les instances dans lesquelles seul le deuxième événement se produit. Les zones de chevauchement représentent la probabilité de survenue d'événements seconds, étant donné que la première s'est produite.

Les calculs pour les situations impliquant plus de deux événements ou variables devenu beaucoup plus complexe. Beaucoup suggèrent qu'ils peuvent être simplifiés en utilisant des nombres réels plutôt que des pourcentages ou des taux. Probabilité conditionnelle est souvent la première étape nécessaire dans le calcul des fonctions avancées, telles que la probabilité inverse.

Quelles sont les différentes causes des pluies acides?

Les pluies acides sont un terme général qui décrit la précipitation faible pH, qui se combine avec des particules acides dans l'air et se dépose sur la terre et dans les eaux. La principale cause des pluies acides est le soufre qui réagit, dans l'atmosphère, pour devenir le dioxyde de soufre. La principale source de ce soufre est centrales au charbon, tandis que la pluie acide secondaire entraîne pour le soufre peuvent être naturelles, comme les volcans et les activités bactériennes. Les oxydes d'azote sont l'autre cause majeure des précipitations acides. Ces gaz résultent généralement de la combustion de combustibles fossiles, en particulier dans les centrales électriques et les automobiles.

Généralement, la pluie normale tend à être un peu sur le côté acide, avec un pH inférieur à 7. L'introduction de molécules acides de dépôts acides, y compris les précipitations et la chute des particules elles-mêmes, peuvent grandement diminuer le pH de l'eau et des sols environnants. Ces effets des pluies acides peuvent être dévastateurs pour la vie aquatique, l'écologie des sols et des forêts - en particulier dans les zones montagneuses. Les pluies acides provoquent l'érosion accélérée de nombreuses substances dures, comme le métal et la pierre, ce qui entraîne une dégradation rapide des structures historiques et œuvres d'art qui ont résisté aux éléments pendant de longues périodes de temps.

La majorité des pluies acides provoque proviennent de la pollution générée par la combustion de combustibles fossiles. Une grande partie du charbon brûlé pour produire de l'électricité contient du soufre. Lorsqu'il est brûlé dans une centrale électrique, ce soufre dans l'atmosphère et réagit avec l'oxygène pour former du dioxyde de soufre. Certaines municipalités ont mis en place à grande cheminées sur leurs centrales pour éviter la pollution dans leurs communautés. Il en résulte les polluants rejetés dans l'atmosphère à des niveaux plus élevés, et de contribuer à des problèmes de pluies acides sur une zone plus large.

Il y a aussi des sources naturelles de soufre qui contribuent aux pluies acides. Ces organiques des causes des pluies acides incluent les volcans, qui produisent environ un dixième de la quantité de soufre produite par les activités humaines. Les feux de forêt sont une autre source de soufre, de même que l'activité bactérienne sur terre et dans l'eau. Phytoplancton produisent des émissions de soufre, et une partie de l'odeur caractéristique de l'océan est due à ces composés soufrés.

Une autre source majeure des pluies acides sont composés d'oxyde d'azote, qui réagit dans l'atmosphère pour former de l'acide nitrique. Ces produits chimiques sont de plus en plus préoccupants, car plus de contrôles sont imposées sur l'utilisation du soufre. Ces composés sont produits lorsque des combustibles fossiles sont brûlés, y compris le charbon dans les centrales électriques. Les automobiles sont également une source importante d'oxydes d'azote. Comme l'utilisation de l'automobile augmente partout dans le monde, la production de ces composés augmente.

L'une des causes des pluies acides est l'ammoniac, un autre composé azoté qui se termine également dans l'atmosphère. Elle est produite comme un déchet de la production animale. Le bétail élevé par les êtres humains est également fortement contribué à la pluie acide. L'activité électrique de la foudre ajoute également à l'azote à l'atmosphère acide.

Qu'est-ce qu'une équation d'énergie potentielle?

Plusieurs équations utilisées dans les sciences viennent d'une équation de l'énergie potentielle. Une équation générale de l'énergie potentielle signifie que le travail effectué pour un système est égale à l'énergie potentielle perdue. L'énergie potentielle est une énergie stockée dans un système qui est perdu quand le travail est fait. Il prend de nombreuses formes communes, comme l'énergie potentielle gravitationnelle perdue lorsque quelque chose tombe vers la Terre. Sous toutes ses formes, une équation de l'énergie potentielle montrera où l'énergie provenait d'effectuer des travaux.

Les ressorts stockent l'énergie  sous la forme d'énergie potentielle élastique qui est libérée lorsque le ressort est autorisé à se détendre. L'étirement permet de stocker l'énergie, et l'énergie potentielle d'un ressort est égale à la quantité de travail au printemps peut faire quand il se détend. De nombreux autres objets de stocker l'énergie sous forme d'énergie potentielle élastique, y compris les bandes de caoutchouc et cordes de guitare. Les deux sont tendus plus difficile de provoquer une vibration plus rapide ce qui équivaut à plus de travail en raison de plus d'énergie potentielle élastique.

La gravité peut stocker de l'énergie parce que toute la masse est légèrement attirés par la masse des autres. L'équation de l'énergie potentielle de la gravité prend de nombreuses formes. Gravité de la Terre stocke l'énergie potentielle et fonctionne lorsque les objets sont décollée et a permis d'attirer de retour vers la Terre. Comme le chariot monte une colline, son énergie est stockée. Lorsque le chariot va sur la colline, toute l'énergie potentielle emmagasinée est libérée, provoquant la charrette pour aller plus vite, ou faire un travail. D'autres équations d'énergie potentielles pour impliquer la gravité des orbites spatiales, le mouvement galactique, et les trous noirs.

Changer la température de travail représente, et une équation d'énergie potentielle pour des produits chimiques peut généralement prendre un changement de température. Stockent l'énergie Chemicals sous la forme d'obligations. Ces obligations peuvent se briser et changer de position pour libérer l'énergie potentielle et augmenter la température. La mesure de cette évolution montre à quel point l'énergie potentielle d'une réaction chimique a. Combustion de l'essence montre comment un liquide stocke l'énergie potentielle et la libère pour produire de la chaleur extrême.

L'énergie nucléaire de fission comme un exemple de l'énergie potentielle nucléaire. La puissance est égale au travail effectué au cours d'une certaine période de temps, et l'énergie nucléaire peut être calculée à partir d'une équation de l'énergie nucléaire potentielle. Cette énergie est stockée dans les liens très étroits entre les parties qui composent les atomes. Au cours de la fission nucléaire, les atomes absorbent pièces supplémentaires et devenir instable. Une fois que les atomes se décomposent en atomes plus stables, ils libèrent de l'énergie stockée dans les connexions sont bien serrées que de rupture.

Quelle est la constante gravitationnelle?

La constante gravitationnelle se réfère à un comportement observé physique ou qualité qui explique le niveau de l'attraction gravitationnelle entre les objets. Essentiellement, les deux objets dont la masse va exercer une certaine force d'attraction sur l'autre, elle est la force qui maintient la Terre tourne autour du soleil plutôt que de sombrer dans le néant. La constante de gravitation, connu sous le nom U, explique la quantité de traction ou une attraction sur un autre objet a, lorsqu'il est multiplié par la masse des deux objets et divisé par le carré de la distance entre les deux objets.

La chasse à la constante gravitationnelle préoccupe beaucoup les esprits les plus brillants de la science pour la plupart des 17e et 18e siècles. Selon la légende, le chemin vers la découverte de la constante de gravitation a commencé par un pari entre trois éminents scientifiques de l'époque - Sir Christopher Wren, Edmund Halley, et Robert Hooke - sur les chemins orbitaux des planètes. Halley, inspiré, choisir de visiter le vénéré professeur Isaac Newton de l'aide, qui a révélé non seulement la bonne réponse, mais qu'il avait résolu le problème il ya quelque temps, mais en quelque sorte égaré les notes. Halley pressé Newton se pencher sur la question à nouveau, gagne le crédit considérable pour inspirer la publication de Newton Philosophiae Naturalis Principia Mathematica, l'une des œuvres les plus marquantes de l'histoire humaine scientifiques.

Bien que les Principia de Newton théorisé la présence de la constante de gravitation, il n'a pas répondu à la question de la valeur mathématique de G. Plus de 70 ans après la mort de Newton, un scientifique brillant et fascinant excentrique du nom de Sir Henry Cavendish a hérité d'une machine à pour but de mesurer la densité de la Terre. La machine a été la conception d'un autre scientifique, le révérend John Michell, qui est décédé avant d'avoir pu achever ses expériences. La machine fabuleusement complexe, ce qui était censé être si sensible qu'il devait être observée dans le fonctionnement d'une autre pièce pour éviter de contaminer les résultats, a permis de produire non seulement la densité résultats souhaités, mais aussi conduit à des calculs futurs de la constante gravitationnelle.

Les calculs de Cavendish ne sont pas tout à fait exacts, mais même avec la technologie du 21ème siècle, la constante de gravitation reste l'une des constantes physiques les plus difficiles à mesurer. Les scientifiques ont revu les calculs à plusieurs reprises au cours des siècles intermédiaires, arrivée en 2006 à une expression largement acceptée mathématique de G = 6,667428 x 10-11 m3 kg-1 s-2, où M = longueur en mètres, kg = masse en kilogrammes et s = temps en secondes. Avec des siècles de recalcul derrière eux et le potentiel pour les siècles à venir remplis de plus de raffinements, des explications plus scientifiques ajoutent que cette équation doit toujours inclure une certaine marge d'erreur.

Qu'est-ce qu'un diagramme de Hertzsprung-Russell?

Le diagramme de Hertzsprung-Russell est un outil que les astronomes et astrophysiciens utilisent pour classer les différents types d'étoiles. Il est parfois appelé le diagramme couleur-magnitude (CMD).

Le diagramme de Hertzsprung-Russell principalement parcelles couleur / chaleur d'une étoile contre sa magnitude absolue / luminosité. La couleur et de la chaleur sont de l'axe x. Ils partagent un axe parce que la couleur et la chaleur corrèlent très bien avec l'autre. Jusqu'à environ 3500 K la température de surface, les étoiles sont rouge, allant jusqu'à environ 4500 K elles sont de couleur orange, à environ 6000 K, ils sont de couleur jaune, à environ 9000 K, ils sont de couleur blanche, et qui sont au-delà de bleu. Certaines étoiles comme Wolf-Rayet, ont des températures de surface jusqu'à 25.000 K.

La magnitude absolue / luminosité sont l'axe y du diagramme de Hertzsprung-Russell. Encore une fois, comme avec l'axe des x, l'axe y peut partager deux variables parce que les deux sont liés. La magnitude absolue est mesurée en utilisant une échelle de luminosité standard, tandis que le côté luminosité est mesuré en termes d'unités solaires. Le côté solaire unités est une échelle logarithmique, parce plage étoiles dans leur luminosité à partir autant que 1/100 000e de la Sun ~ 100.000 fois celle du Soleil. Au cours d'une supernova, une étoile brille aussi brillamment que cinq milliards de fois le Soleil, même si ce n'est que temporaire.

Le diagramme de Hertzsprung-Russell montre ce cluster étoiles en plusieurs catégories naturelles: la séquence principale (nains), dont notre Soleil est membre, se compose d'hydrogène fusionnant étoiles, naines blanches, qui ont épuisé leur carburant nucléaire et sont en train de refroidissement, et les sous-géantes, des géants, et super géantes, qui fusionnent des éléments plus lourds que l'hydrogène, tels que l'hélium.

Les naines blanches sont beaucoup plus petites que le Soleil: ils ont un diamètre seulement semblable à celle de la Terre! En effet, une naine blanche est un vestige du noyau d'une étoile qui, auparavant, a généré sa propre énergie. Les étoiles naines sont beaucoup plus grandes, autour de la taille de notre Soleil. Les géants sont beaucoup plus grands encore, plus grande que l'orbite de Mars. C'est parce qu'ils fusionnent leur combustible nucléaire plus rapidement, les chauffer et à élargir leur enveloppe.

Le nom standard pour les étoiles vient du diagramme de Hertzsprung-Russell. Par exemple, si une étoile est rouge et dans la classe super géante, il est appelé un super géant rouge. Notre Soleil est une naine blanche. Il y a des géants jaunes, bleus géants, nains orange, naines rouges, et de nombreuses autres catégories étoiles connues.

Qu'est-ce qu'une étoile variable?

Une étoile variable est une étoile avec une luminosité qui varie du point de vue d'un spectateur sur la Terre. Certaines étoiles variables ont des variations si subtils qu'ils ne peuvent être identifiés par spectroscopie de pointe, tandis que d'autres varient assez qu'ils peuvent être vus à l'œil nu ou un télescope de base. Les étoiles variables sont d'un immense intérêt pour les astronomes, professionnels et amateurs, et d'autres sont en cours d'identification tout le temps.

Historiquement, les gens ne pensaient que les étoiles fixes et immuables. Cette théorie a été réfutée quand les gens ont commencé à observer les novae, se rendant compte que le contenu des cieux réellement changé au fil du temps. Un certain nombre de théories ont été élaborées pour expliquer ce phénomène, et les astronomes ont commencé à signaler des étoiles variables. Au début, très peu ont été développés, et ils étaient considérés comme relativement rares. Avec l'avènement de l'équipement en observant mieux, les astronomes s'est rendu compte que les étoiles variables étaient vraiment très nombreux. Voici quelques exemples de célèbres étoiles variables comprennent Bételgeuse, Beta Lyrae, Eta Aquila et Polaris.

Il y a un certain nombre de types d'étoiles variables. Ils sont à peu près divisés en deux grandes catégories: intrinsèques et extrinsèques étoiles variables. Intrinsèques étoiles variables ont une luminosité qui varie en raison des processus internes qui se produisent dans l'étoile. Etoiles fait varier un peu au début et à la fin de leur vie à la suite d'une cascade de réactions qui ont lieu à l'intérieur et autour de l'étoile. Extrinsèques étoiles variables varient en raison de facteurs extérieurs à l'étoile.

Dans le cas d'une étoile extrinsèque variable, la luminosité de l'étoile peut varier en raison de l'occultation périodique par une autre étoile, ce qui signifie que d'une autre étoile croise son chemin et éclipse temporairement. Étoiles peut également varier dans de luminosité lors de leur rotation, si elles ont des zones sombres sur leur surface. Ces deux types d'étoiles variables ont une période très régulière, ce qui permet de suivre la croissance et la décroissance de la luminosité.

Intrinsèques des étoiles variables sont divisées en cataclysmique, pulsation, éruptive, et les étoiles variables x-ray. Ces étoiles sont en cours de processus tels que les changements chimiques qui provoquent des variations de luminosité que les houles étoiles et des contrats, émet des poussées d'énergie, et ainsi de suite. Novae sont un exemple particulièrement remarquable d'une étoile cataclysmique variable, avec une touche de brillance si intense que dans le cas des plus grandes novae, l'étoile peut éclairer le ciel.

Les astronomes amateurs qui sont intéressés par les étoiles variables peuvent réellement contribuer à l'ensemble de la recherche scientifique sur ces étoiles. Organisations d'observation amateurs recueillir des données auprès astronomes amateurs du monde entier et de fournir ces données pour les astronomes. De temps en temps, un astronome amateur identifie même une étoile variable ou note des changements dans une étoile variable avant astronomes professionnels s'en apercevoir; grâce au grand nombre de corps célestes, il est impossible pour les astronomes professionnels de garder une trace de tout ce à tout moment.

Quelle est logique floue?

La logique floue est un type de mathématiques et de programmation qui représente plus fidèlement la façon dont le cerveau humain catégorise les objets, évalue les conditions et les décisions des procédés. Dans le système de la logique traditionnelle, un élément qui ne fait que du ou n'appartient pas à un groupe est appelé un ensemble. Par exemple, un animal est ou n'est pas un chien. La logique floue permet à un objet appartenant à un ensemble d'un certain degré ou avec une certaine confiance. Applications de la logique floue dans les systèmes informatiques actuels sont trop nombreuses pour être cités, mais ils contrôlent des choses comme des mélanges de chauffage et de pièces d'outillage.

Le monde est incroyablement complexe, à la fois en largeur et en profondeur. À certains égards, il est difficile de respecter les contraintes logiques de la théorie des ensembles traditionnels pour décrire la façon dont les décisions simples, quotidiennes, comme faire cuire un rôti ou de conduite avec le trafic, sont faites. Pourtant, les ordinateurs sont attendus pour prendre ces décisions en simplifiant la complexité ou de s'effondrer et ne tenant pas compte de l'incertitude. La logique floue a été inventée, et a inventé, par le Dr Lotfi Zadeh à UC Berkeley en 1965, quand il réfléchissait sur les mathématiques, la linguistique, et le bon sens.

Pour comprendre comment la logique floue n'est pas une vague, un système provisoire, mais peut être utilisé très pratique pour enseigner les ordinateurs comment prendre des décisions, un exemple peut être utile. À commencer par la règle: «Pas de chiens dans la maison,« logiquement Cela signifie que si l'objet est un chien, alors il n'est pas d'être dans la maison. D'une certaine manière, on peut en déduire qu'un animal en peluche qui ressemble à un dalmatien seront autorisés à entrer, mais un dalmatien vraie vie ne sera pas. Certaines questions pourraient rester, cependant, comme si un chien d'aveugle peuvent être autorisées, ou si les animaux qui sont à moitié loup Husky et la moitié sont autorisés à l'intérieur.

La logique floue permet de celles-ci entre-deux quand il s'agit de respecter les exigences et les conséquences d'initialisation. Au lieu d'un animal absolument appartenant à l'ensemble des chiens, il peut appartenir à un certain point. Une golden retriever pourrait avoir une valeur associée de 1,0, le plus près possible "complètement" chien que possible, tout un chihuahua peut avoir 0,8, en raison de sa taille. Un chien-guide peut avoir une valeur de 0,4, car il est souvent admis lorsque les autres chiens ne sont pas autorisés.

Ce système flexible permet de résoudre des problèmes et des machines de contrôle que d'un système logique simpliste ne pouvaient pas. La sortie, ou la décision, est toujours claire et non floue, en d'autres termes, la sortie est toujours "croustillante". Finalement, le chien est soit dans la maison ou dehors sur le porche - il n'est jamais à mi-chemin po C'est pourquoi "flou" ne veut pas dire incertaine ou inconnue.

Quels sont Nanoplastics?

Nanoplastics sont des matières plastiques qui contiennent des additifs nanométriques pour donner au matériau des propriétés supplémentaires. Ces propriétés varient en fonction de l'application, mais les additifs nanométriques peuvent fabriquer des plastiques plus légers encore plus fort, plus résistant à la chaleur, plus résistant aux UV, antimicrobien, plus conducteur, ou ajouter n'importe quel nombre d'autres propriétés. Nanoplastics est une industrie naissante avec de nombreux produits intéressants théoriques sur l'horizon y compris les plastiques intelligents et d'auto-réparation.

Nanoplastics est juste un secteur dans le cadre beaucoup plus large de la nanotechnologie. La nanotechnologie crée machinerie biochimique sur l'échelle nanométrique. Un nanomètre (nano pour faire court) est un milliardième de mètre, donc traite des nanotechnologies avec les processus moléculaires ou atomiques. A ce niveau de vie, les protéines et autres produits chimiques interagissent pour former des liaisons et de mener à bien les processus. La nanotechnologie exploite les processus naturels par la manipulation directe pour créer des configurations uniques qui peuvent avoir des effets profonds sur l'échelle macro. Nanoplastics est la nanotechnologie appliquée à des matières plastiques.

Les scientifiques croient que nanoplastics va transformer nos maisons et nos vies dans un avenir pas trop lointain. Lorsque les ordinateurs peuvent être de la taille des cellules sanguines, nanoplastics peut incorporer une puissance de traitement considérable, devenant matériaux «intelligents». Imaginez des murs qui répondent à la température et du son, des planchers qui s'auto-nettoyer les déversements et la saleté, et les chaises qui se reformer pour s'adapter à la taille et au poids de la personne assise en eux. Un avenir fait de la télévision nanoplastics peut projeter des images sur l'écran vers le spectateur, et nanoplastics appliqués à peindre produits peut entraîner des voitures qui "guérissent" leurs propres rayures.

Avec la vaste gamme de possibilités auxquels est confronté le secteur en plein essor nanoplastics aujourd'hui, il n'est pas étonnant que Lux Research a prévu un investissement de 12 milliards de dollars américains (USD) entreprises dans la recherche et le développement nanoplastics pour 2008. Il est pratiquement impossible d'imaginer un domaine d'activité qui ne bénéficiera pas de nanoplastics appliquées.

Les plastiques biodégradables, la conduite en plastique, solaire absorbant les vêtements intelligents, pare-chocs en caoutchouc qui rebondissent remise en forme, et nanoargile qui peut changer de forme pour former quelque chose nécessaire sur place: ce sont toutes les applications possibles de nanoplastics hypothétique. Jusqu'à ce que le futur arrive, cependant, nanoplastics se trouve dans le chemin de l'amélioration des matériaux tous les jours tels que des équipements sportifs, matériaux dentaires, et l'auto-nettoyage du verre.

Qu'est-ce que la chimie verte?

La chimie verte est la chimie de base avec la philosophie que la recherche, les méthodes et les résultats finaux des études devraient être aussi écologiquement rationnels que possible. Ce champ se penche sur la conservation des ressources naturelles, l'impact sur l'environnement et la prévention des problèmes écologiques. Cela ne devrait pas être confondu avec la chimie de l'environnement, qui est l'étude chimique de l'environnement naturel. Exemples chimie verte peut être trouvé dans presque tous les types de la chimie, notamment organique, inorganique, biochimie et la chimie physique.

Les 12 principes qui régissent l'étude de la chimie verte ont été mis au point par Paul Anastas et John C. Warner en 1998. Ces principes sont conçus pour offrir une boussole éthique et morale avec laquelle les chimistes verts devraient fonctionner. Ces principes font ressortir l'utilisation des ressources renouvelables dans la recherche en chimie verte, ainsi que la réduction au minimum des produits dangereux et des déchets. On a également souligné une augmentation de la sécurité et de la durabilité à la fois dans le cadre du laboratoire ainsi que le monde dans son ensemble.

Bien que les principes soient assez techniques dans la nature, quelques exemples de chimie verte qui ont résulté de l'utilisation de ces principes figurent les progrès dans les domaines de l'agriculture durable et le biodiesel, et le développement de nouvelles façons de fabriquer des produits de consommation. Un exemple est le changement dans la fabrication de Teflon revêtement anti-adhésif, qui est couramment utilisé dans des ustensiles ménagers. Teflon  est traditionnellement fabriqué dans de l'eau pour obtenir la réaction chimique nécessaire. Avec l'aide de la chimie verte, on a découvert que le dioxyde de carbone fonctionne beaucoup mieux pour créer le revêtement anti-adhésif et laisse peu ou pas de déchets du processus.

La chimie verte organique, ou l'étude des organismes à base de carbone d'une manière écologique, a conduit à plus respectueuses de l'environnement les procédés agricoles. Les pesticides qui sont toxiques pour les bugs qui rencontrent eux aussi bien que des animaux ou des personnes qui entrent en contact avec eux, sont progressivement supprimés et remplacés par un produit chimique ou biologique des plantes modifiées qui sont résistantes à certains ravageurs. Pesticides plus sécuritaires sont également en cours de développement, selon une revue scientifique bien nommé chimie verte.

La chimie verte n'est pas la seule publication du genre. Plusieurs autres journaux sont publiés que se concentrer sur la science écologique. Alors que certaines de ces revues sont des publications commerciales orientées vers les scientifiques, d'autres sont favorables aux consommateurs, permettant aux personnes ayant des connaissances techniques peu ou pas de se renseigner sur les progrès de la science vert.

Quels sont les ectoparasites?

Des parasites qui  vivent  sur la   peau
De  l'homme  sont  connus comme les
 ectoparasites . Les   humains  et   les
animaux   peuvent   être  en   proie à
une  infection  des  ectoparasites qui
 implique les puces et les moustiques.
Les ectoparasites sont des parasites qui se fixent sur la couche externe de la peau de leurs hôtes. Là, ils se nourrissent et se développent pour le cycle de vie du parasite particulier. Ils sont complètement dépendants de l'hôte pour se nourrir, ce qui peut nuire gravement à la santé générale de l'hôte au cours du temps. Il y a des exemples de ces types de parasites qui se nourrissent activement hors humains ainsi que différents types d'animaux.
Il n’est pas inhabituel pour les ectoparasites d'exister dans les colonies. Ces colonies créent efficacement nids sur la couche externe de la peau, créant un terrain fertile où les parasites peuvent se multiplier. Lorsque cela se produit, l'hôte est affaibli à un rythme accéléré, parfois au point d'incapacité. Sans traitement, il y a la possibilité de la mort à un certain point.
Il existe un certain nombre de différents ectoparasites humains. Corps et les poux de tête sont deux exemples. Différents types d'acariens font également partie de la famille des ectoparasites, y compris les acariens nasaux. Les animaux peuvent éprouver ces parasites indésirables sous la forme d'acariens de nidification ou acariens des plumes. Les humains et les animaux peuvent être en proie à une infestation d'ectoparasites qui implique les puces ou les moustiques.
Heureusement, il existe des moyens pour exercer un contrôle des ectoparasites. Dans le cadre des mesures de prévention, il est une bonne idée pour la fumigation des espaces intérieurs dès que toute preuve d'acariens, les poux, et les autres formes d'ectoparasites sont trouvés. Cela est vrai si les parasites sont actuellement nichent sur un hôte humain ou animal. Retrait de la menace générale aidera à minimiser les changements de parasites propagation à d'autres vivant dans le ménage.
Dans le même temps, chaque produit individuel au sein du foyer doit être traité pour éliminer toutes traces possibles d'acariens ou poux du corps. Cela comprend le lavage avec des produits nettoyants spécialisés qui sont conçus pour tuer les parasites et détruire leurs colonies. De nombreuses formes de ectoparasites prospèrent dans les zones de la peau où les poils du corps est présent. Cela signifie que l'individu doit utiliser le nettoyant de la tête aux pieds afin de se débarrasser des parasites. Selon la gravité de l'infestation, il peut être nécessaire de subir plusieurs traitements avant que les parasites externes sont éliminés.
Tous les types de parasites, y compris les ectoparasites, sont capables de faire beaucoup de dégâts physiques au fil du temps. En plus de la vidange de l'énergie de l'hôte, les parasites peuvent également transmettre des bactéries et des virus de l'hôte. Lorsque tel est le cas, l'hôte affaiblir à un rythme plus rapide, ce qui rend nécessaire d'aborder une sorte de maladie corporelle ainsi que de se débarrasser des parasites afin de retrouver la santé.