-Anatomie et physiologie • Animaux et l'environnement • culture generale • economie • flore et ses bienfaits • Internet et Informatique • L'alimentation et la nutrition • La Biologie • Le mésothéliome • Les épices • Les fruits et légumes • Les vitamines • Maladies & Affections • Médecine et traitements • Médicaments • monde technologique • remèdes naturels • Santé et Bien-être • sciences et génie -orange

jeudi 10 janvier 2013

Qu'est-ce que phylogénie moléculaire?

La phylogénie moléculaire est l'étude des organismes au niveau moléculaire pour recueillir des informations sur les relations phylogénétiques entre les différents organismes. Cette discipline est utilisé pour tracer l'histoire évolutive d'un organisme ou groupe d'organismes. Pour ceux qui se demandent pourquoi les scientifiques peuvent être si précis où ils donnent des estimations du moment où divers événements dans l'histoire de l'évolution survenue, la réponse réside dans la phylogénie moléculaire.

Cette branche des sciences repose sur le fait que le changement génétique est une constante. À chaque génération, les organismes changent légèrement, et le taux de variation tend à être constant et fiable. Grâce à ces informations, les gens peuvent comparer l'information génétique entre espèces différentes et de déterminer quand ils ont divergé les uns des autres en examinant leur degré de similitude et de différence. Les chercheurs peuvent également utiliser cette information pour construire une chronologie de l'évolution.

Par exemple, si l'ADN d'un chat et l'ADN d'un oiseau sont examinés, il y aura des différences significatives, ce qui indique que les deux espèces ont divergé il y a longtemps. En revanche, un chat et un rat peut avoir plus de similitudes, montrant un ancêtre commun plus récent. Phylogénie moléculaire peut être utilisée pour construire un arbre phylogénétique, dont un ancêtre commun est représenté par la racine, et décrire les branches divergent qui se sont produits au fil du temps.

En analysant le matériel génétique des espèces vivantes peuvent révéler des informations intéressantes à propos des ancêtres communs et où les espèces ont divergé de leur ancêtre commun. Par exemple, les humains semblent être liés aux grands singes, mais elles sont liées plus étroitement à certains singes que d'autres, ce qui montre que l'espèce humaine et le singe ont divergé de leur ancêtre commun à différents points. L'utilisation des informations sur les différences entre espèces apparentées et le taux connu de modifications génétiques, les chercheurs peuvent poser lorsque la divergence différente à partir d'un ancêtre commun s'est produite.

La phylogénie moléculaire ne peux pas expliquer pourquoi l'évolution a lieu, mais il peut être utilisé pour tracer la voie de l'évolution pour en apprendre davantage sur l'histoire de la vie sur Terre. Les chercheurs s'intéressent à des sujets tels que pourquoi divers organismes se sont éteintes, quels types de pressions conduit l'évolution dans d'autres, et comment la vie sur Terre a émergé en premier lieu peut utiliser phylogénie moléculaire dans le cadre de leurs boîtes à outils de collecte d'informations.
Plusieurs chercheurs ont été crédités par une citation qui se déroule à peu près le long des lignes de "rien de la vie sur Terre n'a de sens sans évolution", faisant référence à la complexité de la vie sur Terre, l'histoire évidente dans les archives fossiles, et de l'histoire dans l' ADN des organismes de champignons hérisson à rorquals bleus. Phylogénie moléculaire est utilisée pour démêler l'écheveau complexe de l'évolution de sorte que l'évolution a un sens pour les chercheurs.

Qu'est-ce que la méthode du chemin critique?

La méthode du chemin critique (CPM) est une façon de casser des projets complexes dans des listes d'activités, et de déterminer ce qui est essentiel au maintien d'un projet dans les délais. Développé dans les années 1950, cette méthode a été utilisée pour le gouvernement compliquée et programmes de l'industrie privée qui ont été pris du retard pour des raisons indéterminées. Un chemin critique telle que définie par la méthode comme une série d'événements, d'activités dites, qui doivent être effectuées dans l'ordre correct et dans les délais.

Les projets de construction ou d'autres peuvent contenir des milliers d'activités distinctes qui se produisent avant qu'un travail est fait. Les dessins doivent être faits, un chantier de construction doit être préparé, et de nombreux autres événements doivent se produire avant même que la construction ne commence. Pendant la construction, les fondations et le cadre de la construction doit être terminée avant le travail intérieur peut commencer. Certaines activités peuvent se produire en même temps, mais certains doivent attendre jusqu'à ce que les activités antérieures sont terminées. Toutes ces hypothèses sont utilisées dans la méthode du chemin critique.

Les calculs de calendrier chemin critique peut se faire manuellement, mais peut être assez difficile en raison des nombreuses interactions d'activités. Un moyen plus facile de créer un CPM utilise un tableur. Depuis la fin du 20e siècle, le logiciel commercial a existé, qui créera critiques résultats de la méthode de chemin de renseignements activité saisie manuellement.

L'élaboration d'un rapport de la RPC nécessite l'utilisation d'hypothèses, car un projet n'a généralement pas commencé lorsque le rapport est créé. Un chef de projet ou le programmateur commence le processus en énumérant toutes les activités connues du début à la fin. Les activités sont donné les contraintes s'il en existe, qui peut être une première date de calendrier, une activité peut commencer, ou la dernière date on peut finir. Ces contraintes de dates de maintenir les activités de se déplacer dans le modèle, et les activités sont souvent contraints partie du chemin critique.

Avec les contraintes de calendrier fixe, toutes les activités doivent être reconduites pour une durée estimée, ou les jours ou les semaines nécessaires pour terminer. Une activité peut avoir une longue durée, telles que la mise en place d'acier de construction ou de finition de l'intérieur, qui peut causer le chemin critique d'être affectés. Les logiciels disponibles pour la modélisation des chemins méthode critique montrera quand une activité est prolongée au-delà d'une heure. Durées d'activité peuvent également affecter le chemin critique si elles prennent plus de temps à un temps estimé du projet le permet. Ces résultats sont résumés dans le rapport du logiciel lorsque toutes les données ont été insérées.

Une autre fonction du logiciel chemin méthode critique est de savoir comment les gens sont habitués. Chaque activité peut avoir une ressource, une personne ou un groupe, lui est attribué. Une activité comprend normalement le nom de la ressource et la façon dont beaucoup de leur temps en tant que pourcentage est nécessaire pour l'activité. Les rapports peuvent montrer quand une ressource est plus nécessaire qu’ils sont disponibles, par exemple, les employés qui sont nécessaires pour 150% de leur temps de parole. Ces contraintes permettent aux gestionnaires de projet de transférer des ressources utiles pour empêcher la sur-ou sous-utilisation du personnel au cours d'un projet.

Les projets complexes peuvent avoir des estimations des coûts figurant dans le rapport de la CMP. Les activités peuvent être listées avec un coût estimé à remplir, et aucun coût supplémentaire si l'activité est retardée ou s'étend au-delà de la date d'échéance. Les changements dans le chemin critique qui entraîne des retards ou des extensions du projet aura un effet visible sur le coût total du projet.

Le logiciel commercial CPM est souvent utile car il peut facilement montrer les changements dans le chemin critique pour les données d'activité en temps réel. Quand un changement d'activité par date ou la durée, un gestionnaire de projet peut variations d'entrée dans le calendrier du projet et de voir immédiatement les effets sur total du projet et le calendrier du chemin critique, les ressources et les coûts. Une méthode du chemin critique donnera des résultats plus précis en faisant régulièrement saisie de données pour un projet telle qu'elle se poursuit, et la modification des dates et des durées d'activité à des dates réelles et les délais de réalisation.

Les types de conception des poutrelles?

Les poutrelles sont des composants structuraux des bâtiments et autres structures. Ils ont souvent supporter des charges ainsi que de fournir un attrait esthétique. Il existe différents types de conception des poutrelles en fonction du type de structure et d'un architecte ou d'un ingénieur estime être la plus appropriée. Les conceptions incluent la structure du réseau de solives, et le cadrage bâtiment peut également être en bois ou en acier. Ces éléments structurels peuvent également être intégré dans le plafond ou un plancher, ou être exposés à fournir un motif particulier pour l'aspect intérieur d'un bâtiment.

De nombreux types de conception des poutrelles d'utiliser un matériau. Solives comprennent généralement les deux supports et les accords dans une sorte de treillis comme la structure. Ils peuvent être utilisés dans presque n'importe quel type de structure, y compris les appartements résidentiels et des immeubles de bureaux commerciaux. Les complexes industriels, des hôpitaux, des ponts, des stades et même souvent utiliser ces composants ainsi. Ces solives de répartir la charge d'un plancher ou d'un toit sur les murs ou les fondations d'une structure, et leur conception dépend généralement du type de bâtiment.

Une conception des poutrelles bois est parfois utilisée si la charge peut être soutenue par un cadre en bois. On ajoute souvent lors de la construction des maisons, celles-ci sont parfois décoratifs ainsi comme essentielle à l'intégrité structurale. Les poutrelles d'acier sont généralement plus approprié pour l'ingénierie structurelle de grands bâtiments et les ponts. Parfois intégré dans les planchers et les plafonds, il peut s'agir de matériaux composites légers pour supporter de lourdes charges dans un espace compact. Ces éléments sont parfois construits pour soutenir différentes forces et à faire preuve de souplesse.

Certaines structures sont mieux lotis avec solives du plafond, tandis que d'autres ont une conception solives de plancher. Planches couvrent souvent les éléments structuraux et peut ajouter de la stabilité lors de poutrelles multiples sont connectés. En plus d'être portante, solives apparentes peuvent également être utilisés pour la décoration intérieure. Même 21ème siècle décorateurs parfois les utiliser pour créer une atmosphère du passé.

Une autre composante de la conception des poutrelles est le système de soutien global. Les supports structuraux peuvent être maintenus en place aux deux extrémités. Ils peuvent également être raccordé à une extrémité ou être autonome à l'autre, ce qui est connu comme une conception des poutrelles en porte à faux. Les architectes et les ingénieurs sont généralement plus qualifié pour déterminer quelle conception à utiliser. Il existe également des outils en ligne, comme une calculatrice solive, ce qui peut aider à déterminer la meilleure conception en fonction du matériau, la taille et la quantité d'espace entre les solives.

Quel est le radical hydroxyle?

L'eau est une molécule électriquement neutre qui peut être formé par la combinaison des ions hydrogène et les ions hydroxyde, selon la réaction acide-base. Écrit en sténographie des chimistes, la réaction est H + et OH-→ H2O. Ici, l'atome d'hydrogène seul est en fait un ion, ne portant pas électrons négatifs, et donc porteur d'une charge positive, tandis que la moissonneuse-batteuse hydrogène-oxygène possède deux électrons libres, ce qui lui donne une charge négative. Il est possible de produire une autre forme de la moissonneuse-batteuse d'hydrogène et d'oxygène, qui ne porte qu'un seul électron libre, pas deux. C'est le électriquement neutre, mais chimiquement très réactif radical hydroxyle.

L'oxygène est fortement électronégatif, tandis que l'hydrogène est électropositif. De plus, l'atome d'hydrogène est très faible par rapport à l'atome d'oxygène. Il s'agit de la «électron-aimant" atome d'oxygène, plutôt que l'atome d'hydrogène, qui transporte l'électron libre. Une population de radicaux libres diminue en nombre de fois par attrition, comme, par exemple, lorsque deux radicaux hydroxyle s'unir pour former une molécule de peroxyde d'hydrogène. A l'inverse, les peroxydes facilement fendues- en particulier des peroxydes organiques avec des appendices grandes ont tendance à étirer ces liens, tels que le di-tert-butyle ou le peroxyde de benzoyle - sont utilisés comme sources de radicaux libres dans les synthèses de laboratoire et commerciale.

Le radical hydroxyle est important, non seulement en laboratoire et dans le commerce, mais dans la médecine et dans notre atmosphère aussi. Troposphère polluants oxydes d'azote des véhicules automobiles et des usines se décomposer pour libérer des atomes excités de l'oxygène, • O. Ces atomes individuels, à ne pas confondre avec les molécules d'oxygène, O2, combinent avec l'humidité dans l'air, la conversion en radicaux hydroxyles, OH •. Il existe d'autres sources de radical hydroxyle, le plus souvent vu dans d'autres situations, y compris la réaction de l'ozone avec doublement liées composés organiques appelés alcènes. Dans la plupart des cas se produisent dans la nature, les radicaux hydroxyles ne sont pas considérées comme souhaitables; tel est le cas dans le domaine de la santé et de la médecine.

C'est parce que le radical hydroxyle est un petit et très mobile, soluble dans l'eau sous forme de radicaux libres. Dans le corps humain radicaux libres sont généralement considérés comme indésirables, et peuvent être associés à la maladie et au vieillissement. Un système enzymatique de préoccupation est le système respiratoire, dans laquelle les radicaux libres attaquent les tissus sensibles du corps. Particules atmosphériques - notamment un métal de transition des ions - ont été reconnus comme générateurs de radicaux hydroxyles dans des environnements humides tels que les tissus du poumon, et entraîner des troubles pulmonaires, y compris le cancer. Le radical hydroxyle a également été associé à une attaque chimique sur des brins d'ADN.µ

Qu'est-ce que l'extraction phénol?

L'extraction au phénol est un processus scientifique d'extraction pur l'acide ribonucléique (ARN) et l'acide désoxyribonucléique (ADN) à partir d'un échantillon de cellules spécifiques. Le procédé consiste principalement à séparer ou enlever les protéines de la cellule, en laissant l'ADN et de l'ARN. Partout dans le monde, extraction au phénol est la méthode la plus largement utilisée pour extraire des échantillons purs de l'ADN et de l'ARN.

Le processus d'extraction du phénol commence lorsque le composé chimique phénol est introduit dans la cellule d'échantillon qui se trouve généralement dans un mélange d'eau. Tout comme l'huile, la structure chimique du phénol ne lui permet pas de mélange facilement avec l'eau, donc il va couler vers le bas juste en dessous de l'eau, depuis le phénol est plus dense. Chimistes, puis mélanger les deux phases - l'eau et le phénol - de créer temporairement une émulsion.

Alors que le phénol est à l'intérieur de la couche aqueuse, il va attirer les éléments protéiques de l'échantillon de cellules et de les briser. L'ADN ou l'ARN, dans l'intervalle, restera intacte à l'intérieur de la phase aqueuse. Ensuite, le récipient de la totalité du mélange est mis à l'intérieur d'une machine appelée une centrifugeuse, ce qui contribuera séparer le mélange en deux phases initiales, le phénol et l'eau. Une fois que le mélange est séparé, chimistes extraire l'eau contenant de l'ADN ou de l'ARN, tandis que la phase phénol est éliminé. L'ADN subit une précipitation à l'éthanol à la suite de «dé-sel» et le rendre plus concentré.

Choisir phénol pour l'extraction de l'ADN se fait parce que le composé est une molécule non polaire, tout à la fois de l'ADN et de l'eau sont constitués de molécules polaires. En chimie, la règle générale est les molécules polaires sont les mieux dissous dans les molécules polaires et les molécules non polaires peuvent facilement dissoudre les molécules non polaires. Cela signifie que si phénol dissout la protéine lors de l'extraction du phénol, il ne sera pas dissoudre l'ADN ou de l'ARN, ainsi ils conservent leur structure et peuvent être extraites hors de l'eau. Le phénol est si efficace dans la dissolution de protéines que celle-ci sera définitivement rompu.

Dans une extraction au phénol, l'acidité de l'ensemble du mélange est important de bien extraire l'ADN et l'ARN. Les chimistes recommandent que le phénol doit avoir un pH supérieur à 7, de sorte que la couche d'eau peut recueillir avec succès l'ADN. A un pH de 4,5, ce qui est déjà considéré comme acide, l'ARN peut-être déjà recueillies par la phase aqueuse. Pour changer le phénol de l'acidité ou l'alcalinité, certains produits chimiques sont ajoutés, tels que le composé ou le tris N-éthylmorpholine.

Qu'est-ce spectre continu?

Un spectre continu est un spectre qui montre sans interruption à travers toute sa gamme. Un arc en ciel est un bon exemple d'un spectre continu. En passant de la lumière blanche à travers un prisme, Sir Isaac Newton a été le premier à montrer qu'il était constitué d'un spectre continu de toutes les longueurs d'onde de la lumière visible. Spectra sont importants dans l'étude de l'astronomie, et un spectre continu peut tout segment ininterrompue de tout le spectre électromagnétique, qu'il soit visible ou non.

Toute l'énergie électromagnétique peut être au moins partiellement définie par sa longueur d'onde. La partie du spectre électromagnétique qui est visible pour l'œil humain est perçu par nous comme la lumière et est appelé lumière visible. Les humains ne peuvent voir la lumière qui va du violet au rouge. Violet a la plus courte longueur d'onde de la lumière visible tout rouge et a la plus longue. Puisque nous ne pouvons voir tous les différentes longueurs d'onde de la lumière le long de cette partie du spectre électromagnétique, nous le percevons comme un spectre continu.

Les astronomes utilisent souvent des spectres d'étudier les étoiles et les autres corps astronomiques. Les spectres sont des segments des énergies électromagnétiques mesurables émis par ces objets. En étudiant les spectres des étoiles, les astronomes peuvent apprendre beaucoup de choses sur eux, y compris leurs élémentaire de maquillage, comme les différents éléments émettent de la lumière d'une certaine longueur d'onde lorsqu'il est très excité, comme se passe dans la chaleur intense à l'intérieur d'une étoile. Lacunes dans les spectres continus, connus sous le nom des raies d'absorption, montrer où un objet ne supporte pas émettre de la lumière à des longueurs d'onde où les écarts se produisent ou qu'il absorbe la lumière à ces longueurs d'onde. De même, les lignes d'émission sont des lignes dans les spectres qui montrent une augmentation de l'énergie émise à certaines longueurs d'onde, indiquant que des lignes distinctes qui sont plus lumineux que le spectre environnant.

D'autres types de spectres en plus la lumière peut être considérée comme continue. Tout segment de l'ensemble du spectre électromagnétique que, pris dans une section, ne montre pas de lacunes le long de sa plage est dit être un spectre continu. Également d'une grande utilité pour les astronomes et les astrophysiciens, les énergies électromagnétiques comme les ondes radio et micro-ondes font également partie des spectres d'énergie émise par de nombreux organismes astronomiques. En étudiant ces spectres et des raies d'absorption ou d'émission de lignes, les scientifiques sont capables d'apprendre beaucoup de choses sur eux, la façon dont ils interagissent les uns avec les autres, et l'univers dans son ensemble.

Qu'est-ce qu'un gaz supercritique?

Gaz supercritique, plus connu sous le nom correctement fluide supercritique, est un état distinct de la matière qui a des propriétés à la fois un liquide et un gaz. Un gaz supercritique peut être considéré comme un état intermédiaire entre les liquides et les gaz. Gaz supercritiques sont créés uniquement au-dessus d'un matériau thermodynamique point critique. Cela signifie généralement hautes pressions, souvent entre 40 et 80 atmosphères, bien que cela varie beaucoup. Certains points critiques, notamment de l'eau, sont aussi élevés que 218 atmosphères et au-delà. Les fluides supercritiques ou une faible viscosité et diffusivité élevée.

Gaz supercritiques peuvent diffuser dans et à travers les solides comme un gaz, mais se dissout aussi certains matériaux comme un liquide. Les fluides supercritiques sont trouvés dans au moins deux domaines de la nature. Le premier est autour des cheminées hydrothermales et des volcans sous-marins sur le fond de l'océan, où la pression est si grande que la création d'un gaz supercritique est possible. La pression 3 km (1,8 mi) sous l'eau est de 300 atmosphères, plus que suffisant. Un autre gaz naturel supercritique est la basse atmosphère de Vénus, qui est très dense et chaud (93 atmosphères, 735 K) à la surface. Curieusement, cela signifie que seulement deux états de la matière peuvent être trouvés à la surface: gaz solide et supercritique. Liquides et de gaz conventionnels n'existent pas là-bas.

Les fluides supercritiques ont au moins une douzaine d'applications industrielles. Une extraction par fluide supercritique est, où les fluides supercritiques sont utilisés pour extraire des matériaux à partir d'une matrice environnante. Il est utilisé pour extraire la caféine des grains de café. Dioxyde de carbone supercritique suce le droit de caféine d'eux. De même, les fluides supercritiques sont utilisés dans le séchage supercritique, qui extrait un liquide à partir d'une matrice. Il est utilisé dans la préparation des échantillons biologiques pour la microscopie électronique, ainsi que la synthèse de l'aérogel, un matériau qui détient 12 records du monde Guinness pour des propriétés telles que la légèreté et l'isolation.

L'oxydation d'eau supercritique est utilisée pour oxyder les déchets dangereux, ce qui les rend sans danger pour l'élimination. Le procédé est également utilisé pour synthétiser des micro et nanoparticules pour diverses applications pharmaceutiques. L'inverse de l'extraction par fluide supercritique est appelé imprégnation, selon lequel un matériau est introduit dans une matrice non éliminée. La liste est longue. Comme vous pouvez le voir, les applications des fluides supercritiques sont nombreuses.

Comment fonctionne l'efficacité énergétique solaire Comparée à l'électricité?

L'efficacité de l'énergie solaire bat définitivement l'électricité si l'acheteur ne peut se permettre plus des coûts initiaux. Beaucoup de propriétaires qui cherchent un nouveau chauffe-eau, par exemple, ne sont pas prêts à payer cinq fois plus d'argent pour un système solaire lorsque radiateurs électriques sont donc beaucoup moins cher. À long terme, cependant, l'énergie solaire est beaucoup plus efficace que l'électricité. Au fil du temps, les coûts initiaux sont payés une fois, allez solaire permet d'économiser plus d'argent et plus éconergétique.

L'avantage de l'électricité est sa disponibilité. Certains produits solaires besoin de lumière pour l'éclairer au travail. Par temps couvert et dans les régions nuageuses du monde, l'énergie solaire ne peut pas compter sur autant de fois que dans les climats chauds, ensoleillés. En outre, les grandes surfaces sont généralement nécessaires pour capter la chaleur du soleil et de fournir de l'énergie. Néanmoins, les technologies solaires sont de plus en plus avancées et relever les défis. Solaire reste la source plus propre et moins cher à long terme.

Aujourd'hui, l'économie fournit un environnement convivial pour passer de l'électricité à l'énergie solaire. Crédits d'impôt fédéraux sont disponibles aux États-Unis, ainsi que des rabais divers utilitaires et des remboursements par état ou pays. Des comparaisons mensuelles de la consommation d'énergie et les factures prouver économies substantielles après l'installation du système solaire.

Les propriétaires ont le choix solaires pour le chauffage, le refroidissement et les systèmes d'eau chaude. Chauffage et le refroidissement des espaces intérieurs consomment plus d'énergie que tout autre composant autre maison. Le chauffage solaire actif implique le chauffage de liquide ou de l'air dans un dispositif collecteur. Le chauffage et refroidissement passifs à la fois profitent  de la conception des bâtiments pour contrôler les températures. La chaleur solaire peut produire de l'énergie pour un système de refroidissement ainsi.

Produire de l'eau chauffée est également un coût important, bien que moins d'énergie est nécessaire que pour le chauffage et l'air de refroidissement. Chauffe-eau solaires diminuent progressivement au coût. L'efficacité de l'énergie solaire peut être acquise soit par un système actif ou passif chauffe-eau solaire. Fondamentalement, la chaleur du soleil est recueillie dans des capteurs solaires et chauffe l'eau dans les réservoirs de stockage. Les systèmes actifs utilisent des pompes, des systèmes passifs non.

Les entreprises du monde entier envisagent l'efficacité de l'énergie solaire comme un moyen d'économiser de l'argent et se soucient de l'environnement. Miroirs solaires sur un immeuble de bureaux de grande taille peut chauffer les conduites d'eau et de l'air frais dans les espaces intérieurs. Certaines entreprises profitent de coûts d'exploitation plus faibles en capitalisant sur l'efficacité de l'énergie solaire. En utilisant l'énergie solaire comme source d'énergie alternative, les nations du monde entier dépendent moins des autres combustibles, tout en protégeant la qualité de l'air. Réaliser solaires objectifs d'efficacité énergétique conduit également à une augmentation des emplois, en tant que travailleurs qualifiés sont nécessaires pour la production, l'installation et la maintenance de produits solaires.

Qu'est-ce que la stimulation magnétique transcrânienne?

La stimulation magnétique transcrânienne (TMS) est une technique relativement récente à la fois pour le traitement des troubles cognitifs tels que la dépression ou des hallucinations auditives et recherche sur le cerveau. Il fonctionne en utilisant un champ magnétique inducteur, similaire à un détecteur de métaux, mais beaucoup plus puissant, pour exciter électriquement les neurones.

La première étude réussie TMS a été réalisée en 1985, ce qui rend le domaine relativement récent au sein de la science médicale. TMS est prometteur comme alternative à la thérapie par électrochocs beaucoup plus invasive. TMS est capable d'être la cible avec une précision de quelques millimètres, et est conçu uniquement pour des recherches sur la surface même du cerveau - le cortex. Parce que de nombreuses fonctions cognitives sont situées dans le cortex, cependant, ce n'est pas une limitation sérieuse.

Les recherches se poursuivent et la communauté scientifique a de grands espoirs pour les TMS, avec des expériences préliminaires suggérant même qu'il pourrait être utilisé un jour de construire une machine qui provoque rapidement le sommeil paradoxal, ce qui donne l'équivalent de rajeunissement de dormir une nuit complète en seulement deux ou trois heures. Études en double aveugle ont également prouvé qu'il est efficace dans le traitement de la dépression et la migraine.

En mai 2007, plus de 3000 études sur les TMS ont été publiés, avec des résultats positifs thérapeutiques allant de traitements du syndrome de stress post-traumatique à l'acouphène (bourdonnement persistant dans les oreilles). Les demandes de TMS au niveau du cortex visuel peut produire des phosphènes sur demande. Les phosphènes sont les petites taches floues de lumière colorée que vous voyez quand vous vous frottez les yeux.
Il existe deux principaux types de TMS TMS - impulsions uniques ou jumelés et stimulation magnétique transcrânienne répétitive (SMTr). Stimulation magnétique transcrânienne répétitive implique plusieurs sessions sur plusieurs jours ou semaines, et se distingue par le fait qu'elle peut induire des changements à long terme dans le cerveau. TMS impulsion unique ne fonctionne que lorsque le champ magnétique est appliqué, ce qui limite son utilisation pour la thérapie, mais en fournissant un outil de recherche intéressant. Sélectifs applications TMS ont été trouvés pour augmenter temporairement la capacité artistique chez certains patients, même dans les cas impliquant des autistes-savants. En tant que tel, TMS est parfois commercialisé comme un «savant à la demande" et la technologie peuvent avoir des applications dans l'amélioration du renseignement, bien que des recherches beaucoup plus rigoureuse est nécessaire pour enquêter sur ce sujet.

L'une des principales limites à un déploiement plus large et davantage de recherche impliquant TMS est que la technologie est relativement coûteuse. De nombreuses batteries de condensateurs sont nécessaires pour stocker et libérer l'énergie nécessaire pour appliquer l'outil de manière efficace. La plupart des systèmes coûtent entre $ 25.000 et $ 100.000 US Dollars, bien qu'il existe des TMS "ouverts" projette de construire des systèmes de travail pour moins de $ 1000 USD, dans le budget de l'expérimentateur amateur ou indépendant.

Qu'est-ce que Lissamphibia?

Lissamphibia est le seul survivant de la sous-classe des amphibiens - les deux autres, Lepospondyli (lepospondyls) et Labyrinthodontia (labyrinthodontes) ayant disparu au Permien (290 millions d'années) et du Crétacé (120 Ma), respectivement. Labyrinthodontes étaient déjà descente par l'extinction du Permien-Trias (251 millions d'années) et surtout par le Trias supérieur (210 millions d'années), à la même époque que les dinosaures sont devenus prépondérants. Lissamphibia se compose de trois ordres: les grenouilles / crapauds, les salamandres et les caecilans amputés.

Les premiers membres connus de la sous-classe Amphibia sont temnospondyles basales en date du à 340 millions d'années, dans le Carbonifère précoce. Ces poissons-tétrapodes comme avait tentaculaire des positions qui les mette au ras du sol et étaient relativement importantes, 3-5 pi de longueur, comme les poissons à nageoires lobe il évolue. Ils ont dépensé beaucoup d'énergie à la marche qu'ils ont souvent été épuisés et ont besoin de repos. Heureusement pour eux, puisque les tétrapodes carnivores n'avaient pas encore évolué, ils pouvaient se reposer en paix - pendant un certain temps.
Le premier membre connu de Lissamphibia, «Ancient Frog Hotton", aussi connu en tant que "frogamander», est daté du début du Permien, 290 millions d'années. Comme son nom l'indique, il a une combinaison de caractéristiques de salamandres et de grenouilles comme. Cependant, même si cela est connu, les scientifiques sont relativement confus au sujet des détails d'origine et les relations entre les groupes dans Lissamphibia.

Chaque ascendance possible a été proposé - que Lissamphibia est un clade au sein temnospondyles (un type abondante de labyrinthodontes), un clade au sein lepospondyls, ou que caecilans origine dans lepospondyls et les grenouilles et les salamandres origine dans temnospondyles. En raison du grand nombre de caractéristiques communes entre tous les membres de Lissamphibia, la plupart des scientifiques reconnaissent qu'ils sont un clade naturel, ce qui rend la dernière possibilité la moins probable. Certains scientifiques ont tendance à supposer que Lissamphibia évolué à partir temnospondyles, parce qu'ils étaient plus diversifiés et nombreux au cours de la période en question (le Carbonifère) que leposondyls. Cependant, lepospondyls étaient considérablement plus petite, donc il serait logique qu'un clade des petits amphibiens évoluerait d'un autre groupe de petits amphibiens, plutôt que d'un groupe qui est beaucoup plus importante en moyenne.

En raison d'une période dans les archives fossiles de tétrapodes fossiles où peu ont été trouvés, connu sous le nom "Gap Romer" (360-340 millions d'années), origines des tétrapodes sont quelque peu mystérieux. Récemment, cependant, de nouveaux sites de fossiles ont été trouvés avec des spécimens de cette période insaisissable. Nous avons beaucoup de choses à apprendre sur cette période floue de l'histoire évolutive ancienne.

Qu'est-ce que l'énergie souche?

L'énergie de déformation est une forme d'énergie potentielle qui est produite par la déformation d'un solide. Comme un élément solide est déformé, l'énergie utilisée pour déformer l'élément est stocké. Cette énergie est libérée lorsque l'élément déformé revient à sa forme originale. Cette énergie stockée est appelée énergie de déformation comme une façon de décrire l'effet de l'énergie sur le solide. L'énergie de déformation est une partie d'une classe plus d'énergie appelée énergie potentielle, ce groupe est composé de l'énergie stockée qui est en attente d'aller en service.

Quand un élément est tendu, il est forcé de faire quelque chose qu'il n'est pas censé faire. Avec l'énergie de déformation, la déformation est provoquée en forçant l'élément de conserver une forme ou une position qui est différente de celle qu'il souhaite exercer. Cela peut être aussi simple que de plier une branche d'arbre ou aussi complexe que la déformation qui se produit dans les systèmes d'atterrissage d'un avion de chasse.

L'énergie de déformation à l'intérieur de laquelle un objet est globalement égale à la quantité d'énergie appliquée à l'objet que la souche tubé. Cela signifie essentiellement que d'un objet solide va absorber et stocker les énergies qui lui sont appliquées. Lorsque l'énergie est libérée, elle est généralement égale à la somme détenue. En conséquence, un objet peut avoir une énergie qui lui est appliquée, puis la maintenir jusqu'à ce qu'il soit nécessaire de libérer et enfin la quantité totale de l'arrière de l'énergie dans le système, sans perte.

Le seul moment où un sinistre se produit, c'est quand l'énergie de déformation s'approche ou passe le point du solide de la déformation plastique. À ce stade, le solide subit un changement permanent dans une autre forme. L'énergie stockée dans l'élément est utilisé pour catalyser le changement. Cette déformation descendre lentement l'énergie de déformation jusqu'à ce que tout cela a disparu dans la transformation ou à la chaleur. Si l'objet est libéré avant la déformation est terminée, une quantité plus faible de l'énergie de déformation libère normalement.

Le meilleur exemple simple de l'énergie de déformation est un simple ressort. Quand une personne pousse le ressort vers le bas, il exerce une force sur un ressort solide. Cette énergie va de la personne et dans l'objet. Tant que le ressort est maintenu enfoncé toute cette énergie est assise juste à l'intérieur de l'objet. Lorsque le ressort est relâché, l'énergie transforme l'énergie de déformation potentielle en énergie cinétique. Si le ressort a été enfoncé, tant que sa forme modifiée, une partie ou la totalité de l'énergie serait perdue à la déformation.

Qu'est-ce qu'un télescope à rayons X?

Un télescope à rayons X est un télescope destiné à détecter des émissions d'énergie dans le spectre des rayons X. Cette zone du spectre implique haute fréquence, de l'énergie à ondes courtes avec un certain nombre de propriétés intéressantes. En astronomie, les rayons X sont intéressants car ils sont associés à des zones de gaz chaud et à haute énergie, et peut fournir des informations importantes sur les activités dans les corps célestes dans de nombreuses régions du ciel, y compris la formation des étoiles et des cycles de vie étoile.

Les premiers télescopes à rayons X ont été mis au point et utilisé dans les années 1960. Un certain nombre de défis se sont présentés à des chercheurs travaillant dans l'astronomie X, en commençant par l'interférence de la Terre. Il n'est pas possible de faire fiables rayons X des observations de la surface de la Terre, forçant les scientifiques à lancer des télescopes sur les fusées et les satellites de collecte de données. En outre, miroirs spécialisés sont nécessaires pour réussir à réfléchir et concentrer les rayons X dans un type de ce télescope. Alors que la technologie s'est améliorée, les chercheurs ont été en mesure de faire des observations plus précises et détaillées, ramasser, même très faible énergie des rayons X comme il se déplace à travers l'espace.

Les données provenant d'un télescope à rayons X peut être représenté dans un certain nombre de façons. Cette zone du spectre n'est pas visible, mais les rayons X peuvent être portés sur un graphique visuel avec des codes de couleurs ou des ombres afin de refléter l'intensité, fournissant des informations sur la concentration des activités dans l'espace. Les données peuvent également être représentées numériquement. Les chercheurs étudient une grande variété de phénomènes dans l'espace avec l'aide de télescopes à rayons X, ainsi que des lunettes pour rechercher d'autres zones du spectre non visible.

Images réalisées avec télescopes à rayons X peuvent être trouvées dans les manuels scolaires et sont parfois reproduits dans les nouvelles si elles sont considérées comme d'intérêt public. Une utilisation très courante du télescope à rayons X est dans les observations de l'activité solaire, utilisés pour collecter des informations sur le soleil en général, et aussi pour faire des projections sur les éruptions solaires et d'autres événements qui peuvent avoir un impact météo sur la Terre. Le soleil est très actif, produisant une richesse de matériel pour examen et étude au sein de la communauté scientifique.

Les chercheurs intéressés à faire des observations avec un télescope à rayons X peut collaborer avec les organismes scientifiques qui lancent ou maintenir de tels télescopes à des fins de recherche. D'un commun accord, de nombreux membres de la communauté des physiciens coopérer sur des observations avec des technologies coûteuses comme télescopes à rayons X, ce qui donne autant de personnes que possible l'occasion de faire des observations et recueillir des données pour leur travail.

Quels sont les types et les causes de crampes musculaires ?


Les crampes musculaires squelettiques peuvent être classés en quatre grandes catégories. Il s'agit notamment de «vrais» des crampes, tétanie, contractures, crampes dystoniques et. Les crampes sont classés en fonction de leurs différentes causes et les groupes musculaires qu'elles affectent.

Crampes véritables

Crampes véritables impliquer tout ou partie d'un seul muscle ou un groupe de muscles qui agissent généralement ensemble, comme les muscles qui fléchissent plusieurs doigts adjacents. La plupart des autorités reconnaissent que les crampes sont causées par de véritables hyperexcitabilité des nerfs qui stimulent les muscles. Ils sont en grande majorité le type le plus commun de crampes musculaires squelettiques. Crampes peuvent se produire de véritables dans une variété de circonstances, comme suit.

Blessure: spasme musculaire persistante peut se produire en tant que mécanisme de protection suite à une blessure, comme un os cassé. Dans ce cas, le spasme a tendance à minimiser le mouvement et stabiliser la zone de la blessure. Blessure du muscle seul peut causer le muscle à un spasme.

Activité vigoureuse: des crampes vrais sont couramment associés à l'utilisation rigoureuse des muscles et la fatigue musculaire (dans les sports ou les activités inhabituelles). Ces crampes peuvent venir pendant l'activité ou plus tard, parfois plusieurs heures plus tard. De même, la fatigue musculaire de la position assise ou couchée pendant une période prolongée dans une position inconfortable ou tout usage répété peut provoquer des crampes. Les personnes âgées sont à risque de crampes lors de l'exécution vigoureuse ou des activités physiques ardues.

Les crampes de repos: Crampes au repos sont très fréquents, surtout chez les personnes âgées, mais peut être vécue à tout âge, y compris chez les enfants. Les crampes de repos se produisent souvent pendant la nuit. Bien que n'étant pas la vie en danger, crampes nocturnes (communément connu sous le nom crampes nocturnes) peuvent être douloureuses, perturbateur du sommeil, et ils peuvent se reproduire fréquemment (c'est-à-plusieurs fois par nuit, et / ou nuits nombreux chaque semaine). La cause réelle de crampes nocturnes est inconnue. Parfois, ces crampes sont initiées en faisant un mouvement qui réduit le muscle. Un exemple est pointée le bout vers le bas en position couchée dans son lit, ce qui raccourcit le muscle du mollet, un site commun de crampes musculaires.

Déshydratation: sport et d'autres activités vigoureuses peuvent causer une perte excessive de liquide par la transpiration. Ce type de déshydratation augmente le risque de crampes vrais. Ces crampes sont plus susceptibles de se produire par temps chaud et peut être un signe précoce d'un coup de chaleur. L'épuisement de volume chronique de fluides corporels de diurétiques (médicaments qui favorisent la miction) et l'apport hydrique pauvres peuvent agir de même pour prédisposer à des crampes, surtout chez les personnes âgées. Déplétion sodée a également été associée à des crampes. La perte de sodium, le constituant chimique le plus abondant de liquides corporels en dehors de la cellule, est généralement fonction de la déshydratation.

Mouvements de fluides du corps: crampes vrai aussi peut être vécue dans d'autres conditions qui disposent d'une distribution inhabituelle des fluides corporels. Un exemple est la cirrhose du foie, ce qui conduit à l'accumulation de liquide dans la cavité abdominale (ascite). De même, les crampes sont une complication relativement fréquente de l'évolution rapide des fluides corporels qui se produisent pendant la dialyse pour l'insuffisance rénale.

Faible taux de calcium sanguin, de magnésium: les niveaux de sang bas de calcium ou de magnésium soit directement augmenter l'excitabilité des deux terminaisons nerveuses et les muscles qu'ils stimulent. Cela peut être un facteur prédisposant pour les crampes spontanées véritables vécues par de nombreuses personnes âgées, ainsi que pour ceux qui sont couramment noté pendant la grossesse. Les faibles niveaux de calcium et de magnésium sont fréquents chez les femmes enceintes à moins que ces minéraux sont complétées dans le régime alimentaire. Les crampes sont visibles dans n'importe quelle circonstance qui diminue la disponibilité du calcium ou du magnésium dans les fluides corporels, tels que la prise de diurétiques, l'hyperventilation (overbreathing), vomissements, insuffisant en calcium et / ou magnésium dans l'alimentation, l'absorption du calcium insuffisante en raison de carence en vitamine D, mauvais fonctionnement des glandes parathyroïdes (petites glandes dans le cou qui régulent l'équilibre du calcium), et d'autres conditions.

Faible de potassium: Faible taux de potassium dans le sang occasionnellement causer des crampes musculaires, mais il est plus fréquent pour le potassium faible pour être associée à une faiblesse musculaire.

Tétanie

Dans la tétanie, toutes les cellules nerveuses dans le corps sont activés, qui a ensuite stimuler les muscles. Cette réaction provoque des spasmes ou des crampes dans tout le corps. La tétanie nom est dérivé de l'effet de la toxine tétanique sur les nerfs. Cependant, le nom est maintenant couramment appliqué à des crampes musculaires d'autres affections, telles que les niveaux bas de sang de calcium et de magnésium. Faible teneur en calcium et en magnésium faible, ce qui augmente l'activité du tissu nerveux non spécifique, peut également produire des crampes tétaniques. Souvent, les crampes ne sont pas accompagnées d'une preuve de l'hyperactivité des fonctions nerveuses d'autres, en plus de la stimulation musculaire. Par exemple, calcium dans le sang provoque non seulement un spasme des muscles des mains et des poignets, mais il peut aussi provoquer une sensation d'engourdissement et des picotements autour de la bouche et d'autres domaines.

Parfois, des crampes tétaniques sont indiscernables des vrais crampes. Les changements d'accompagnement de sensation ou d'autres fonctions nerveuses qui se produit avec la tétanie peut ne pas être évident parce que la douleur est une crampe masquant ou en détournant d'elle.

Contractures

Contractures se produire lorsque les muscles sont incapables de se détendre pendant une période encore plus longue qu'une crampe musculaire commune. Les spasmes constants sont provoqués par un appauvrissement de l'adénosine triphosphate (ATP), une énergie chimique à l'intérieur de la cellule. Cela empêche la relaxation des fibres musculaires. Les nerfs sont inactifs dans cette forme de spasmes musculaires.

Contractures peuvent résulter d'héritage (par exemple, de McArdle maladie, ce qui est un défaut de la dégradation du glycogène en sucre dans la cellule musculaire) ou de maladies acquises (par exemple, la myopathie hyperthyroïdie, qui est une maladie musculaire qui est associée à une hyperactivité thyroïde). Crampes de cette catégorie sont rares.

Crampes dystoniques

La dernière catégorie est les crampes dystoniques, dans lequel les muscles qui ne sont pas nécessaires pour le mouvement prévu sont incitées à contrat. Les muscles qui sont touchés par ce type de crampes comprennent ceux qui travaillent habituellement dans le sens inverse du mouvement prévu et / ou d'autres qui exagèrent le mouvement. Quelques crampes dystoniques affectent généralement de petits groupes de muscles (paupières, mâchoires, du cou, du larynx, etc.) Les mains et les bras peuvent être affectés lors de l'exécution des activités répétitives telles que celles associées à l'écriture (crampe de l'écrivain), la dactylographie, la lecture de certains instruments de musique, et bien d'autres. Chacune de ces activités répétitives peuvent également produire des crampes véritables de la fatigue musculaire. Crampes dystoniques sont pas aussi communs que les crampes vrais.

Quels sont les crampes musculaires ?


Une crampe musculaire est un muscle involontaire et forcé contrat qui ne se relâche pas. Lorsque nous utilisons les muscles qui peuvent être contrôlés volontairement, comme ceux de nos bras et les jambes, ils alternance contracter et se détendre que nous nous dirigeons nos membres. Les muscles qui soutiennent notre tête, le cou, le tronc et le contrat même d'une manière synchronisée pour maintenir notre posture. Un muscle (ou même quelques fibres d'un muscle) que les contrats involontairement (sans le vouloir consciemment) est dans un «spasme». Si le spasme est énergique et soutenue, elle devient une crampe. Les crampes musculaires sont souvent la cause d'un durcissement visible ou palpable du muscle impliqué.

Les crampes musculaires peuvent durer de quelques secondes à un quart d'heure ou parfois plus longtemps. Il n'est pas rare pour une crampe à se reproduire plusieurs fois jusqu'à ce qu'il se résout finalement. La crampe peut s'agir d'une partie d'un muscle, le muscle entier ou plusieurs muscles qui agissent habituellement ensemble, tels que ceux que les doigts flexibles adjacents. Des crampes impliquer la contraction simultanée des muscles qui se déplacent normalement les parties du corps dans des directions opposées.

Les crampes musculaires sont extrêmement fréquentes. Presque tout le monde (une estimation est d'environ 95%) subit une crampe à un certain moment dans leur vie. Les crampes musculaires sont fréquentes chez les adultes et deviennent de plus en plus fréquente avec l'âge. Cependant, les enfants aussi ont des crampes des muscles.

Tous les muscles qui sont sous notre contrôle volontaire (muscles squelettiques) peut crampe. Crampes des extrémités, notamment les jambes et les pieds, et tout particulièrement le veau (le classique "crampe"), sont très fréquentes. Muscles involontaires des différents organes (utérus, paroi des vaisseaux sanguins, les intestins, la bile et l'urine des passages, arbre bronchique, etc.) sont également soumis à des crampes. Crampes des muscles involontaires ne seront pas prises en considération dans cette étude. Cet article se concentre sur les crampes du muscle squelettique.

Qu'est-ce que l'hydrologie des eaux souterraines?

Les eaux souterraines hydrologie aide de nombreux groupes de personnes - des agriculteurs aux propriétaires ruraux à l'industrie des dirigeants d'approvisionnement en eau à des foreurs de puits - s'informer sur le développement, l'apparition et la conservation des eaux souterraines. Quarante pour cent de l'eau utilisée dans nos maisons, les entreprises et les exploitations agricoles provient des eaux souterraines, qui sont l'une des ressources les plus importantes du monde. Si vous ajoutez de l'eau qui est utilisée comme liquide de refroidissement dans les centrales électriques et les installations hydroélectriques, ce pourcentage serait beaucoup plus élevé.

Partout dans le monde, l'eau est naturellement partie du cycle hydrologique sous toutes ses formes, comme l'atmosphère, les eaux de surface, les océans et les eaux souterraines. L'eau sur la Terre se déplace dans un cycle continu et a été en équilibre pendant des millions d'années. Les efforts de conservation sont importants, car l'eau peut être retirée du cycle de réactions chimiques et biologiques, créant un déséquilibre dans le cycle hydrologique à l'avenir.

Afin de bien comprendre l'hydrologie des eaux souterraines, il est d'abord important de comprendre ce qui constitue les eaux souterraines. C'est l'eau qui remplit les fractures, les pivots, et des pores dans le sol. Il est souvent comparé au lait remplissant les espaces vides dans un morceau de céréales de blé déchiqueté, car elle se situe dans le bol de céréales.

La surface de la nappe phréatique, appelé la nappe phréatique, doit aussi être comprise lorsque l'on étudie l'hydrologie des eaux souterraines. Il peut être proche de la surface de la terre ou des centaines de mètres au-dessous de la surface. Entre la surface de la terre et la nappe phréatique est une région appelée la zone non saturée. C'est là que l'humidité se déplace vers la nappe phréatique pour reconstituer les nappes phréatiques.

Il y a des formations géologiques qui contiennent de grandes quantités d'eaux souterraines, appelées aquifères. L'eau souterraine peut être pompée d'un aquifère pour les usages domestiques, municipales, ou de l'agriculture. Les eaux souterraines circulent toujours dans les zones de plus haute altitude dans des zones de basse altitude et des lieux de plus grande pression à des endroits où la presse est plus faible. Habituellement, ce mouvement est très lent, mais de nombreux scientifiques sont intéressés par ce mouvement, également connu sous le nom hydraulique souterrain.

Quels types de colonies spatiales proposées?

Les colonies spatiales proposées se répartissent en trois catégories générales; colonies sur des satellites ou des astéroïdes, des colonies sur d'autres planètes (si l'on peut ne pas tenir compte de ces «colonies spatiales", en soi), et les colonies de l'espace entièrement artificielles.

Les écrivains de science-fiction ont discuté de ces possibilités presque depuis le début de l'engin lui-même. Par exemple, en 1869, Edward Everett Hale a écrit La Lune brique, l'histoire d'une station spatiale artificielle faite de briques. En 1929, le Dr John Desmond Bernal conçu de la sphère Bernal, une colonie spatiale tournant avec un diamètre d'environ 15 kilomètres (9,3 miles), rempli d'air et colonisé autour de l'équateur, où la rotation de la colonie créerait la force centrifuge pour simuler la gravité terrestre.

Dans les années 60 et 70, la spéculation et la recherche sur la possibilité de colonies dans l'espace connu une renaissance, provoquée par la course à l'espace. L'un des penseurs les plus éminents participant à la conception et la défense des colonies spatiales était physicien de Princeton Gerard O'Neill, qui en 1969 a posé la question provocatrice: «Est la surface d'une planète vraiment l'endroit idéal pour une civilisation en expansion technologique?" Tout au long des années 70, O'Neill a animé des ateliers qui portaient sur plusieurs projets de créations de colonies spatiales dans les moindres détails. Une étude de la NASA d'été en 1975 a porté sur trois produits principaux, surnommé Island One, Two île et l'île de Trois. Tous les trois sont basées sur l'hypothèse d'une auto-entretenue, écologie artificielle au sein de la station, appelée arcologie.

Une île était la sphère Bernal, une conception fermée (bon pour la protection contre les rayonnements), à l'exception des pôles, ce qui serait laissée ouverte pour permettre de rediriger la lumière du soleil miroirs de l'extérieur vers l'intérieur de la colonie. Deux île était le tore de Stanford, un tore mile de large filer pour produire une gravité artificielle sur le côté intérieur de l'anneau. Le centre du tore pourrait alors servir de station d'accueil pratique pour vaisseau spatial s'approchant via les pôles. Trois île était le cylindre O'Neill, un tube de filature conçu pour contenir 10.000 personnes. Cette conception est probablement la colonie de l'espace le plus populaire dépeint dans la science-fiction.

Des motifs autres que la filature sont généralement présentées à la condition que les êtres humains et les écologies de support peuvent s'adapter ou être reconfiguré pour fonctionner en continu en apesanteur. Cette possibilité est intéressante parce que les dessins n'ont pas l'obligation de gravité artificielle peut tirer un meilleur parti d'un volume donné d'espace et de matériel. Auteur Marshall T. Savage a proposé l'idée de bulles gonflables dans son livre Le Projet du Millénaire, les unités modulaires qui utilisent une peau d'eau pour protection contre les rayonnements et être connectés ensemble dans de vastes réseaux ouverts. Au lieu de dépendre de l'homme des travailleurs pour la fabrication et l'installation des colonies spatiales de pointe pourrait employer la robotique de pointe pour maintenir des colonies spatiales et d'en créer de nouveaux.

es événements astronomiques?

Le synonyme événements célestes, les événements astronomiques sont des événements qui ont lieu dans le ciel nocturne. Quand les astronomes parlent des événements astronomiques, ils sont généralement référence à tout ce qui se déroule dans l'univers qui est en dehors de l'atmosphère terrestre. Cependant, les événements astronomiques plus souvent référence à des événements qui peuvent être vus à l'œil nu ou un télescope de la surface de la Terre. Il existe plusieurs types d'événements célestes, qui peuvent être lunaire, solaire ou planétaire dans la nature.

Les phases de la lune sont les phénomènes astronomiques les plus faciles à lire à l'œil nu. Comme la lune tourne autour de la Terre chaque mois, il crée des modèles différents d'illumination que les observateurs puissent en profiter. La lune bleue occasionnelle, ce qui est une lune extra full qui se produit une fois tous les deux ou trois ans, et les éclipses lunaires sont également considérés comme des événements astronomiques.

Un autre type de manifestation céleste lunaire est une occultation. Une occultation se produit lorsque la lune passe devant une planète ou une étoile brillante dans le ciel nocturne. Comme pour tous les événements astronomiques, l'occultation d'une planète ou une étoile est visible uniquement à partir d'une très petite zone sur la Terre. Les personnes qui ne relèvent pas de la zone d'observation sera très probablement afficher un évité de justesse entre la lune et quel que soit l'objet céleste est en passant devant.

Le soleil joue un rôle dans de nombreux qui se produisent régulièrement et rares événements célestes. Le solstice d'été, qui a lieu chaque Juin, quand le soleil atteint son point culminant dans le ciel, et le solstice d'hiver, qui a lieu chaque Décembre, quand le soleil atteint son point le plus bas dans le ciel, sont des exemples d'événements réguliers solaires. De même, les équinoxes de printemps et d'automne qui ont lieu en Mars et Septembre sont également chaque année des événements solaires. Une éclipse solaire est un exemple d'un événement solaire astronomique qui se produit moins fréquemment.

Les événements planétaires se produisent chaque fois qu'une planète est visible dans le ciel nocturne. Différentes planètes ont des orbites différentes tailles autour du soleil qui varient dans les délais d'exécution de quelques heures à plusieurs années, tant d'événements planétaires sont généralement considérés comme les plus rares de tous les événements astronomiques. Un autre type d'événement est une conjonction. Une conjonction se produit lorsque deux planètes semblent entrer en collision ou relèvent d'un degré de l'autre dans le ciel nocturne.

En plus des événements lunaires, solaires et planétaires, il y a des événements qui impliquent les autres corps célestes dans le ciel nocturne. Un événement céleste se produit lorsque les comètes en orbite autour de la passe système solaire interne par la Terre et deviennent visibles dans le ciel nocturne. De même, les pluies de météorites sont également considérées comme des événements astronomiques.

Quel est le cycle de Carnot?

Le cycle de Carnot est un cycle thermodynamique idéalisée qui décrit un moteur thermique parfait. Tous les moteurs thermiques réels sont des approximations imparfaites de la perfection théorique incarnée par le cycle de Carnot. Dans le cycle de Carnot, pas toute l'énergie thermique n’est convertie en travail mécanique, mais une grande partie est- la plus grande partie permis par les lois physiques.
Un moteur thermique produit un travail à partir de la différence de température de deux réservoirs. Dans un moteur à combustion, un réservoir est la chaleur créée à l'intérieur du moteur (source), et l'autre est le milieu extérieur (puits). La chaleur générée par la source provoque le gaz à l'intérieur du cylindre pour développer, entraînant un piston qui fonctionne. L'état thermodynamique du gaz - en expansion, mais avec une température constante - est appelée isotherme.

Éventuellement la source de chaleur est retirée et le gaz en expansion cesse très rapidement. Si la chaleur a été maintenue en permanence, le cylindre allait exploser. Le gaz commence à perdre température lorsqu'il atteint son volume maximum et agit non plus sur le piston. C'est ce qu'on appelle l'expansion adiabatique du gaz. Puis le piston change évidemment la compression du gaz, jusqu'à ce qu'il commence à atteindre une température maximale et la résistance physique due à la chaleur qu'elle contient, en mettant le système dans son état de départ. Puis le cycle recommence.

Il y a beaucoup de différents types de moteurs thermiques. Tous les travaux sur le gradient de température entre une source de courant et d'un lavabo. Pour maximiser l'efficacité des moteurs thermiques, ils doivent être bien isolés. Dans la plupart des moteurs utilisés aujourd'hui, le gaz reste un gaz tout au long du cycle, mais dans les moteurs à vapeur, un changement de phase se produit entre le liquide et le gaz.

Dans un cycle de Carnot idéal, tous les quatre étapes sont très lentes, afin de minimiser l'entropie, ou de l'irréversibilité thermodynamique, créé par le processus. En réalité, les étapes progresser rapidement, et l'entropie est générée, ce qui signifie le cycle ne peut pas durer éternellement. Les parois du cylindre se dégradent, la chaleur de l'intérieur du moteur se perd au milieu extérieur, et ainsi de suite. Le cycle de Carnot peut fonctionner en sens inverse pour créer un réfrigérateur.

Qu'est-ce que le pentachlorophénol?

Le pentachlorophénol est un composé chimique organique qui est largement utilisé dans l'industrie du bois. Ce produit chimique est également connu comme le PCP, mais ceci est différent de la PCP, qui est utilisé comme drogue récréative. Utilisation la plus courante du produit chimique est utilisé comme conservateur pour le bois, mais il a également été utilisé dans le passé comme insecticide, herbicide, et de désinfectant. En raison de préoccupations sur la toxicité du pentachlorophénol, la vente de ce produit chimique est limitée dans de nombreux pays, y compris aux Etats-Unis et en Nouvelle-Zélande. La production et l'utilisation du produit chimique est réglementé dans les pays de l'Union européenne. Certains pays européens ont opté pour l'interdire complètement.

PCP de préservation du bois est fabriqué par addition de chlore à un précurseur chimique appelé phénol. Ce procédé nécessite l'adjonction d'un catalyseur pour augmenter la vitesse de la réaction entre le chlore et le phénol. Le catalyseur est ajouté du chlorure ferrique ou l'autre ou d'aluminium anhydre. Lorsque la réaction est terminée, le mélange chimique qui en résulte est de 90% pur, avec les 10% restants du mélange étant un ensemble d'autres sous-produits phénoliques.

L'une des deux méthodes peut être utilisée pour traiter les produits du bois au pentachlorophénol. La première méthode est appelée méthode de procédé sous pression. Dans ce procédé, les produits du bois sont immergés dans un bain chimique et une pression est appliquée pour saturer le bois avec l'agent de conservation. La deuxième méthode est appelée la méthode process sans pression, et porte sur des produits de bois qui sont trempés dans ou pulvérisée avec le produit chimique sans pression appliquée.

L'exposition Le pentachlorophénol est un sujet de préoccupation dans les milieux industriels où le produit chimique est fabriqué ou utilisée. C'est parce que l'inhalation aiguë ou chronique de l'air contaminé par les vapeurs de solvants, ou de contact avec bois traité au PCP, peuvent être toxiques. En outre, l'exposition est un problème de santé publique car les eaux souterraines, le sol, et même l'eau potable qui a été contaminée par le produit chimique peut aussi devenir une source de toxicité. Ce type de toxicité des risques, notamment dans les endroits près des installations industrielles où le produit chimique est utilisé, et près des sites de collecte des déchets dangereux.

Les symptômes de toxicité du pentachlorophénol peuvent différer selon que l'exposition à la substance chimique est chronique ou aiguë. Exposition de courte durée à de fortes concentrations de la substance chimique peut endommager le système nerveux central, tractus gastro-intestinal et des organes tels que les reins, le foie et les poumons. Chimique en phase vapeur peuvent endommager gravement les yeux et la bouche. À long terme de faibles concentrations de produits chimiques à l'origine aussi endommager le système nerveux central, les reins et le foie. Exposition à long terme est également pensée pour augmenter le risque de certains types de cancer.

Quel est la Science thermique ?

La science thermique est une branche de la recherche scientifique qui traite spécifiquement de la chaleur et de l'énergie, à travers la thermodynamique et du transfert de chaleur. La science thermique est utilisée dans de nombreuses applications pratiques, telles que les systèmes de chauffage, production d'énergie, et ainsi expérimentalement. La science thermique est généralement considérée comme une branche de l'ingénierie, parce que dans les applications pratiques, il est le plus fréquemment utilisé par les ingénieurs qui tentent de concevoir un chauffage plus efficace et sécuritaire et des systèmes de production d'énergie.

La science thermique s'intéresse d'abord à la thermodynamique, qui est une branche de la physique qui intègre plusieurs variables et comment ils interagissent pour former la chaleur ou de l'énergie. Thermodynamique étudie l'interaction de la température, la pression et le volume intérieur d'un système pour créer de la chaleur, de l'énergie, ou les deux. La métamorphose de l'énergie dans la poursuite du pouvoir et de la chaleur est au centre de la thermodynamique, qui se réfère à la sortie énergique d'un dispositif comme un «travail», la force nécessaire pour déplacer un objet. Thermodynamique est régie par plusieurs règles, comme le sont la plupart des disciplines scientifiques.

La première règle est qu'il n'est pas possible d'extraire plus d'énergie que ce qui est un système d'entrée, parce que l'énergie ne peut être convertie en une forme nouvelle, et non créée ou détruite. La seconde est que toutes les machines se perdre en efficacité énergétique entre l'entrée et la sortie dans un processus appelé entropie, où l'énergie est perdue. Ces règles régissent les systèmes de conversion d'énergie à partir de barrages hydroélectriques au moteur à essence, et sont une partie cruciale de la thermodynamique.

La science thermique est une tentative d'équilibrer le transfert de chaleur et les lois de la thermodynamique dans une tentative de sortir gagnant lors de la génération d'énergie. La science thermique intègre plusieurs disciplines scientifiques, tous traitant de l'énergie, en tant que scientifiques et ingénieurs travaillent ensemble pour utiliser l'énergie thermique de manière plus efficace. La science thermique se penche sur de nouvelles façons d'extraire la chaleur, isolez l'énergie, et de l'utiliser de la manière la plus pratique possible.

Les étudiants de la science thermique sont intéressés à explorer d'autres modes de collecte de l'énergie, ainsi que la maximisation de la sécurité humaine dans les systèmes de conversion d'énergie. Quand la science thermique est utilisée dans une application pratique, les ingénieurs de regarder de transfert de chaleur propriétés des objets ou des systèmes énergétiques, ainsi que d'essayer de déterminer ce que l'équilibre global de l'énergie au sein d'un système. En outre, les ingénieurs d'examiner les principes de la thermodynamique, qui comprennent les réactions chimiques et physiques, en plus des lois primaires.

Lorsqu'il est utilisé en théorie, les physiciens qui se concentrent sur la thermique sont intéressés à explorer comment l'électricité est convertie, et comment les systèmes de conversion d'énergie peut être améliorée. L'étude des sciences thermique sur un plan théorique a conduit à la mise en place de nombreux dispositifs d'économie d'énergie, ainsi que l'augmentation de l'efficacité et de sécurité. Dans les deux cas, la thermique se penche sur les interactions fondamentales entre les processus physiques et chimiques, et le résultat

Qu'est-ce qu'un pont cure-dents?

Un pont cure-dent un exemple d'ingénierie sur une petite échelle pour enseigner aux élèves la résistance structurale, la capacité, la résilience et la créativité. Dans de nombreuses classes, des ateliers et des concours, les participants de construire un pont sur des cure-dents qui peuvent s'étendre d'un large fleuve, maintenir une charge lourde, ou pour résister à trembler. Par essais et erreurs, ils sont introduits à l'architecture, la construction et le génie civil.

Une des meilleures méthodes d'apprentissage est l'approche hands-on. Les instructeurs et les professeurs à tous les niveaux revenir au projet qui incite les élèves à construire un pont uniquement avec des cure-dents. Outre la création d'un cure-dent debout pont, ils peuvent avoir à remplir d'autres exigences telles que l'utilisation de seulement deux points d'ancrage, ne formant des triangles, en gardant le seul pont si longtemps, etc. Ces règles prévoient également préciser si des cure-dents plats ou ronds sont autorisés, quel genre de colle à utiliser, et la limite sur le nombre de cure-dents. Concours d'attribuer le poids le plus soutenu, un design inhabituel, le plus léger pont, ou un qui couvre la plus grande longueur.

Un treillis est un pont cure-dent simple à construire, entièrement réalisé à partir de triangles. Triangles sont une forme unique parce qu'ils répartir uniformément le poids sans tonte, à la différence des carrés. Un pont en treillis utilise une série de triangles en deux parois parallèles qui se verrouillent avec les autres triangles. Même les jeunes enfants peuvent compléter un pont en treillis suspendu entre deux livres et de tester sa force en plaçant quelques centimes en son centre jusqu'à ce qu'il s'effondre.

D'autres possibilités d'un pont cure-dent utilisent d'autres formes de répartir le poids porté. Une arche transfère le poids de ses bords, sans plier, comme une accolade droite ferait. Une sorte d'arche est appelée une caténaire; sa courbe inversée est faite par pendaison d'une chaîne à partir de deux points. Les ponts suspendus sont hautes tours qui relient des câbles longs pour la route horizontale. Les tours agir comme points d'ancrage, rigidifier le pont, et en prenant un peu de tension sur la route.

Construire n'importe quel style de cure-dent pont vous encourage à élargir vos connaissances de résistance à la traction, de torsion ou torsion, la conception, la portance, la gestion des coûts, la différence entre la compression et la tension, la répartition du poids, etc., si vous êtes un étudiant en sciences amateur ou diplômé en génie. Il y a même ordinateur

Quels sont des exemples de dispositifs nanométriques?

La nanotechnologie est un domaine nouveau qui est pratiquement exploser. Le marché des nanotechnologies a été de 10,5 milliards de dollars américains (USD) en 2006, avec des études qui attendent le champ d'étendre à 115 milliards de dollars US d'ici 2012. La nanotechnologie est devenu si populaire que de nombreux scientifiques et journalistes ont commencé à parler de quoi que ce soit à l'échelle nanométrique comme «nanotechnologie», tels que des puces informatiques actuels. Ceci en dépit du fait que cela contredit la définition originale de la nanotechnologie, qui a été actif se rapportant à des dispositifs nanométriques se livrent à la fabrication moléculaire. Nous n'avons pas ces fabricants nanométriques (parfois appelé «assembleurs») encore, mais nombreux et importants proof-of-concept actif dispositifs nanométriques sont créés avec une certaine régularité.

Une bibliothèque de dispositifs nanométriques se développe rapidement. Rotaxanes sont des molécules circulaires qui ont été utilisés comme des interrupteurs moléculaires. Graphènes ont été utilisés pour créer uniquement des transistors à un seul atome d'épaisseur et 50 atomes de long. Des chercheurs de laboratoires Lawrence Berkeley Livermore ont fait des progrès significatifs sur les dispositifs nanométriques dans le 00s tôt, y compris un nanomoteur à base de nanotubes électrostatique, un actionneur moléculaire, et un oscillateur à relaxation nanoélectromécaniques. Le nanomoteur est d'environ 500 nm de diamètre, soit 300 fois plus petit qu'un cheveu humain, et il est le plus petit moteur jamais construit.

Une distinction doit être faite entre les dispositifs nanométriques, ce qui fait faire les choses et ont une signification par eux-mêmes, et les matériaux nanostructures, qui sont pour la plupart des objets passifs qui doivent être regroupées en grandes quantités pour faire quelque chose d'intéressant. Les matériaux nanostructures sont plus primitifs en comparaison, bien que toujours l'état de l'art de la technologie moderne. La création de dispositifs nanométriques fait partie de la poussée vers la nanotechnologie moléculaire, ou la fabrication moléculaire, à échelle humaine où les produits seraient créés grâce à un processus bottom-up, en plaçant chaque atome individuellement dans un endroit prédéterminé.

D'autres dispositifs nanométriques comprennent un nanotube à filetage membrane lipidique, qui peut se déplacer de petites quantités de liquide, les molécules individuelles même; l'université de Rice nanocar, qui utilise des tubes de Bucky roues, "marche d'ADN", des molécules d'ADN qui soulèvent et se poser avec les jambes moléculaires " "comme un être humain marchant être; nanostructures semi-conductrices de polymère avec de nombreuses applications, y compris l'éclairage et les fils optiques, et des dizaines d'autres au-delà de la portée de cet article. Dispositifs nanométriques sont certainement un domaine à surveiller dans les années à venir

Qu'est-ce dosage génique?

Le dosage génique se réfère au nombre de copies d'un gène présent dans le génome d'un organisme, ou complet "bibliothèque" de l'information génétique. De nombreux organismes, y compris les humains, stockent leur information génétique sur les chromosomes appariés. Chaque membre d'une paire de chromosomes contribue à une «dose unique» des gènes contenus sur ce chromosome. Les chromosomes sexuels, cependant, ont tendance à varier entre les mâles et les femelles, les mâles humains ont un seul chromosome X et un chromosome Y unique alors que les femelles humaines ont une paire de chromosomes X. Divers procédés réglementaires appelées «compensation de dosage» sont en place pour veiller à ce que le dosage du gène reste à des niveaux appropriés dans les deux mâles et les femelles, malgré le déséquilibre génétique causée par des gènes différents.

De manière générale, plus de copies d'un gène - ou le dosage plus élevé gène - se traduira par une expression accrue des protéines dont les gènes codent. Dans une large mesure, toutefois, les gènes sur les chromosomes sexuels mâles et femelles sont exprimés à des niveaux comparables malgré la différence de dosage génique. Si ce n'était pas le cas, les femelles avec leurs deux chromosomes X peut surexprimer certains gènes, ou les hommes avec leurs chromosomes X et Y célibataires célibataires pouvaient underexpress certains gènes. Chacune de ces solutions de rechange pourraient provoquer des mutations graves ou la mort, il est donc important que les gènes sont exprimés à des niveaux comparables, en dépit de la différence de dosage génique.

Un ensemble de mécanismes de régulation et les processus connu sous le nom compensation de dosage sont responsables du maintien de l'expression des gènes à des niveaux appropriés. Différents organismes ont différents moyens de régulation de l'expression de leurs gènes, et certains ont même faire usage de plusieurs méthodes de compensation du dosage. L'expression des gènes chez les femelles de l'homme est réglementée par inactivation de l'X, par laquelle l'un des chromosomes X de la femelle deux devient un inactif "corpuscule de Barr." Le résultat de X-inactivation est que les hommes et les femmes chacun seulement un seul chromosome X qui est en fait exprimer son information génétique et de contribuer à dosage génique.

Dans certains organismes, tels que la drosophile Drosophila melanogaster ou, l'expression des gènes sur le chromosome X mâle est doublé pour correspondre à la dose génétique de la femelle deux chromosomes X. L'ascaris, ou C. elegans, constitue un cas intéressant, car il existe le plus souvent comme un hermaphrodite avec deux chromosomes X, même si certains ont seulement un chromosome sexuel unique, X, et sont classés comme des hommes. Compensation de dosage dans les résultats de C. elegans dans la répression partielle de l'expression des gènes sur les deux chromosomes X chez les hermaphrodites.

Quel a été Mir?


Mir, ce qui signifie à la fois «paix» et «monde» en russe, était l'une des stations spatiales les plus réussis de la fin du 20e siècle. Lancé le 19 Février 1986, Mir représenté la plus longue occupation humaine continue de l'espace jamais, ayant un équipage de 3-6 pour seulement huit jours courts de dix ans. Lors de sa plus fréquentée, la station spatiale a tenu six astronautes pour une période de trois semaines. Au cours de toute son existence, la station a accueilli plus de 130 astronautes.

Mir était une station lancée après l'expérience d'apprentissage de l'URSS avec les stations spatiales Saliout, qui avait été source de nombreux problèmes différents. Avant le lancement, Mir requis une année de reprise inattendue de câble dans un environnement de salle blanche. Le Parti communiste se hâta de la station spatiale en orbite afin qu'il puisse être claironné à un prochain congrès. Cette circonstance signifiait modules de lancement de livrer l'équipage et des fournitures à la station n'étaient pas disponibles avant un mois environ après le lancement.

Leonid Kizim et Vladimir Soloviev ont été les premiers à accoster avec Mir, à compter du 15 Mars 1986 et rester à bord de Mir pendant 51 jours. Ils démarré la station et fait quelques premiers tests et expériences. Après leur séjour, ils se sont rendus à la station spatiale en orbite soviétique autre, Saliout 7, et y resta pendant une autre période de jour 51. Après avoir saisi 400 kg de dollars de matériel scientifique, ils se sont dirigés vers Mir, a séjourné pendant trois semaines, puis descendit sur la Terre.

Au cours des dix prochaines années, des dizaines de Russes - et plus tard, de nombreux Américains - Mir visités. C'est probablement la station spatiale la plus réussie à ce jour, bien que la Station spatiale internationale soit en train de rattraper la plupart des dossiers. Tout au long de sa durée de vie, des modules supplémentaires ont été ajoutés à Mir. Finalement, il a récolté sept modules, avec un volume habitable de 350 m3. Sa masse totale était de 124.340 kg (£ 274 123). Près des dernières années de sa durée de vie d'exploitation, le système de navette-Mir a été lancé, un effort de coopération entre les Etats-Unis et la Russie à faire usage de la station. Cette injecté financement nécessaire au projet, et a servi de prélude à la Station spatiale internationale.

Mir a été désorbité le 21 Mars 2001, en fanfare médiatique. Quelques fragments de la station sont tombés près de la nation d'île des Fidji, dans le Pacifique sud.

Quels sont les grands groupes de reptiles?

Les reptiles, également connus sous le nom de classe Reptilia, classe Sauropsida, ou simplement sauropsids, sont des animaux ectothermes ("sang-froid" - bien que ce terme est maintenant passé de mode) animaux couverts d'écailles. Il y a plus de 8200 espèces de reptiles, environ 50% de plus que leurs parents, les mammifères. Le reptile est l'une des classifications taxonomiques chez les tétrapodes qui sont polyphylétique - dire les s'écarte du groupe de la convention, y compris de tous les descendants d'un ancêtre commun. Les oiseaux sont les descendants des anciens reptiles, les dinosaures, mais ne sont pas considérés reptiles. Si les oiseaux ont été inclus dans Reptilia, le groupe serait monophylétique.

Les reptiles sont l'un des deux groupes amniotes, l'autre étant les synapsides, représenté aujourd'hui par les mammifères. Amniotes soin de leurs embryons à l'aide d'une série de membranes complexes. En revanche, les amphibiens, qui est, non-amniotes, des œufs simples qui doivent être définies dans l'eau.

Les reptiles et les ancêtres de mammifères, les synapsides, séparée  l'un  de l'autre il y a très longtemps. La première reptile connu, Hylonomus, et le plus tôt synapsid connu, Archaeothyris tous les deux vécu au cours de la période de la fin du Carbonifère, environ 315 millions d'années. Ils ont tous deux superficiellement ressemblait à de petits lézards, mais a donné naissance à des descendants radicalement différentes. Synapsides et sauropsids ont depuis alterné dans leur domination sur la Terre, avec synapsides au pouvoir du Carbonifère jusqu'à l'extinction du Permien-Trias environ 251 millions d'années. Dès lors, sur, les dinosaures ont commencé à évoluer, et le solde basculé vers l'arrière en faveur du reptile. C'est pourquoi cette période a été appelée l'âge des reptiles. Après l'extinction du Crétacé-Tertiaire 65 millions d'années, tous les dinosaures non-aviaires ont été effacés, et synapsides, sous la forme de mammifères, a repris à nouveau.

Il y a quatre ordres de reptiles vivants: Crocodiliens (crocodiles, alligators, caïmans, gavials et, 23 espèces), Sphenodontia (tuatara de Nouvelle-Zélande, 2 espèces), les squamates (lézards, serpents et amphisbaenids ("ver-lézards"), environ 7900 espèces) et Testudines (tortues, environ 300 espèces). Le tuatara est considéré comme une relique vivante, et est un sujet populaire de l'étude au sein de la phylogénétique et communautés taxonomiques.

La relation entre les groupes de reptiles peut être source de confusion. Les testudines soit scindé très tôt ou est plus étroitement liée aux autres: nous ne savons pas. Les tortues n'ont pas des trous dans le crâne, ce qui est similaire à certains des premiers reptiles, mais ils peuvent avoir perdu leurs trous du crâne plus récemment. Mis à part Testudines, il existe deux groupes principaux: les archosaures, qui comprennent les crocodiliens et les dinosaures (y compris les oiseaux, qui sont les descendants des dinosaures) et lepidosaurs, qui comprend tout le reste.

Qu'est-ce que Nanopaint?

Nanopaint est un type de revêtement ou de revêtement qui est appliqué sur des surfaces d'une manière similaire à la peinture à base d'eau ou d'huile. La principale différence avec nanopaint est que le composé contient des particules microscopiques qui sont connus comme les nanotubes. Un nanotube permet de créer une barrière efficace qui empêche de nombreux types d'influence externe d'interférer avec la fonction d'un dispositif donné.

Le processus de nanopainting n'est pas sans rappeler celle de n'importe quel type de projet de peinture. Le composé peut être appliqué à l'aide d'une brosse ou d'un pistolet à peinture. Nanopaint est un liquide, il se propage dans une couche uniforme et laisser sécher. Une fois en place, le nanopaint se durcit en une couche qui permet de passer ou de bloquer les signaux électroniques en fonction de la programmation des nanotubes.

Alors qu'il était encore en phase de développement, nanopaint est déjà considérée comme un moyen efficace de faire face à un certain nombre de questions différentes. L'application de nanopaint à l'extérieur d'un bâtiment peut être utilisé pour bloquer les rayons infrarouges et contribuer ainsi à maintenir l'intérieur du refroidisseur d'espace, tout en permettant d'absorber l'énergie solaire les jours qui ensoleillée mais fraîche. Le résultat de cette demande signifie dépenser moins d'énergie pour maintenir l'espace à une température confortable quelles que soient les conditions climatiques extérieures.

L'utilisation de nanopaint peut également fournir un moyen de faire face à certaines des questions simples étiquette qui ont surgi depuis l'avènement du téléphone cellulaire. Peindre les murs dans des théâtres, des salles de classe, bibliothèques et autres espaces publics où les téléphones qui sonnent ne sont pas acceptables avec nanopaint entraînerait le blocage des signaux. Cela signifie moins d'accidents de personnes qui sont soumises à surprenne certaines conversations téléphoniques où l'attention devrait se concentrer ailleurs.

Une autre fonction prévue de nanopaint consiste à appliquer une couche transparente de verre. Cela permettrait la création de vitres opaques et d'autres sections de verre qui feraient en permettant aux gens de voir à l'extérieur de la vitre, mais empêcher quiconque en dehors de l'espace de jeter un œil à l'intérieur.

Quels sont les coefficients binomiaux?

Les coefficients binomiaux définir le nombre de combinaisons sont possibles lors de la prise d'un certain nombre de résultats à partir d'un ensemble d'une taille donnée. Ils sont utilisés dans la formule du binôme, qui est une méthode d'expansion d'un binôme - une fonction polynomiale contenant deux termes. Triangle de Pascal, par exemple, est constitué uniquement de coefficients binomiaux.

Mathématiquement, les coefficients binomiaux sont écrits sous forme de deux chiffres alignés verticalement dans une paire de parenthèses. Le nombre supérieur, représenté par "n" est le nombre total de possibilités. Généralement représenté par «r» ou «k», le nombre inférieur est le nombre de non-ordonnée des résultats à choisir parmi "n". Les deux nombres sont positifs, et «n» est supérieur ou égal à "r".

Le coefficient binomial, soit le nombre de façons que "r" peut être choisi de «n», est calculée en utilisant les factorielles. Une factorielle est un nombre parfois les prochaines fois plus petit nombre que le nombre immédiatement inférieur, et ainsi de suite jusqu'à ce que la formule atteint un. Elle est représentée mathématiquement comme n! = N (n - 1) (n - 2) ... (1). Zéro le facteur est égal à un.
Pour un coefficient binomial, la formule est n factoriel (n!) divisé par le produit de (n - r)! Fois r, qui peut généralement être réduite. Si n est égal à 5 ​​et r est 2, par exemple, la formule est de 5 / (5 - 2)! 2! = (5 * 4 * 3 * 2 * 1) / ((3 * 2 * 1) * (2 * 1)). Dans ce cas, 3 * 2 * 1 est à la fois le numérateur et le dénominateur, donc il peut être annulé de la fraction. Il en résulte (5 * 4) / (2 * 1), ce qui équivaut à 10.

Le théorème du binôme est un moyen pour calculer la dilatation d'une fonction binomiale, représenté par (a + b) ^ n - a + b à la puissance n, a et b peuvent être composées de variables, des constantes, ou les deux. Pour développer le binôme, le premier terme du développement est le coefficient binomial de n et 0 ^ n fois. Le second terme est le coefficient binomial de n et 1 fois par ^ (n-1) b. Chaque terme de la suite de la dilatation est calculé en ajoutant 1 au nombre inférieur au coefficient binomial, élevant à la puissance d'un des n moins ce nombre, et b élever à la puissance de ce nombre, en continuant jusqu'à ce que le nombre inférieur de coefficient est égal à n.

Chaque nombre dans le triangle de Pascal est un coefficient binomial qui peut être calculé en utilisant la formule des coefficients binomiaux. Le triangle commence par un 1 au point le plus haut, et chaque numéro dans une rangée inférieure peut être calculé en additionnant les deux entrées en diagonale au-dessus. Triangle de Pascal a plusieurs propriétés uniques de mathématiques - en plus des coefficients binomiaux, il contient également des nombres de Fibonacci et le nombre figurés.

Qu'est-ce qu'un radar à impulsions?

Un radar  à  impulsion  est une méthode bien connue de détection d'objets en émettant des impulsions brèves de l'énergie radar dans l'espace et ensuite la détection de l'énergie qui rebondit après avoir touché un objet. Pour déterminer la distance de l'objet, le système radar mesure la durée pendant laquelle une impulsion se déplace vers et à partir de l'objet. Radar à impulsions a des fonctions importantes dans le trafic aérien, la détection d'objet navale et militaire, la surveillance météorologique et l'exploration spatiale, entre autres utilisations.

Le prédécesseur du système de radar à impulsions est le radar mono-impulsion, qui a la capacité de rapprocher un objet emplacement et la position d'une impulsion unique. Il a été inventé en 1943 par Robert Morris Page. Le radar mono-impulsion a été utilisé avec parcimonie en raison de son entretien coûteux, et il n'a été utilisé que dans des cas particuliers, comme dans le suivi du missile Nike Ajax et aux États-Unis Apollo, Gemini et Mercury explorations spatiales. Il est depuis devenu la base de toute la technologie radar ultérieure.

Le système de radar à impulsions a deux sortes. Le premier type est le radar à impulsions simples, qui envoie une impulsion d'énergie à la fois. Après l'impulsion est réfléchie, le radar émet une autre impulsion d'énergie. Ce processus établit la distance d'un objet et permet d'estimer la vitesse à laquelle il circule, même si l'estimation n'est pas très précise.

L'autre type est le radar Doppler à impulsions. Ce type est plus sophistiqué car il fonctionne sur le principe de l'effet Doppler, qui stipule qu'un objet change de fréquence de l'onde comme il se déplace vers et à distance de l'observateur. Le radar Doppler à impulsions émet un flux continu d'impulsions radar. En analysant plusieurs impulsions, par opposition à un seul, il en fait une lecture plus précise de la vitesse d'un objet. Cette capacité rend plus efficace pour détecter les objets en mouvement parmi les fixes, par opposition à la radar à impulsions, ce qui est plus utile pour la simple identification à distance d'un objet.

Le système  radar à impulsions, que ce soit à l'aide d'impulsions radar ou d'un radar à impulsions Doppler a  besoin de quatre parties principales au travail: l'émetteur, une antenne, un récepteur et d'interface. L'émetteur est responsable de l'envoi de l'énergie radioélectrique. L'antenne est le principal bénéficiaire, après l'énergie se reflète en arrière. La tâche du récepteur est de magnifier le signal que l'antenne reçoit et fournit l'interface commutateurs pour ajuster les paramètres et un affichage visuel de l'ensemble du processus.