-Anatomie et physiologie • Animaux et l'environnement • culture generale • economie • flore et ses bienfaits • Internet et Informatique • L'alimentation et la nutrition • La Biologie • Le mésothéliome • Les épices • Les fruits et légumes • Les vitamines • Maladies & Affections • Médecine et traitements • Médicaments • monde technologique • remèdes naturels • Santé et Bien-être • sciences et génie -orange

lundi 7 avril 2014

Quels sont les différents types de logiciels Overclocking?

Overclocking implique de changer vos paramètres matériels du système de l'ordinateur pour travailler à une vitesse plus rapide que la notation du fabricant. Ceci peut se référer à la carte mère bus vitesse, la CPU vitesse, ou les deux. Aussi appelé pousser ou de la vitesse de marge, la pratique est devenue très vulgarisée, surtout parmi les joueurs et les moddeurs.

L'overclocking du CPU - En général puces CPU est testés par le fabricant pour voir à quelle vitesse ils ne parviennent pas. Ils sont ensuite évalués à une vitesse un peu inférieure à ce. Depuis les tests sont très strictes, l'idée est qu'il peut être possible de pousser le CPU un peu plus vite que sa note tout en maintenant la stabilité du système. Parfois, lorsque les fabricants sont à court de stock, ils conditionnent rapides puces GHz comme les plus lents; overclockers perçoivent cela comme une aubaine.

Les résultats de l'overclocking du CPU seul doivent être équilibrés contre le reste des spécifications du système, à savoir la vitesse du bus de la carte mère, la mémoire, etc. Par exemple, une augmentation de 20% de la vitesse du processeur ne se traduit généralement pas à une amélioration globale de 20%. Le CPU peut être exécuté plus vite que le reste du système, fonctionnant dans un environnement "dépêchez-vous et attendez». Par conséquent, l'augmentation pourrait offrir une belle amélioration de référence mais peu de différence dans le monde réel.

Échec overclocking peut entraîner une instabilité du système, au mieux, et dans le pire des cas peuvent endommager le CPU. Bien que celui-ci soit moins fréquent, il arrive. Pousser réduit également la durée de vie du processeur, un montant indéterminable, car elle oblige la puce à travailler plus fort et plus chaud. Ventilateurs de refroidissement et un bon dissipateur de chaleur devient encore plus important dans ce cas.

L'overclocking du bus système - Modification de la vitesse de bus de la carte mère peut créer avec succès une amélioration notable sur l'ensemble du système car tous les composants seront courir plus vite. Depuis l'efficacité du processeur est aidé par la vitesse du bus, une amélioration ici peut également utiliser le plein bénéfice de la CPU. Cependant, l'overclocking du bus système est risqué parce que cela signifie pousser chaque composant sur ​​la carte mère.

Certaines personnes croient à tort que si une carte mère offre divers options de vitesse de bus, ils doivent être pris en charge et donc sûr à utiliser. Le problème est que les composants que vous installez peuvent pas être testés à, ou conçus pour la vitesse de bus plus élevée. La modification de ce paramètre affecte la CPU (sauf si vous réglez le multiplicateur d'horloge), le chipset, bus mémoire, cache système, la mémoire système, les contrôleurs de disques durs intégrés IDE, PCI E / S emplacements de bus, et tous les périphériques. Tous les composants doivent être en mesure de gérer le changement pour le système pour réaliser avec succès sans défaillances matérielles. Garantie du fabricant ne couvre pas les problèmes créés par l'overclocking.

Tout en poussant un système peut commencer, plusieurs mois sur la route sans problème lorsque les composants ont vieilli en raison de l'utilisation et changements de température, l'instabilité peut surgir. Ceci est plus susceptible de se produire lorsque l'overclocking était déjà au bord de ce que le système peut supporter. Lorsque des problèmes surviennent - même un plantage du programme - il ne peut plus être tenu pour acquis que l'accident est dû à un problème de logiciel. Dépannage d'un système qui est overclocké peut être un exercice de frustration. Les variables augmentent de façon exponentielle et la possibilité d'exclure des potentiels est rendue plus difficile que le matériel pourrait agir de façon imprévisible.

Alors que l'overclocking est un passe-temps pour certains, et en grand nombre, sinon la plupart des cas s'avère être rien de plus qu'une auto-mise à niveau bénin, il peut être utile d'envisager si vous voulez prendre le risque de retombées potentielles pour ce qui est habituellement une amélioration relativement marginal. Si votre système fonctionne très bien et vous n'avez pas besoin du tweak c'est probablement plus sûr d'y renoncer, tout bien considéré. D'autre part, si vous souhaitez en savoir plus, il existe plusieurs sites dédiés à l'overclocking.


Quelles sont les différentes méthodes pour l'entrepôt de données mise en œuvre?

Un entrepôt de données  est une base de données qui est conçu pour les rapports d'analyse de pointe d'une organisation. Il existe plusieurs approches pour la construction d'un entrepôt de données. Celles-ci dépendent généralement sur les exigences de déclaration de l'organisation. La plupart des modèles sont fondés sur des-, sous-département ou de relations en entreprise. Cela permet à un individu de rechercher les données basées sur une mise en œuvre spécifique de l'entrepôt de données.

Les rapports d'entreprise nécessite une planification et une coordination avec les groupes d'affaires dans une société bonne. Ces groupes fournissent l'information essentielle qui est nécessaire pour définir la disposition des tables et des éléments de données dans l'entrepôt de données. La mise en œuvre de l'entrepôt de données est fonction des besoins des thèses unités d'affaires spécifiques de reporting. Cela détermine les relations entre les données seront définies dans la base de données.

Un entrepôt de données est une vue historique des données au sein d'une organisation. Ces données se divisent en seaux d'information, ce qui rend plus facile pour les rapports. Données entreposage nécessite la configuration de dépôts de données et de l'information de l'entreprise à partir des bases de données transactionnelles d'une entreprise. Une mise en œuvre de l'entrepôt de données est la méthode utilisée pour séparer l'information d'une entreprise. Quelques exemples de ces partitions sont financiers, relations avec la clientèle, les ventes et les processus d'affaires.

Un entrepôt qui est conçu pour interroger les informations des personnes est un exemple de mise en œuvre de l'entrepôt de données. Cela nécessite spécifique modélisation de données de conception qui prend en charge les exigences de déclaration sur la base de personnes qui interagissent avec une entreprise. Un entrepôt de données qui est basée sur les personnes permettra de rapports basés sur des données spécifiques de personnes. Cela comprend généralement les noms, l'âge, les données biographiques généraux, et les données biométriques. Ce type d'entrepôt est le plus souvent utilisé dans les relations avec la clientèle des systèmes de gestion.

L’information financière de l'entreprise est une autre forme de mise en œuvre de l'entrepôt de données. Cela est nécessaire pour les grandes organisations qui ont plusieurs lignes d'affaires uniques. Un entrepôt de données est nécessaire pour tirer toutes les données d'entreprise de chaque groupe dans un référentiel de reporting. Ce point de vue unique de données financières permet la déclaration pour les ventes, les bénéfices et les dépenses de toute une organisation fondée sur les régions et les tendances du marché.

Un entrepôt de données typique comprend deux tables de faits et les tables de dimension. Ces tables de faits sont reliées aux tables de dimension grâce à des touches spéciales qui représentent les requêtes paramètres nécessaires aux fins de déclaration. La mise en œuvre de l'entrepôt de données est la conception et les relations entre ces tables de base.

Un entrepôt de données basé ventes est un autre exemple de mise en œuvre de l'entrepôt de données. Avec ce type de conception les ventes sont considérées comme les tables nécessaires à la notification de faits. Ces tables de faits peuvent être configurées à la carte à plusieurs dimensions. Quelques exemples de tableaux de dimensions comprennent les magasins, les produits et les clients. Ce type de conception permettrait à un utilisateur d'interroger les ventes sur la base de clients, produits, ou les magasins au sein d'une organisation.


Qu'est-ce que Nearline Storage?

Le stockage de proximité, une contraction des mots "proche" et "en ligne" est un support de stockage informatique qui repose entre le stockage en ligne et hors ligne, mais est plus proche de ligne. En ce sens, en ligne et hors ligne ne font pas référence à l'utilisation d'Internet, mais la manière dont le support de stockage est utilisé. Support en ligne est dans l'ordinateur; déconnecté nécessite une intervention humaine et de montage, tout stockage de proximité nécessite une intervention humaine, mais se fait principalement par l'ordinateur. Nearline n'est pas aussi rapide que le stockage en ligne, mais il y a seulement un retard de plusieurs secondes avant le point de référence est accessible. Les trois principaux types de médiums Nearline sont des bandes magnétiques, disques magnétiques et les disques compacts (CD).

Les deux principaux types de stockage en ligne et hors ligne. En ligne se réfère à des systèmes de stockage localisés sur l'ordinateur, comme le disque dur, qui ne nécessite aucune intervention humaine. Stockage hors ligne est un support amovible qui doit être relié et étalonné à l'ordinateur; est très lent, mais est capable de tenir des quantités massives de la mémoire à des fins d'archivage.

Le stockage de proximité repose entre les deux. Il est comme le stockage hors ligne, car l'utilisateur ne devez placer le support de stockage dans l'ordinateur. Dans le sens ligne, l'ordinateur est en train de faire la plupart des travaux, car il sait comment localiser les données et aussi comment les récupérer. En terme de vitesse, quasi en ligne repose aussi entre les deux. Il n'est pas aussi lent que le stockage hors ligne, et il n'est pas aussi rapide qu’en ligne, mais il a seulement un court délai avant que l'utilisateur peut manipuler les fichiers dans le milieu.

Les entreprises et les grands centres de données sont les principaux promoteurs de stockage de proximité, car il permet à leurs bases de données d'optimiser les performances. Quand un milieu quasi en ligne est utilisé pour archiver des données, cela signifie que la base de données peut cesser d'utiliser l'énergie de ces données et de travailler sur d'autres fonctions. Dans le même temps, si les ajouts d'administrateur des données de la quasi en ligne de nouveau dans la base de données, cela prendra beaucoup plus de temps et peut entraîner des performances préjudiciable. Les consommateurs utilisent également Nearline mais sont généralement offerts petits supports de stockage que les entreprises utilisent.

Il existe trois formes de stockage de proximité. La bande magnétique est un peu comme la bande d'archives, mais est optimisé pour une utilisation Nearline, il ne nécessite pas la même quantité de préparation à l'emploi. Le disque magnétique, tel que la disquette, améliore la vitesse et la quantité de stockage. Le dernier des supports de quasi en ligne est le CD, qui est utilisé pour le stockage de données dans de nombreux secteurs.


Qu'est-ce qu'un Domain Routing?

Un domaine de routage est un terme utilisé pour identifier un niveau inférieur de la hiérarchie de réseau d'ordinateurs par rapport à l'acheminement du trafic de réseau. Tous les ordinateurs et les routeurs contenus dans le domaine doit être administré par une seule source, comme une entreprise ou une organisation, et adhérer à un seul protocole de routage. Des sous-réseaux supplémentaires peuvent exister à l'intérieur d'un domaine donné en vue de détail d'un réseau de topologie, tant que les sous-réseaux suivent le même protocole de routage. En outre, un domaine particulier peut exister en tant que partie d'un réseau plus large.

La manière dont un domaine de routage s'inscrit dans la hiérarchie globale dépend un peu de la construction du réseau et les protocoles de routage utilisé. Il est souvent un sous-réseau de ce qui est connu comme un domaine d’administration, qui peut avoir n'importe quel nombre de domaines de routage à l'intérieur de lui. De cette façon, deux domaines de routage différents peuvent fonctionner sous différents protocoles de routage au sein d'un seul domaine administratif, mais toujours être administrés par une seule source. Deux ou plusieurs domaines administratifs peuvent également être connectés dans le cas d'un troisième protocole de routage doit être mis en œuvre, mais seront séparés des deux autres.

L’intensification de la hiérarchie, un domaine administratif peut exister dans ce qui est connu comme un système autonome. Un système autonome peut être considéré comme essentiellement toute la collection de domaines de routage qui ont un itinéraire établi à l'Internet. Dans la plupart des cas, un seul domaine administratif et de son domaine de routage sera un système autonome, aussi parfois appelé un domaine en harmonie. C'est parce que pour le trafic réseau pour accéder à un autre domaine administratif, il a généralement pour parcourir l'Internet pour atteindre le deuxième domaine administratif.

La façon dont fonctionne un domaine de routage est par l'utilisation d'un protocole de routage explicite établie. A l'intérieur, il y a un certain nombre d'ordinateurs, appelés systèmes d'extrémité (ES). Les reliant en groupes sont généralement des routeurs ou d'autres équipements de réseau, qui sont appelés systèmes intermédiaires (IS). Ces groupes, ou sous-réseaux, sont considérés comme système d'extrémité à système intermédiaire (ES-IS) des protocoles. Les protocoles qui regroupent les systèmes intermédiaires qui partagent le protocole de routage commun sont considérés comme un système intermédiaire intra-domaine à système intermédiaire (IS-IS) protocole.

Bien que les règles pour les domaines de routage spécifient qu'un protocole de routage utilisé dans tout le domaine, il ya parfois des exceptions. Par exemple, une seule ES peuvent avoir un chemin direct vers un IS. Techniquement, cela peut être considéré comme un autre protocole de routage, car la route est établie entre l'ES et IS, si elle n'interfère pas avec l'intra-domaine principal protocole IS-IS. En général, un intra-domaine protocole IS-IS est souvent désigné comme un protocole de passerelle intérieure (IGP).

Comme il est possible d'avoir plusieurs domaines de routage au sein d'un seul domaine administratif, il existe des méthodes pour interconnecter les cas où de multiples domaines administratifs doivent se connecter. Dans ce cas, un protocole différent de celui utilisé par le domaine de routage peut être utilisé pour relier les deux domaines administratifs. Ceci est connu comme un inter-domaine protocole IS-IS. Alors que les deux domaines administratifs gérés par une source administrative unique peuvent exister, pour des raisons de sécurité, ils sont généralement connectés par ce qui appelle un protocole de passerelle frontière (BGP).


Qu'est-ce qu'un réseau de neurones Backpropagation?

Dans le monde de la programmation, les ordinateurs et l'intelligence artificielle, une rétropropagation réseau neuronal est tout simplement une sorte de réseau de neurones artificiels (ANN) qui utilise rétropropagation. Rétropropagation est un droit fondamental et un algorithme couramment utilisé qui indique un ANN comment effectuer une tâche donnée. Même si ce concept peut paraître déroutant, et après avoir regardé les équations qui sont nécessaires pendant le processus semble complètement étranger, ce concept, avec le réseau neuronal complet, est assez facile à comprendre.

Pour ceux qui ne connaissent pas les réseaux de neurones, un ANN, ou tout simplement un NN qui signifie «réseau neuronal», est un modèle mathématique qui est calqué sur certaines caractéristiques des réseaux de neurones de la vie réelle, comme ceux qu'on trouve dans les choses de la vie. Le cerveau humain est le réseau de neurones ultime dont le fonctionnement donne quelques indices sur la façon d'améliorer la structure et le fonctionnement des réseaux neuronaux artificiels. Comme un cerveau plus rudimentaire, un ANN dispose d'un réseau de neurones artificiels interconnectés qui traitent l'information.

Ce qui est fascinant, c'est que l'ANN peut adapter et modifier sa structure si nécessaire, en fonction des informations qu'il reçoit de l'environnement et de l'intérieur du réseau. Il s'agit d'un modèle de calcul qui utilise sophistiqué statistique non-linéaire d'analyse de données, et est capable d'interpréter les relations complexes entre les données telles que des entrées et des sorties. Il peut travailler sur des problèmes qui ne peuvent être résolus à l'aide des méthodes de calcul traditionnelles.

L'idée d'un réseau neuronal rétropropagation premier venu autour de l'année 1969, les travaux d'Arthur E. Bryson et Yu-Chi Ho. Des années plus tard, d'autres programmeurs et les scientifiques raffiné l'idée. À partir de 1974, le réseau neuronal rétropropagation est venu pour être reconnu comme une innovation de rupture dans l'étude et la création de réseaux de neurones artificiels.

L’apprentissage de réseau neuronal est une tâche importante au sein d'un ANN qui assure qu'il continue d'être en mesure de traiter correctement les données et donc remplir sa fonction correctement. Un réseau neuronal rétropropagation utilise une forme généralisée de la règle delta pour permettre l'apprentissage de réseau neuronal. Cela signifie qu'il fait usage d'un enseignant qui est capable de calculer les sorties souhaitées sur les certaines entrées introduites dans le réseau.

En d'autres termes, un réseau neuronal rétropropagation apprend par exemple. Le programmeur fournit un modèle d'apprentissage qui témoigne de ce que la sortie correcte serait, étant donné un ensemble spécifique d'intrants. Cet exemple d'entrée-sortie est l'enseignant, ou modèle, que d'autres parties de la boîte modèle de réseau calculs ultérieurs après.

L'ensemble du processus se déroule méthodiquement intervalles mesurés. Compte tenu d'un ensemble défini d'entrées, l’ANN applique le calcul appris à partir du modèle à venir avec une production initiale. Il compare ensuite cette sortie à l'origine connu, attendu, ou bien sortie, et fait les ajustements nécessaires. Dans le procédé, une valeur d'erreur est calculée. Il est ensuite propagée en arrière à travers le réseau neuronal rétropropagation jusqu'à la sortie optimale est déterminée.


Qu'est-ce qu'un réseau Tap?

Un robinet de réseau est un morceau de matériel qui permet le suivi d'une ligne de réseau informatique. Le robinet est un dispositif physique qui est placé dans un environnement de réseau qui permet à un utilisateur de surveiller l'activité sur une partie d'un réseau. Installation d'un de ces dispositifs nécessite généralement une interruption ou détournement de service de réseau que les lignes sont disposées à faire de la place pour le dispositif. Bien qu'il existe de nombreuses raisons légitimes d'utiliser une prise de réseau, il y a plusieurs utilisations illicites ou contraires à l'éthique ainsi.

La grande majorité des réseaux informatiques, notamment Internet, sont principalement constitués de dispositifs connectés avec le câble. Un robinet de réseau permet à une personne de surveiller l'activité sur une section de câble en insérant physiquement un dispositif de dérivation dans la ligne. Ce terme est similaire à un robinet de téléphone, où un tiers est en mesure d'écouter les appels téléphoniques en utilisant un dispositif de prélèvement.

Dans la plupart des cas, une prise de réseau se compose de trois ports. Deux des ports connecter au câble réseau est exploité-ci sont appelés ports A et B. L'une est une sortie pour un dispositif de surveillance, tel qu'un ordinateur ou une unité de stockage. Les ports de réseau exigent habituellement des câbles asymétriques réels. C'est une des plus grandes limitations lors de l'utilisation d'un robinet de réseau.

Depuis les ports A et B nécessitent un câble avec une extrémité fini, les endroits où l'eau du robinet peut entrer dans le système est très limité. Généralement, une personne peut débrancher un câble réseau à partir d'un périphérique matériel tel qu'un routeur ou un commutateur, branchez que dans l'eau du robinet et exécuter un nouveau morceau de câble dans le dispositif matériel. Cela signifie que le saigneur doit avoir un accès physique direct au réseau exploité. Si le robinet doit être placé dans un endroit isolé, le saigneur a besoin de couper le câble et coiffer les extrémités avant de pouvoir utiliser l'appareil.

Dans les deux cas, le réseau est débranché temporairement alors que le robinet est placé. Si le robinet est non autorisé, cette panne peut alerter le propriétaire du réseau qui une personne empiète sur son réseau. Même si la panne est manquée, le système peut enregistrer l'existence d'un nouveau hop passive sur le réseau.

Les administrateurs réseau utilisent souvent des robinets de réseau pour surveiller l'activité des utilisateurs et assurez-vous que le réseau fonctionne comme il le devrait. Cette utilisation d'un robinet de réseau est bien dans les droits du propriétaire du réseau et n'est pas une invasion de la vie privée, quel que soit l'information observée. D'autre part, certains robinets sont placés afin de voler des informations personnelles ou d'apprendre des mots de passe et les informations de connexion pour le système exploité. Cet usage est contraire à la loi dans presque tous les cas.


Qu'est-ce qu'une menace persistante avancée?

Une menace persistante avancée est un type de cyber menace souvent associée à l'utilisation et des activités telles que le piratage informatique malveillant. Ce qui différencie ce type de menace provenant d'autres tentatives de piratage sont les deux principaux aspects de l'expression elle-même, le fait qu'il peut être assez avancé et que ces tentatives sont persistantes. Ce type de menace est souvent financé par une nation ou une grande organisation, et il a donc plus de ressources et de capacités que seul un pirate ou un petit groupe. Une menace persistante avancée vise aussi généralement un système particulier pour un certain but qui va au-delà de vol ou abus ordinateur de base.

Les origines de l'expression "menace persistante avancée" sont quelque peu floues, mais elle découle probablement d'un organisme gouvernemental ou une organisation militaire au sein de l'US. Dans l'usage général, il peut se référer à tout type de cyber-attaque en cours et maintenu contre une grande cible, comme l'organisation de défense d'un pays ou d'une grande société. Bien que la menace persistante avancée peut provenir de n'importe quelle source bien organisé, il se réfère généralement à des actes de cyberterrorisme ou le cyber-espionnage qui sont financés par le gouvernement et soutenu. De nombreux pays non seulement s'engager dans ce type d'espionnage, mais ont également développé des organisations et des groupes militaires chargées de défendre contre ces types d'attaques.

Un des points de désaccord et incompatibilité avec la mention du nom "menace persistante avancée" est dans le premier mot: avancé. Cela implique que ces menaces utilisent compliquée ou très avancé technologie ou un logiciel, alors que ce n'est pas toujours le cas. Une menace persistante avancée peut utiliser des types de base de logiciels malveillants pour lancer une attaque contre un groupe. La manière dont ce malware est d'abord utilisé et dégénéré, cependant, est ce qui rend ces menaces si gênant pour les organisations et les pays.

Cela vient en grande partie de l'aspect de la signature d'une menace persistante avancée, le fait qu'il est en continu. Bien que relativement simple malware puisse être utilisé dans une attaque initiale, si cela est défendu contre, l'attaque est susceptible de dégénérer et des logiciels plus complexes ou avancé peuvent alors être utilisés. L'objectif d'une menace persistante avancée est généralement à attaquer un système spécifique et obtenir des informations ou des données qui peuvent être utilisés d'une manière particulière. Ce type de lecteur et objectif organisationnel sépare ces attaques d'autres tentatives de piratage qui peuvent être destinés à perturber le commerce, et donne l'impulsion pour les tentatives en cours visant à voler des données sensibles ou saboter un système ennemi.


Qu'est-ce que HiperLAN?

High Performance Radio Local Area Network (HiperLAN) est l'un des protocoles de réseau sans fil en Europe. Il est une alternative à l'Institut des ingénieurs électriciens et électroniciens (IEEE) normes 802.11. La norme HiperLAN a été créée par l'Institut européen des normes de télécommunication (ETSI). L'objectif initial de la norme HiperLAN était de créer un protocole qui a comporté un taux de transfert de données supérieur à la norme 802.11.

Le protocole HiperLAN / 1 a été approuvé en 1996. Cette version du protocole dispose d'une portée de 50 mètres. Le taux de transfert de données est de 10 mégabits par seconde (Mbit / s), tandis que le taux de transfert de vidéo était de 2 Mbit / s. Il s'agissait d'une amélioration significative par rapport à la norme 802.11 concurrence de l'époque, qui présentait un taux de seulement 2 Mbit / s de transfert de données.

Le protocole HiperLAN / 2 présentait un taux de transfert de données maximum de 54 Mbit / s. Ce taux de transfert de données est comparable à un taux de transfert maximum de la norme 802.11a. Le taux de transfert effectif varie pour ces normes fondées sur un certain nombre de variables.

HiperLAN / 2 placé un haut degré de l'accent sur ​​l'amélioration de la qualité des transferts liés aux médias par le biais de la connexion sans fil. Le  réseau sans fil protocoles nécessitent un degré élevé de contrôle par rapport à des connexions réseau câblé erreur. L'augmentation du niveau de contrôle d'erreurs augmentera la qualité des transmissions multimédias mais également d'augmenter le temps de latence. High Performance Radio LAN / 2 vise à maximiser le contrôle d'erreur impliqué dans la transmission de médias au prix d'une légère augmentation de la latence observé avec les connexions de médias.

Un autre domaine qui HiperLAN / 2 a pris une approche différente de 802.11 était dans le type d'algorithmes de sécurité mises en place. À ce stade, 802.11 a été fondée autour du système câblé insécurité politique (WEP) de sécurité équivalent. High Performance Radio LAN / 2 utilisé la sécurité des données de cryptage Standard (DES) ou des algorithmes de sécurité Triple DES. Cela a contribué à faire en sorte que les informations sur le réseau sans fil sécurisé sont restées.

Avec l'introduction du Wi-Fi Protected Access (WPA) et des algorithmes de sécurité WPA2, la norme 802.11 a commencé à rivaliser avec le protocole haute performance radio LAN en termes de sécurité. Cela a fait de la question de savoir qui est le meilleur protocole beaucoup plus difficile. En termes de performance globale en matière de transfert de données, les deux protocoles sont presque égales. Le protocole de haute performance radio LAN a encore l'avantage de la qualité des transmissions des médias.

La norme 802.11 a continué à se développer et a intégré certains des systèmes sous-jacents utilisés dans le protocole haute performance radio LAN dans son propre protocole. Cela a conduit à l'amélioration globale de la norme 802.11. En Septembre 2010, le développement de la norme 802.11n n'a pas été contesté par le développement d'une autre version du protocole HiperLAN.


Quels sont les modèles OpenGL 3D?

Les modèles OpenGL  en 3D, dans le sens le plus général, sont des ensembles de points connectés en trois dimensions (3D), appelé espace des sommets, qui se combinent pour former une séquence de polygones pouvant être rendus pour représenter un objet dans un espace virtuel. Presque tous les objets 3D qui ne sont pas façonnent primitives, comme des triangles, peuvent vraiment être considérés comme des modèles OpenGL  3D. Dans un sens plus pratique, les références à un modèle OpenGL  3D se réfèrent généralement à un objet 3D complexe qui a été construit dans une modélisation 3D programme. Un modèle complet comprend le plus souvent des textures, des normales de surface et de bump, et, pour les objets animés, informations squelettique et le poids de vertex.

OpenGL  est conçu pour être juste une bibliothèque de fonctions graphiques qui sont utilisés pour les routines d'affichage rapide, de sorte qu'il ne prévoit pas de soutien réel de haut niveau pour les modèles 3D. Au lieu de cela, les bibliothèques de programmation intermédiaires sont généralement utilisées pour charger des modèles de formats de fichiers populaires et les placer dans des structures de données en mémoire qui peuvent être utilisées par OpenGL. Modèles OpenGL  3D entièrement réalisés sont très complexes à créer, ils sont presque toujours effectués avec le logiciel complet de modélisation. Bien que la bibliothèque peut être utilisée pour charger un modèle complet en OpenGL, fait la mise en œuvre des fonctionnalités telles que l'animation ou le mouvement exigent du code soit écrit par le programmeur, car OpenGL  n'a pas la capacité innée au-delà afficher le modèle.

Tous les modèles 3D OpenGL  ne doivent pas être chargés à partir d'un fichier. Ils peuvent être construits à l'intérieur d'un programme en utilisant une séquence d'algorithmes ou procédures. Ces modèles générées procédure peut être étendue primitives, comme une sphère ou un tore, ou peuvent être des formes plus complexes, tels qu'une hélice. Grâce à l'utilisation d'algorithmes de fractale, modèles 3D que les montagnes approximatives, des arbres ou ondulation de l'eau peuvent être faites et manipulés selon les besoins.

Il y a quelques complexités qui peuvent survenir lors de l'utilisation de modèles 3D OpenGL. Le plus commun est le problème de la lecture dans un fichier, car tous les modeleurs 3D fournissent le cahier des charges de la façon dont un fichier est enregistré. Un autre problème peut être des méthodes propriétaires pour stocker des informations sur les sommets, des textures ou des matériaux. Cela voudrait dire certaines parties du modèle peuvent être chargés inversé, ou mappage de texture peut être complètement inutile.

Un problème que l'on peut rencontrer avec les modèles OpenGL  3D, quel que soit le format de fichier, est la subdivision de surfaces de modeleur pour OpenGL. Surfaces telles que les quadrilatères sont parfois divisés en triangles en utilisant une seule formule, tout en OpenGL  peut utiliser un autre. Cela peut causer l'apparition de modèles avec des trous dans leur surface, et il peut être un problème difficile à résoudre. Subdivisions pauvres peuvent aussi conduire à des modèles qui ont été trop subdivisés, provoquant un modèle simple de devenir la mémoire très intensive comme le nombre de polygones augmente.


Qu'est-ce que stockage principal?

Dans le monde de l'informatique, le stockage principal, on entend le programme mémoire adressable qui abrite les exécutables et les données nécessaires pour lancer et exécuter différents systèmes et programmes. Plus communément appelé stockage primaire ou de la mémoire, le stockage principal s'interface directement avec le CPU, qui lit les instructions liées aux exécutables et exécute les tâches nécessaires pour traiter les données. Toutes les données nécessaires à la fonction effective de programmes enregistrés sur le disque dur sont maintenues dans la mémoire principale.

Dans la plupart des cas aujourd'hui, la mémoire principale et le processeur communiquent par ce qui est connu comme le bus frontal. Ce type de bus est en fait composé de deux autobus spécialisés qui aident à lire des données et des adresses qui sont logés dans la mémoire principale. Le bus frontal extrait les instructions nécessaires à l'exécution des programmes ainsi que fournit la CPU à l'emplacement ou l'adresse des exécutables sur le disque dur. Le processeur peut alors lire et écrire les données pour lui-même et procéder à lancer les tâches nécessaires.

Il est important de noter que dans la plupart des cas actuels, la mémoire principale est considérée comme ayant une mémoire volatile. Cela signifie que la mémoire vive est effacée au démarrage. Pour résoudre ce problème, de nombreux systèmes utilisent un composant mémoire non volatile ou le stockage primaire principal, comme le BIOS pour démarrer efficacement l'ordinateur. Bootstrap signifie simplement la lecture d'un programme plus vaste d'un stockage secondaire et le charger dans la RAM dans le stockage primaire ou principale. De là, les autobus peuvent commencer la communication avec le CPU et compléter la séquence de lancement.

Dans le cadre du processus en cours, la mémoire principale est constamment en train de lire et indexer les données, effectivement réécrire pour une utilisation future. Cette interaction constante aide à conserver les données de fraîcheur et empêche les données à partir de la fuite à partir de la mémoire principale au cours de l'utilisation de différentes fonctions et de programmes qui sont engagées sur le système informatique.


Qu'est-ce qu'un UDP Socket?

Un utilisateur protocole de datagramme  ( UDP )  socket est un type de protocole informatique qui est utilisé pour transmettre et recevoir des informations à travers un réseau.   les sockets UDP sont connus pour leur nature connexion,   ce qui signifie qu'ils n'ont pas à contacter un autre serveur avant de tenter d'envoyer des données.   Il se distingue nettement de protocole de contrôle de transmission  ( TCP )  prises qui doivent maintenir une ligne de communication à une autre prise à tout moment.   De nombreuses applications Internet utilisent régulièrement un UDP socket pour la communication, car ils permettent un grand nombre d'utilisateurs d'accéder aux serveurs en ligne sans la nécessité pour les communications continuelles.

Les trois types de prises informatiques sont UDP,   TCP et des matières premières.   Les sockets raw sont le plus souvent utilisés pour aider à localiser ou le trafic réseau direct.   sockets TCP sont utilisés quand il est important que tous les renseignements atteindre la prise de destination dans la Afin qu'il a été envoyé en  sockets UDP sont utilisés lorsque l'information doit être     récupéré à partir d'un serveur en petits lots grâce à l'utilisation de paquets individuels appelés datagrammes.

L'un des inconvénients de l'utilisation d'un socket UDP est ce qu'on appelle la perte de paquets.   Il n'existe aucune connexion pré-établie entre les deux prises,   si il y a une chance qu'un datagramme ne le fera pas à la prise de destination .  L'ordinateur de destination n'a aucune idée de ce que le paquet arrive et ne demandent qu'elle soit renvoyée,   si les données sont complètement perdu.

Les systèmes qui utilisent un cadre de socket UDP optent souvent pour la perte de paquets sur les problèmes de transmission que d'une connexion TCP pourrait causer.   Un exemple est un système en temps réel critique dans laquelle il est plus important de conserver les données entrant et sortant du système par opposition à l'ensemble ayant potentiellement système s'arrêter à cause d'une connexion TCP lente.   Alternativement,   les connexions TCP sont utilisées dans des situations où aucune perte de données ne pourrait compromettre l'intégrité du système.

La création d'un socket UDP est très facile.   Considérant qu'il n'a pas besoin d'être un processus informatique dédié à maintenir en permanence le port auquel le socket est connecté,   il nécessite très peu de frais généraux.   Envoi et réception de datagrammes à travers un socket UDP est tout aussi facile en raison de la taille minimale et une faible complexité de   la ​​structure de paquet.

De nombreux services en ligne essentiels emploient sockets UDP pour les communications.   Le système de nom de domaine  ( DNS ) ,   qui convertit les adresses simples Internet que les gens peuvent lire et comprendre dans une longue série de chiffres,   utilise des sockets UDP car une seule demande par l'utilisateur est habituellement exigé à tout moment.   Media Streaming services utilisent également UDP, parce que la perte d'un seul paquet n'interrompt pas la totalité du flux dans la plupart des cas.


Qu'est-ce que l'analyse des réseaux?

L'analyse de réseau est l’analyzation des réseaux par la théorie des graphes. Le réseau peut effectivement être un réseau traditionnel d'ordinateur, réseau domestique, réseau sans fil, réseau de transport, ou d'un réseau biologique, entre autres. Il agit souvent comme une gestion de réseau outil pour briser les projets en composants ou des activités individuelles, et l'enregistrement des résultats sur un diagramme ou diagramme de réseau. Ces résultats révèlent généralement des informations qui sont utilisé pour déterminer la durée, la limitation des ressources, et les estimations de coûts associés au projet.

L'analyse de réseau peut offrir un aperçu de ce qui se passe à chaque point critique du réseau. Tous les détails concernant les protocoles, les flux de trafic, et les paquets de données individuelles peuvent aider une organisation à maintenir son réseau d'exploitation à un niveau optimal. Lorsqu'il est équipé de cette information, les équipes informatiques peuvent détecter application distante et dégradations de réseau avant qu'ils ne deviennent des problèmes. Cela permet de gérer la bande passante de manière plus efficace, d'améliorer la disponibilité, et de minimiser le temps nécessaire pour résoudre les problèmes par la détection rapide et l'isolement précis.

Le défi de nombreuses organisations informatiques sont confrontés est l'accès à l'information essentielle qui est nécessaire pour effectuer l'analyse de réseau, et de réagir en conséquence pour les évaluations extrait. Dans la plupart des cas, c'est le manque de présence de l'informatique sur les sites distants qui empêche l'exécution d'une analyse approfondie. En raison de la complexité croissante impliquée dans l'analyse de réseau, les organisations peuvent trouver que, pour être efficaces, elles exigent une solution qui offre trois qualités importantes: l'accessibilité, la granularité, et de visibilité.

L'accessibilité est une qualité qui peut être fourni par le matériel d'analyse de réseau robuste et des logiciels, qui peut être déployé dans toute l'organisation, mais il est généralement maintenu à partir d'un site distant. Pour la plupart des entreprises, le coût, le temps et l'impact associé à l'envoi de personnel pour traiter des questions techniques est à la fois prohibitifs et inacceptable.

Granularité fait référence à la vision du projet en activités et événements à travers toutes les couches du réseau. Cela signifie que la solution doit inclure bien plus que l'analyse de trafic fourni par standards d’analyse. Elle doit également inclure les capacités de capture et de décodage nécessaires pour l'analyse des paquets de réseau.

En ce qui concerne l'analyse de réseau, la visibilité est réalisée par une solution qui identifie automatiquement et découvre les mises à jour du réseau. Cette meilleure assure que l'analyse précises peuvent être maintenues sans nécessiter le personnel informatique doit être expédié dans des endroits éloignés. La visibilité peut être améliorée grâce à la possibilité de consulter des graphiques détaillés, des graphiques, des rapports et des diagrammes de réseau. Ce vaste aperçu peut donner une organisation la possibilité d'identifier rapidement et de résoudre les problèmes qui existent partout dans le réseau.


Quels sont les différents types de nouveaux médias numériques?

Les nouveaux médias numériques est un terme assez large utilisé pour décrire une grande variété de technologies numériques. Alors que les théoriciens des médias proposent de nombreuses définitions différentes de ce qui peut être classé comme les nouveaux médias numériques, ils sont généralement d'accord qu'il s'agit de produits numériques qui sont entrées en développement à la fin du 20e siècle. Certains des exemples les plus fréquemment cités incluent l'Internet, les CD et les téléphones cellulaires.

Médias est généralement définie comme un outil, un objet ou dispositif qui permet de stocker et de diffuser l'information. Il a donc, se réfère essentiellement à un type de dispositif de communication. Les nouveaux médias numériques peuvent être distingués des formes dites traditionnelles de médias - tels que les magazines, les journaux et livres - car il utilise généralement la technologie numérique pour effectuer la fonction de communication. Parmi les autres qualités habituellement attribuées aux nouveaux médias numériques comprennent l'interactivité, la densité et les capacités du réseau.

La technologie numérique utilise des codes numériques qui sont basés sur le système de numération binaire. Ceci facilite généralement l'interprétation et la transmission des informations par des dispositifs tels que les ordinateurs. L'intégration de cette technologie dans des dispositifs de médias a contribué à créer ce qui est maintenant appelé numériques nouveaux médias.

Certains des avantages de la technologie numérique et des nouveaux médias numériques, y compris les capacités de stockage de l'information. En général, les appareils numériques peuvent communiquer et de recevoir une plus grande quantité de données que les dispositifs non-numériques. Les nouveaux médias numériques peuvent également compter sur une série de réseaux qui permettent la réception et la transmission instantanée des communications et des messages.

Les disques compacts sont souvent cités comme l'un des précurseurs de nouveaux médias numériques. Dans le CD, les données numériques sont stockées sur un disque optique. CD sont devenus les moyens les plus communs de ce qui pour stocker des informations audio. Certains des avantages de disques compacts comprennent la qualité du son, parce que, contrairement à technologies analogiques traditionnelles, il peut transmettre le son avec une diminution minimale de fidélité.

L'Internet est l'un des types les plus communs de communication utilisés en conjonction avec les nouveaux médias numériques. Employant un réseau mondial d'ordinateurs reliés, l'Internet permet la communication et la diffusion de l'information à l'échelle mondiale. Internet prend en charge différents types de formes de communication, comme les sites web, e-mail, web, blogs et la messagerie instantanée.

Un téléphone cellulaire, aussi connu comme un téléphone portable, est un dispositif de communication mobile. Il peut effectuer un certain nombre de fonctions, comme la téléphonie ou l'envoi de messages texte. Certaines versions de téléphones cellulaires peuvent enregistrer de la vidéo et de l'audio ou de prendre des photos.


Qu'est-ce qu'un Digital Locker?

Un casier numérique est un espace de stockage de fichiers sur les serveurs qui sont accessibles sur Internet. Les serveurs sont détenus et gérés par une entreprise qui offre un disque dur d'espace pour le public pour stocker des fichiers pour une taxe. Centralisation des fichiers sur un serveur distant qui est accessible sur Internet permet à l'utilisateur de faire usage de ces fichiers sur n'importe quel ordinateur ou appareil connecté à Internet. Cela évite le problème de la localisation, où les fichiers sont stockés à la maison ou d'un bureau sur un seul disque dur physique qui est uniquement accessible en vous connectant directement sur l'ordinateur.

Le terme "casier numérique" a été d'abord utilisé par Microsoft  comme un nom de marque pour une partie de son service Windows Marketplace. A cette époque, il permet aux clients de télécharger des applications achetées depuis les serveurs de l'entreprise. Une copie de la demande a été placée dans le casier numérique du client afin qu'il puisse être téléchargé à nouveau dans l'avenir, si nécessaire, par exemple lorsque le client mis à niveau vers un nouvel ordinateur et voulait restaurer ses applications achetées. Ce service a été conçu pour prendre la place de la livraison physique du logiciel dans les formes de CD et DVD. Centralisation des programmes sur un serveur de l'entreprise contrôlée a été conçu pour changer l'expérience des consommateurs, offrant un accès immédiat à des achats de logiciels par téléchargement, protection contre la perte ou les dommages d'un disque physique, et d'améliorer la gestion.

Casiers numériques font désormais partie de cloud computing terminologie. Le cloud computing est le mouvement vers des applications basées sur un navigateur et le stockage de fichiers hors site, où se trouvent des programmes et des fichiers sur des serveurs centralisés gérés par une société de technologie et sont accessibles à partir de n'importe quel appareil compatible Internet pour une taxe. Le casier numérique est l'espace alloué par le client sur le serveur où il peut se connecter et contrôler son matériel.

Il existe essentiellement deux configurations populaires du casier numérique. Le premier est axé multimédia. Il permet le stockage de fichiers multimédias, tels que des chansons, des photos, des films et des vidéos, pour permettre aux clients de profiter de leurs fichiers de divertissement sur n'importe quel appareil connecté. Les entreprises qui offrent ce prix de services, il repose sur l'espace client doit stocker ses fichiers.

La seconde configuration permet également le stockage de fichiers réguliers, en plus de fichiers multimédias. Il stocke également des données pour la gestion des renseignements personnels, tels que les calendriers et les contacts, et synchronise les informations sur les périphériques. Ce type de casier numérique peut également permettre la collaboration de document, où plusieurs personnes sont affectées autorisation d'accéder et de modifier certains fichiers en conjonction avec d'autres.


Qu'est-ce que l'algorithme Rijndael?

Dans le monde de la sécurité informatique, un algorithme se réfère à un algorithme cryptographique, un ensemble de règles et / ou procédures de chiffrement des messages. Certains algorithmes sont plus complexes que d'autres, et donc, plus difficile à craquer. Le Rijndael algorithme est un algorithme de ce type, et il est très important dans les communications mondiales sur un certain nombre de fronts.

Le terme Rijndael - que certains prononcent comme / PLUIE Dahl / et d'autres prononcent comme / RINE Dahl / - a été formé en joignant les débuts des noms de famille des deux développeurs, les cryptographes belges Joan Daemen et Vincent Rijmen. L'algorithme Rijndael a été créé en réponse à une invitation adressée par le NIST, l'Institut National des Standards et de la Technologie, en 1997 pour les cryptographes de présenter un algorithme avancé pour former la base de l'AES, Advanced Encryption standard. L'algorithme Rijndael a été l'un des 21 présentations par des équipes provenant de 11 pays, et il était celui choisi en 2000, avec le résultat que AES est parfois appelée «AES (Rijndael)."

Rijmen et Daemen développent l'algorithme Rijndael de la place, un algorithme qu'ils avaient collaboré à l'heure. L'algorithme Rijndael est un bloc de chiffrement, une alternative à un chiffrement de flux. Les données sont traitées en blocs de 128 bits, et des touches peuvent être 156 bits, 192 bits ou 256 bits.

Le but de l'AES était de remplacer le DES, le chiffrement des données standard, comme un substitut plus sûr. Le gouvernement des États-Unis ont choisi AES, d'abord pour les documents sensibles, mais non classés, en 2000, et en 2003, la NSA (National Security Agency) a approuvé l'aide des touches de bits plus élevé - seulement 192 bits et 256 bits - pour les documents top secret. Les nouveaux systèmes européens pour les signatures, l'intégrité et de chiffrement (NESSIE) consortium adopté AES en 2003 ainsi.

AES est utilisé dans IKE (Internet Key Exchange), qui transmet la clé secrète pour le déchiffrement utilisant la cryptographie à clé publique, et en IPSec (Internet Protocol Security). Certains experts en sécurité estiment que l'algorithme Rijndael n'était pas l'algorithme le plus adapté à la nature des usages dont AES est mis. D'autres prétendent qu'aucun des algorithmes n’aurait gagné un soutien universel. Tentatives pour briser ce sont en cours, et les paris ont été placés sur combien de temps il faudra avant est fissuré.


Qu'est ce que Joomla ?

Joomla  est un logiciel gratuit de gestion de contenu système utilisé pour créer des sites Web. Joomla  permet aux concepteurs Web pour construire des sites en combinant des modules, et ne nécessite aucune connaissance de programmation à utiliser. Cadre de Joomla  est écrit en PHP, comme le sont les modules utilisés pour personnaliser les sites Web. Il y a une grande variété de modules disponibles, y compris les flux RSS, les sondages, et l'internationalisation de la langue, ce qui rend facile pour les utilisateurs Joomla  de publier du contenu sur le web, même avec un minimum d'expérience de conception de sites Web. Joomla  peut également être utilisé pour publier des informations sur les intranets, ce qui en fait un outil d'organisation utile.

Parce que le code de Joomla  est open source, n'importe qui est capable d'écrire des modules et extensions du système, ce qui rend extrêmement adaptable. Ces modules sont disponibles pour téléchargement, généralement par le biais des sites Web de leurs créateurs. Beaucoup de concepteurs Web de créer également Joomla  éléments de conception, appelés «thèmes», dont ils font alors disponible pour le téléchargement. Tous les thèmes Joomla  ne sont pas libres, cependant, et concepteurs de sites Web de nombreux feront des thèmes personnalisés pour un prix.

Joomla  est souvent comparé à Drupal , un autre système de gestion de contenu open source. Joomla  est souvent décrit comme plus facile à utiliser, d'abord, mais Drupal semble être plus adaptable si un utilisateur est en mesure de traiter les questions techniques. Une des caractéristiques clés Joomla  est son interface graphique, qui a moins d'une courbe d'apprentissage que Drupals système de menu.

Le nom Joomla "est une translittération d'un mot swahili qui signifie« tous ensemble »ou« dans son ensemble ». Il a été sélectionné dans le cadre d'un processus de re-branding pour le logiciel développé à l'origine dans le cadre du système de gestion de contenu Mambo. Mambo était le centre d'une controverse en doute ce qui constituait un logiciel open source, et les membres de la fondation chargée de financer le projet ont été accusés de planifier un projet de capitalisation. L'équipe de développement de Mambo, à son tour, a quitté le projet et publié la première version de Joomla  - essentiellement Mambo Version 4.5.2.3 - en 2005.


Qu'est-ce que la récupération de données?

La récupération de données consiste à restaurer l'accès aux données qui semble être perdu en raison de dommages ou de l'échec d'un certain type de support de stockage de données électroniques. Il existe différents types de méthodes de récupération de données qui peuvent être utilisés dans le cas d'une sorte de défaillance du système ou des dommages aux disques, bandes de stockage, et de disquette ou de CD.

Dans le cas d'une panne de serveur ou disque dur échec, la perte de données peut être fatale à une entreprise. Cela est particulièrement vrai s'il n'y a pas eu une tentative d'archiver les données importantes sur bandes, disques, ou le stockage de données en ligne. Heureusement, il existe souvent des méthodes qui un technicien des systèmes d'information peut employer pour récupérer des données à partir d'appareils endommagés. Selon la gravité de la situation, le simple remplacement d'une carte de circuit avec un nouveau sera suffisant pour corriger le problème. Une autre solution possible est de remplacer l'ensemble de tête de lecture / écriture, qui peut être tout ce qui est nécessaire pour obtenir l'accès aux données stockées. Un professionnel de la technologie de l'information qualifiée peut aussi extraire les plateaux du disque dur à partir d'un disque en panne et les insérer dans un lecteur compatible. Une chose à garder à l'esprit est que ces méthodes possibles de récupération de données invalident généralement toutes les garanties existantes sur l'équipement, car ils ont besoin de tomber dans le boîtier.

Quand il s'agit de tenter de récupérer des données à partir de serveurs qui ont été endommagés ou bloqués dans une certaine manière, il peut être nécessaire d'engager les services d'une entreprise spécialisée dans la récupération de données. En général, il est possible d'envoyer le lecteur physique ou un serveur de l'entreprise pour une évaluation. L'entreprise déterminera s'il est possible d'extraire des données à partir de l'appareil endommagé, ainsi que la quantité de données sera réellement utilisable. Après avoir déterminé ce qui peut être accompli, le fournisseur de service soumettre un devis au client. Généralement, cette citation comprendra des frais qui peuvent être dans les milliers de dollars. Toutefois, lorsque le prix indiqué est comparé au temps et les ressources qui seraient impliqués dans la reconstruction des données provenant d'autres sources, le coût peut vite être considéré comme minime.

La récupération de données est un processus que les entreprises et les individus doivent éviter si possible. Faire en sorte de planifier des sauvegardes régulières des données sur tous les systèmes, y compris un serveur, fera le remplacement immédiat plus facile, plus rapide et beaucoup moins cher.


Qu'est-ce qu'un Backbone effondrée?

Un squelette effondré est un type de structure de réseau ou de configuration qui est parfois utilisé dans la création de réseaux locaux ou LAN. La configuration comprend souvent l'utilisation de commutation ou de routage hubs dans le cadre de la conception globale, avec un point central d'origine fournissant l'alimentation pour toutes les plates-formes. Bien que très facile à installer et à entretenir, il y a des inconvénients à cette disposition qui peuvent conduire à un échec complet du réseau si ce point central d'origine est affectée.

Parfois connu comme un squelette dans une boîte ou un squelette inversé, l'épine dorsale effondrée fait usage de câbles entre le point d'origine à une série de plates-formes. Les moyeux sont à leur tour reliés à diverses destinations dans le réseau. Les données sont transférées du centre à travers les plates-formes sur une des destinations, puis est renvoyé au centre du réseau. Lorsque le squelette est configuré correctement, ce dispositif peut fonctionner de manière très efficace, ce qui permet de faire face rapidement à toute défaillance à un carrefour donné en redirigeant les transmissions à travers les centres restants.

Un autre avantage de l'épine dorsale aplatie est la facilité de maintenance. Comme il est un point de départ pour le réseau unique, il est le seul endroit à gérer. La configuration générale permet également de diagnostiquer facilement les problèmes qui pourraient interférer avec le fonctionnement du réseau, de mettre en œuvre tous les efforts nécessaires d'urgence pour maintenir le flux de données mobile, rapidement et résoudre le problème. Comme la surveillance d'un squelette replié est relativement simple, il est souvent possible d'exécuter des diagnostics qui aident à identifier les problèmes potentiels et effectuer des réparations avant tout type de perturbation du système se produit.

Bien qu'il existe un certain nombre d'avantages à un squelette effondré, un passif touche a à voir avec l'échec de l'effondrement du point central d'origine pour le réseau. Si un facteur interférer avec ce point central, l'ensemble du réseau peut être rendu inaccessible jusqu'à ce que le problème est identifié et les réparations sont terminées. De nombreux réseaux à l'aide de cette configuration particulière comprendront un ou plusieurs supports redondants qui sont périodiquement mis à jour pour communiquer avec tous les pôles du réseau, ce qui permet de basculer la fonctionnalité à une source de sauvegarde alors que la boîte principale au point central est réparée. Cela permet de s'assurer qu'il n'y a pas de perte de productivité due à une défaillance de l'équipement et des données précieuses est également préservé et facilement accessible au personnel autorisé.


Quelles sont les étapes de création d'un point d'accès?

Les personnes intéressées à la mise en place de capacités sans fil pour leur réseau domestique ou d'entreprise peuvent vouloir mettre en place un point d'accès pour étendre la portée du signal sans fil. Mise en place d'un point d'accès pour un simple réseau domestique peut être rapide et facile, mais le processus peut devenir compliqué pour les réseaux de bureaux plus grands. Le procédé de base de mise en place d'un point d'accès comprend en sorte que le réseau local sans fil (WLAN) est correctement configuré, déterminer le meilleur emplacement pour le point d'accès, l'obtention et l'attribution d'une adresse IP du point d'accès, le montage de l'appareil, la configuration de l' point d'accès, et de tester la connexion.

Les procédures de mise en place d'un réseau sans fil sont en dehors de la portée de cet article, mais le processus est une condition préalable pour la mise en place d'un point d'accès. Une fois que le WLAN est configuré, l'installateur doit effectuer une étude de site pour déterminer l'emplacement optimal pour le point d'accès. Les meilleurs endroits pour monter un point d'accès sont plates surfaces horizontales, plafonds suspendus, et les ordinateurs de bureau. Un point d'accès utilise une fréquence radio au lieu de câbles pour transmettre des informations, afin d'éviter de placer l'appareil à proximité d'obstacles métalliques ou des fours à micro-ondes. Ils peuvent produire d'interférences. Configuration d'un point dans l'espace de travail d'une personne de l'accès doit également être évitée.

Le point d'accès a besoin d'une adresse IP. Le programme d'installation peut se connecter au point d'accès directement au réseau local câblé pour accomplir cette étape. Une autre option consiste à attribuer une adresse IP à l'aide du contrôle d'accès au support du point d'accès (MAC). Il y a d'autres façons d'obtenir une adresse IP pour l'appareil. Les fabricants fournissent un guide d'installation fournit des procédures spécifiques à l'appareil.

Après l'obtention d'une adresse IP, la prochaine étape est de monter le dispositif. La plupart des points d'accès sont vendus avec le matériel de montage. Si le programme d'installation détermine que le meilleur endroit pour installer le point d'accès est sur ​​un mur ou au-dessus d'un plafond suspendu, il ou elle peut avoir à acheter du matériel de montage supplémentaire.

Une fois que le dispositif est monté, l'installateur doit configurer le point d'accès et de tester la connexion. Semblable à la façon d'un routeur sans fil est configuré, un point d'accès est configuré à partir d'une interface Web. Le programme d'installation entre l'adresse IP du point d'accès pour créer ou modifier ses paramètres, qui peuvent inclure des informations sur le réseau, l'intensité des signaux et des fréquences, les paramètres de sécurité, et d'autres options en fonction de l'appareil. Une fois le programme d'installation définit la configuration de base, il ou elle devrait tester la connexion à l'aide d'un ordinateur sans fil capable ou autre appareil sans fil.


Qu'est-ce qu'un processeur multi-core?

Un processeur multi-cœur est un circuit intégré qui utilise deux ou plusieurs processeurs individuels, ou les noyaux, pour traiter les données. Les noyaux peuvent être fixés sur un circuit intégré ou incorporés dans des matrices séparées dans un boîtier de puce. Chaque noyau a sa propre mémoire cache et chacun a une capacité à traiter des données séparées.

L'avantage d'un processeur multi-core est vitesse accrue. Une traditionnelle, single-core processeur stocke des données dans sa mémoire cache, et lorsque des données en dehors de la cache est nécessaire, elle doit être récupéré à partir d'autres endroits, comme la mémoire vive (RAM). Lorsque cela se produit, la vitesse du processeur ralentit jusqu'à la vitesse maximale de la mémoire vive ou d'un autre dispositif de stockage. Cette vitesse est habituellement beaucoup plus lente que la vitesse maximale du processeur.

Processeurs multi-core sont plus rapides parce que chaque noyau peut gérer son propre flux de données. Alors que les processeurs multi-core encore sélectivement des données en cache et récupérer des données non mises en cache d'autres emplacements de stockage, ou des noyaux supplémentaires peuvent continuer à exécuter des commandes et recevoir des informations à la vitesse du processeur normale, tandis qu'un autre processeur récupère les informations nécessaires à partir de périphériques de stockage lents. De cette façon, l'ensemble du système n'a pas à ralentir tandis que les données sont récupérées.

Un processeur multi-cœur est particulièrement précieuse pour le multitâche, où plus d'un programme sert chacun son propre ensemble de données pour le traitement. Les flux de données séparés peuvent être traités par différents noyaux, ce qui augmente la vitesse de traitement global. Pour un logiciel unique pour profiter de la technologie multi-core, il doit avoir la technologie multi-threading simultané (SMT) qui lui permet d'envoyer des séries parallèles d'instructions pour les noyaux multiples à utiliser.

Le premier processeur multi-core disponible dans le commerce est le processeur dual-core. Il y a aussi des processeurs multi-core avec quatre, six et huit cœurs. Beaucoup de cartes mères, cependant, sont incapables de gérer ce nombre de noyaux. Les systèmes multi-core peuvent être homogènes, en utilisant tous les cœurs identiques ou hétérogènes, en utilisant des noyaux non identiques.

Bien que les processeurs multi-core soient destinés à augmenter la vitesse et la performance globale, tous les programmes ne profitent de traitement multi-core technologie. Beaucoup même certains systèmes d'exploitation et les programmes n'ont pas la SMT nécessaire d'utiliser plus d'un noyau de traitement. Les systèmes d'exploitation qui utilisent les processeurs multi-core sont pas toujours conçus pour maximiser multi-core potentiel de traitement, de sorte que la capacité totale de traitement va souvent latente.

Un processeur multi-core a tendance à produire plus de chaleur que d'un processeur single-core, ce qui provoque des problèmes de gestion de la chaleur. La quantité de chaleur produite par un processeur a tendance à augmenter de façon exponentielle avec chaque cœur supplémentaire. Des températures élevées peuvent causer des processeurs de surchauffer, créant des problèmes opérationnels et les risques de sécurité. Les fabricants de processeurs ont dû investir du temps et de la technologie considérable dans la création de solutions aux défis thermiques présentés par les processeurs multi-core.


Qu'est-ce qu'un éditeur de CSS?

CSS est un acronyme pour Cascading Style Sheets, un langage utilisé comme un outil de mise en forme pour HTML (HyperText Markup Language) et d'autres langages de balisage qui a été approuvé par le World Wide Web Consortium (W3C). Un document CSS sert de plan directeur pour les styles et la mise utilisée sur une page Web ou site web. Décisions de style l'ensemble du site sont parcourues une fois appliquées à plusieurs reprises, l'œuvre salvifique pour le concepteur site et de temps à rendre le site. Un éditeur de CSS est un outil de création ou modification d'un document CSS, et il peut faire le flux de travail mieux pour créer des feuilles de style CSS.

Un éditeur de CSS peut être une application web, un produit autonome. Alternativement, il peut être un élément d'un programme complet de conception de sites Web, inclus avec un éditeur HTML, un XHTML (eXtended HTML) rédacteur en chef, et un éditeur JavaScript , ou peut-être même d'autres langues. XML (Extensible Markup Language), ASP (Active Server Page), PHP (PHP Hypertext Preprocessor), C et C + +, Python, PERL (Practical Extraction Report Language), et SQL (Structured Query Language) sont souvent inclus. Un éditeur de CSS peut être multi-plateforme ou pour une marque de système d'exploitation seulement, mais ils sont faciles à trouver pour Mac, Windows  et les systèmes Unix.

Les éditeurs CSS peuvent être des os nus assez - certains développeurs utilisent simplement un programme d'édition de texte - ou comprennent la coloration syntaxique pour aider à créer et vérifier le code, un assistant de CSS, et la validation. Être capable d'organiser des sections de code dans des dossiers peut rendre la maintenance plus facile, et extraits dans un ou plusieurs navigateurs peuvent aider à atteindre une conception universellement applicable. Cela peut ou peut ne pas être facilitée par une fenêtre divisée qui permet de visualiser des deux navigateurs à la fois.

À l'occasion, une version allégée peut être trouvé comme un libre téléchargement, agissant comme une démo pour la version pro. Il existe également des éditeurs CSS qui sont mieux adaptés pour les nouveaux arrivants et d'autres qui sont plus aptes pour les professionnels. Modèles utiles et / ou par exemple des feuilles de style du W3C peuvent être très utiles. En 2010, CSS était dans la version 2 et la version 3 est en cours d'élaboration, afin que les concepteurs web intention de travailler dans la version 3 besoin de vérifier pour s'assurer que l'éditeur de CSS, ils prévoient d'utiliser cette version prend en charge.


Qu'est ce que L'unité de gestion de l'alimentation, ou PMU, ?

L'unité de gestion de l'alimentation, ou PMU, est un type de micro-contrôleur qui est associé à la configuration des ordinateurs fabriqués par Apple. Essentiellement, l'unité de gestion de puissance commande les fonctions de puissance de l'ordinateur. Actuellement, tous les ordinateurs Apple utilisent une unité de gestion de puissance.

Il est utile de penser à l'unité de gestion de l'alimentation comme une puce très puissante. Dans le cadre de la fonction d'un ordinateur Apple, cette micropuce couvre les fonctions prises en charge par d'autres types de composants dans d'autres marques d'ordinateurs. Quelques exemples inclure des logiciels, firmware, et la capacité de la mémoire. En plus de ces trois composants principaux, une unité de gestion d'énergie fournit aussi de l'analogique au numérique des fonctions de conversion et de même comprend une unité centrale de traitement.

Cette large gamme de support permet à l'unité de gestion d'énergie pour coordonner un certain nombre de tâches essentielles qui maintiennent l'ordinateur opérationnel. Par exemple, le PMU va constamment surveiller l'état de toutes les connexions électriques qui sont actuellement engagés. Dans le même temps, l'unité de surveiller l'état de la batterie et amorcer la charge automatiquement en cas de besoin. L'état des différents composants du système est évalué sur une base récurrente, permettant à l'unité de gestion d'énergie pour arrêter un composant qui a été inactif pendant une période de temps significative.

L'unité de gestion de l'alimentation est un peu sensible aux changements brusques de puissance. Par exemple, si la batterie est en cours d'utilisation et est autorisé à descendre, ce qui peut affecter la fonction de l'unité. De la même manière, de brancher un cordon d'alimentation à une prise, puis de brancher le cordon dans l'ordinateur peut provoquer une défaillance de l'appareil. Pour cette raison, les utilisateurs doivent lire le manuel d'exploitation à fond et éviter les actions qui pourraient avoir un impact négatif sur les performances de l'appareil.

Comme avec n'importe quel type de composant de l'ordinateur, il est possible pour une unité de gestion de puissance à devenir corrompue. Certains signes communs que l'unité ne fonctionne pas correctement comprendraient un défaut de lancer une session de recharge pour la batterie ou une incapacité à reconnaître les périphériques connectés à un port USB, comme un lecteur de saut ou une imprimante. Dans certains cas, une simple réinitialisation de l'unité de gestion de l'alimentation seront éclaircir les problèmes. Cependant, si la réinitialisation ne fonctionne pas, il y a une bonne chance que l'unité devra être remplacé.


Qu'est-ce qu'un hashtag?

Twitter  est un site de réseautage social sur lequel les gens créent des profils, "suivre" ou "unfollow" d'autres, et de communiquer dans les messages de 140 caractères ou moins, dénommé tweets. Outre la communication avec vos amis via les messages universels, postes qui sont dirigés vers une des personnes spécifiques, et les messages privés - appelés messages directs, Twitter  utilisateurs ont également utilisé les messages Twitter  pour suivre les commentaires sur des sujets particuliers et d'avoir plusieurs personnes, des conversations internationales. Parce que les messages sont si brève et parce qu'il y a tellement de tweets, l'utilisation du hashtag, un nom pour le symbole #, a évolué par la communauté Twitter. Le hashtag est utilisé de plusieurs façons différentes.

L'utilisation de hashtags déclaré développer en 2007, quand un utilisateur nommé Nate Ritter identifié ses mises à jour sur les feux de forêt à San Diego avec un hashtag au début de ses messages:

# Sandiegofire

Comme dans cet exemple, il est norme aura pas d'espaces dans un hashtag, et exécuter plusieurs mots ensemble. Plus d'un hashtag peut être utilisé, mais elles sont séparées par un espace. Bien que Ritter a mis hashtags au début de ses messages, il est maintenant un semi-convention de placer des hashtags à la fin d'un tweet.

Une variété d'installations, à la fois sur le site Twitter ® et dans les applications créées pour améliorer l'affichage et de l'expérience de visualisation, de permettre les recherches, et les utilisateurs peuvent rechercher des hashtags. Cela a conduit à l'élaboration de certaines utilisations hashtag. Par exemple, le hashtag est un moyen efficace pour classer un poste qui ne peut pas avoir la catégorie mot en elle. Par exemple, un post sur un nouvel appareil ou gadget peut être marqué:

# Technologie

Cela permettra aux gens qui sont généralement intéressés par la technologie, mais pas encore au courant de ce nouveau dispositif par nom, pour trouver le poste.

Hashtags sont également utilisés pour déclencher les messages qui sont faites par des personnes participant à une conversation. Certaines conversations ont lieu à un moment donné, chaque semaine, et certains sont en cours. Le hashtag:

# # Musedchat ou MusEdChat est utilisé par les professeurs de musique qui se réunissent pour discuter le lundi, mais aussi poster entre les deux.

Hashtags.org  est un site qui a évolué pour suivre les tendances Twitter  et encourager la reconnaissance de leur en favorisant l'utilisation des hashtags pour classer les messages. A un moment, elle a aussi permis aux utilisateurs de s'inscrire avec un profil et d'appliquer trois hashtags à leurs noms d'identité Twitter , afin d'aider les gens qui pensent comme trouver quelqu'un d'autre. En 2010, il était essentiellement hors ligne pour un certain nombre de mois et la réorganisation subir, mais la planification d'un retour avec de nouvelles fonctionnalités.


Qu'est-ce qu'un Géolocaliser?

Un géocodage est l'information géographique ajoutée à différents types de supports tels que des photos, des vidéos, des sites Web et Rich Site Summary (RSS). Les données comprenaient généralement que des coordonnées latitude et longitude mais peut aussi inclure altitude, le cap, les noms de distance ou de lieu. Un géocodage permet aux utilisateurs de trouver des informations sur le Web spécifique au lieu.

Les articles qui ont des informations géocodage peuvent produire des résultats plus ciblés dans les requêtes des moteurs de recherche. Par exemple, un navigateur Internet peut trouver des images prises près d'un emplacement lorsque les coordonnées sont entrées dans un moteur de recherche. Les internautes peuvent également utiliser la géolocalisation pour trouver spécifique à l'emplacement des nouvelles, des sites Web et d'autres ressources.

La géolocalisation est basé sur des informations de position. Cette méta-données , ou des informations supplémentaires sur un fichier, est généralement issus de la système de positionnement global ( GPS ) et basés sur des coordonnées de latitude et de longitude. De nombreux téléphones cellulaires ont un GPS intégré qui permettent la géolocalisation automatique. Certains appareils photo numériques ont aussi cette fonction.

Il existe plusieurs sites en ligne qui simplifient le processus de geotagging. Le site de réseautage social Twitter permet aux utilisateurs de géolocaliser leurs messages et de photos. Certains sites Web de partage de photos permettent aux utilisateurs d'ajouter des informations de métadonnées de géocodage lors du téléchargement des photos depuis un appareil photo numérique.

Les blogs et les sites de réseautage social répondre à la plupart des utilisateurs mobiles. Geoblogging ajoute l'information géographique à des entrées de blog par géomarques. Marquage sites de réseautage social à des informations géographiques permet amis de suivre l'autre. Les utilisateurs peuvent même l'utiliser pour tenir un journal de leurs activités quotidiennes.

Les informations de position peuvent être intégrées dans une page Web via les balises meta, qui sont HTML éléments qui fournissent des informations spécifiques sur le site à un moteur de recherche, mais ne sont pas vues par les utilisateurs. La balise meta peut inclure coordonnées. Région, nom de lieu, et l'altitude peuvent également être codées dans la balise.

Des sites de vente au détail et du tourisme sur le Web ainsi que d'autres sites de commerce électronique qui ont des emplacements physiques peuvent bénéficier de l'aide de balises géographiques. Ils aident les clients à la recherche de produits ou de services à trouver ce qu'ils recherchent dans un emplacement spécifique. Disposer d'informations de géocodage peut aussi élever le classement d'un site dans les moteurs de recherche.

Certains utilisateurs d'Internet ont des préoccupations sur les implications de la géolocalisation de la vie privée. Loin de donner des informations précises de localisation peut ouvrir des utilisateurs à des interactions non désirées. Par exemple, un blogueur qui publie sur un sujet controversé et GeoTags son poste peut se trouver avoir reçu des menaces ou d'être suivi. Quelqu'un qui blogue à partir d'un café et comprend un géocodage de son poste peut être en alerte voleurs qu'il n'est pas à la maison.

Une façon d'atténuer ces préoccupations en matière de sécurité est de limiter la quantité d'informations révélées. Certains blogueurs ont choisi d'inclure des informations de localisation sans être trop spécifique. Ils peuvent inclure un nom de ville dans leurs balises géographiques mais pas les coordonnées exactes de leur emplacement.


Qu'est-ce que Watermarking Software?

 logiciel  Watermarking est un type de programme informatique qui permet à une personne de modifier et de marquer une photo ou une image avec un mot, une phrase, ou un autre indicateur afin d'identifier la source de cette image. Cela se fait habituellement dans la photographie commerciale, ou d'afficher des images sur Internet et veiller à ce que les autres ne cherchent pas à prendre le crédit pour le travail. Le tatouage peut également être utilisé pour identifier une image comme appartenant à un certain site Web ou de transmettre autrement des informations sur une image sans obscurcir complètement le travail. Le logiciel de tatouage peut venir dans un certain nombre de formes différentes, des programmes achetables avec des options de retouche d'image, à freeware qui permet simplement tatouage et rien d'autre.

L'Internet a rendu plus facile que jamais pour un artiste de démontrer son travail et de créer un portfolio en ligne pour les autres de voir, à l'achat, et par ailleurs profiter de l'œuvre de l'artiste. Un des problèmes avec la création des portefeuilles d'œuvres d'art ou de photographie sur Internet, cependant, c'est que d'autres personnes peuvent facilement télécharger et utiliser les images d'un artiste et potentiellement prendre le crédit pour le travail de l'artiste. En plaçant un filigrane sur une image, l'artiste est en mesure d'établir facilement une image comme appartenant à lui, et plus facilement empêcher les autres d'utiliser le travail sans permission.

Le logiciel de tatouage est généralement conçu pour rendre ce processus plus facile et plus rapide. Ces programmes peuvent également inclure des outils de base de retouche d'image ainsi. Ces types de logiciels de tatouage peuvent même être de puissants photographie ou une image des programmes de manipulation qui permettent de tatouage facile en plus de fournir d'autres outils d'édition. Le filigrane «estampillé» sur l'image est généralement assez faible opacité pour permettre l'image pour toujours être considéré et apprécié, mais de transmettre également des informations de contact pour un photographe ou auteur d'informations.

Comment un artiste met un filigrane sur une œuvre d'art dépend généralement de ce que filigrane est destiné à faire sur une image. Parfois, un artiste utilisera le logiciel de tatouage de placer un filigrane complètement à travers une image pour garantir l'image ne peut pas être utilisé par quelqu'un d'autre. D'autres fois, un filigrane pourraient être plus subtile, ou seulement situé dans un coin de l'image à fournir des informations utiles, mais sinon pas obstruer la visualisation de l'image. Certains logiciels de tatouage sera également permettre à un utilisateur de sauvegarder certaines des filigranes ou des motifs de tatouage pour le filigrane rapidement et facilement de nombreuses images sur une longue période de temps.