Les systèmes d'exploitation en parallèle sont utilisés pour interfacer plusieurs ordinateurs en réseau pour effectuer des tâches en parallèle. L'architecture du logiciel est souvent une plate-forme basée sur UNIX, ce qui lui permet de coordonner des charges réparties entre plusieurs ordinateurs dans un réseau. Systèmes d'exploitation parallèles sont en mesure d'utiliser un logiciel pour gérer l'ensemble des différentes ressources des ordinateurs fonctionnant en parallèle, telles que la mémoire, les caches, espace de stockage, et la puissance de traitement. Les systèmes d'exploitation parallèles permettent également à un utilisateur de s'interfacer directement avec tous les ordinateurs du réseau.
Un système d'exploitation fonctionne en parallèle en divisant séries de calculs en parties plus petites et leur distribution entre les machines sur un réseau. Pour faciliter la communication entre les cœurs de processeur et réseaux de mémoire, logiciel de routage doit soit partager sa mémoire en attribuant le même espace d'adresse à tous les ordinateurs du réseau, ou de distribuer sa mémoire par l'attribution d'un espace d'adressage différent à chaque noyau de traitement. Partage mémoire permet au système d'exploitation pour exécuter très rapidement, mais il n'est généralement pas aussi puissant. Lors de l'utilisation distribuée mémoire partagée , les transformateurs ont accès à la fois à leur propre mémoire locale et la mémoire d'autres processeurs; cette répartition peut ralentir le système d'exploitation, mais il est souvent plus souple et plus efficace.
La plupart des domaines de la science, notamment la biotechnologie, la cosmologie, la physique théorique, l'astrophysique, et l'informatique , utilisent des systèmes d'exploitation en parallèle d'utiliser la puissance de calcul parallèle . Ces types de système set-ups aident également à créer efficacité dans des secteurs tels que le conseil, de la finance, de la défense, les télécommunications et les prévisions météorologiques. En fait, le calcul parallèle est devenue si robuste qu'il a été utilisé par les cosmologistes pour répondre aux questions sur l'origine de l'univers. Ces scientifiques ont pu effectuer des simulations de grandes sections de l'espace tout à la fois - il a seulement pris un mois pour les scientifiques à compiler une simulation de la formation de la Voie Lactée, un exploit qu'on croyait auparavant impossible.
Les scientifiques, les recherches et les industries choisissent souvent d'utiliser des systèmes d'exploitation en parallèle en raison de sa rentabilité ainsi. Il en coûte beaucoup moins d'argent pour monter un réseau informatique parallèle que cela coûte pour développer et construire un super-ordinateur pour la recherche. Systèmes parallèles sont aussi complètement modulaire, permettant des réparations et des améliorations peu coûteuses à réaliser.
En 1967, Gene Amdahl, tout en travaillant chez IBM, conceptualisé l'idée d'utiliser des logiciels de coordonner le calcul parallèle. Il a publié ses conclusions dans un document appelé la loi d'Amdahl, qui a souligné l'augmentation théorique de la puissance de traitement on pourrait attendre en utilisant un réseau avec un système d'exploitation parallèle. Ses recherches ont abouti à la mise au point de commutation de paquets, et donc au système d'exploitation moderne parallèle. Cette évolution souvent négligé de la commutation de paquets était également la percée que plus tard a commencé le "projet Arpanet», qui est responsable de la fondation de base du plus grand réseau informatique parallèle du monde: Internet.