Un bus de mémoire cache est un bus dédié à haute vitesse que le processeur de l'ordinateur pour communiquer avec sa mémoire cache. Également connu comme un bus de face arrière, il fonctionne à une vitesse beaucoup plus grande que le bus de système. Un bus de la mémoire cache se connecte directement un cœur de processeur à sa mémoire cache, il fonctionne indépendamment du bus de processeur, le transfert de données à travers un chemin plus large, moins restreint. Un bus de cache est utilisé dans la plupart des processeurs modernes pour diminuer le temps nécessaire pour lire ou modifier les données fréquemment utilisées.
Dans les années 1980, la mémoire cache est généralement situé sur la carte mère, et non sur la puce du processeur lui-même. Le cache a été accédé par le bus de processeur, tout comme la mémoire de système ordinaire. La quantité de mémoire cache était souvent de petite taille et offert uniquement comme une amélioration des performances du système en option.
Comme la vitesse du processeur et l'efficacité ont augmenté au début des années 1990, le bus processeur est devenu un goulot d'étranglement; mémoire cache rapide avait besoin d'un moyen d'interagir avec le processeur sans attendre que la mémoire système beaucoup plus lent et les opérations d'entrée / sortie à la fin. Au milieu des années 1990, la plupart des nouveaux processeurs ont adopté une architecture à double bus pour résoudre ce problème. Un bus de cache à haute vitesse a été créé pour accéder à la cache directement. Ce bus n'est pas utilisé pour autre chose, tous les autres transferts de données utilisent le bus processeur plus lent, également connu sous le bus front-side. Le processeur peut utiliser deux bus simultanément, ce qui entraîne essentiellement une meilleure performance.
Early double bus conçoit mémoire cache souvent utilisé située sur la carte mère, de grandes quantités de mémoire cache sur puce n'étaient pas encore rentables en raison de problèmes de rendement de production. Dessins plus tard souvent incorporé un mélange de cache interne et externe rendement amélioré. Les processeurs modernes utilisent généralement une grande quantité de mémoire cache interne, beaucoup comprennent 8 mégaoctets (Mo) ou plus, par rapport aux modèles plus anciens qui avaient souvent seulement 8 kilo-octets (Ko). Dans les conceptions modernes où tout le cache est sur la puce, le bus de cache peut être très court avec un chemin de données très large, 512 bits dans certains processeurs. Le bus passe généralement à la même vitesse que le processeur lui-même. Le résultat final est que le contenu de la mémoire cache peut être lu ou modifié très rapidement.
Chaque core d'un processeur multi-core peut avoir son propre cache ou partager une importante cache commun. Dans les deux cas, un bus d'antémémoire relie chaque noyau à la mémoire cache approprié. Lorsque chaque cœur de processeur a sa propre cache séparé, les problèmes de cohérence peuvent survenir. Par exemple, quand un jour des données de base dans son cache, d'autres copies de ces données dans d'autres caches deviennent obsolètes ou «vicié». Une façon ce type de problème peut être résolu est d'utiliser un type spécial de bus de cache, parfois appelé bus inter-core. Ce bus relie toutes les caches ensemble afin que chacun puisse suivre ce que font les autres, si on met à jour un ensemble de données partagées, les autres peuvent immédiatement refléter le nouveau contenu.