für die festplatten sind zwei 146 gb-läufe in raid, gigabit-netzwerk, gibt es noch nichts besser?
aber für den server zählt der prozessor wenig?
sehr wenig. es zählt viel, aber viel mehr ein scsi-controller mit den counterpas** und sehr schnellen festplatten. das netzwerk ist ein großer engpass (beide gigabit) und die prozessordifferenz, wenn der festplattencontroller gut ist, ist es unablässig. denken sie daran, dass auf den scsi-controllern ein mikroprozessor zur datenverwaltung vorhanden ist. wenn sie versuchen, etwas sehr herausfordernd mit den festplatten zu tun, vergleichen sie mit der cpu last eines ata, sata oder ide im allgemeinen und scsi: mit sata/ide die cpu skizziert sogar zu 100% und die last ist alarmiert (denken sie beim spülen des gedächtnisses im falle der deponie: manchmal wird es das ganze system nagelt oder geht auf die langsamer). im falle von scsi ist die cpu immer null, außer wenn sie die daten an den cpu des controllers (die oft klasse repentum, verwendet für nur datengesion...

), dass, wenn es einen guten cache (es gibt mit dimm an bord...) ist praktisch wie das laden von daten in ram. nutzlos zu sagen, dass oft eine steuerung des genres kosten wie und mehr des pc, auf dem es montiert ist. .
(anche uno switch con le oo non fa male)??????
anstatt der nabe, dass "kose" im schrank oder untermaß, wo alle "drahte" des netzes konzentriert sind, ist es viel besser, eine "schalter", die scheinbar identisch ist, tatsächlich erlaubt eine viel bessere netzwerk-management.
in der praxis verbindet der hub einfach alle pcs zwischen ihnen und der netzverkehr wird von allen pcs gesehen, die sie sich sorgen über die annahme des verkehrs zu ihnen beabsichtigt und weigern die eine bestimmung zu anderen pcs. während des handels müssen die beiden an der datenübertragung zwischen 2 stk beteiligten netzwerkkarten den verkehr berücksichtigen und die verfügbare bandbreite nutzen.
der schalter hingegen überprüft den verkehr zwischen pcs und erzeugt sofortige physikalische schleifen zwischen den beiden maschinen, die interviewen müssen, so dass sie "glauben", nur sie im netzwerk zu sein und die karten können die maximale geschwindigkeit einstellen. die maschinen, die nicht an der übertragung beteiligt sind, sehen nicht, dass der verkehr zu ihnen nicht bestimmt ist und müssen sie nicht verweigern. die bandbreite ist nicht zwischen den maschinen geteilt, aber sie in paaren sehen die volle breite. offensichtlich, dass "broadcast" pakete alle pcs miteinander verbunden sind, aber nur in diesem fall. wenn mehrere pcs auf dieselbe ressource zugreifen, werden die virtuellen schaltungen entsprechend der logik des protokolls selbst geschaltet, so dass keine maschine die nicht verfügbare ressource sieht. im sehr unwahrscheinlichen fall, dass alle maschinen gleichzeitig (im gleichen mikrosekunden...) auf die gleiche ressource zugreifen, sind alle maschinen verbunden, als ob sie auf einer nabe waren, aber es ist wie gesagt sehr unwahrscheinlich. auch wenn jeder den gleichen gateway-router kontinuierlich besuchte, schafft der schalter tatsächlich die vorteile der pausen zwischen paketen, so dass die schaltungen mit maximaler geschwindigkeit erstellt werden können.
je nach paketanalyse haben schalter unterschiedliche preise wie türen und geschwindigkeiten. mehr verfeinert ist die analyse (manchmal haben auch stössel an bord zu cache-paketen bei netzwerken, die besonders verstopft sind und nicht "strainiert" entsprechend durch router) und teurer.
ich hoffe, ich war klar
