Что такое гипер транспорт у материнской платы
HyperTransport ( HT ), ранее известный как Lightning Data Transport ( LDT ), представляет собой технологию для соединения процессоров компьютеров . Это двунаправленный последовательный / параллельный канал связи точка-точка с высокой пропускной способностью и малой задержкой, который был представлен 2 апреля 2001 года. Консорциум HyperTransport отвечает за продвижение и развитие технологии HyperTransport.
HyperTransport лучше всего известен как системной шины архитектуры AMD центральных процессоров (CPU) от Athlon 64 через AMD FX и связанных с Nvidia Nforce материнских плат микросхем. HyperTransport также использовался IBM и Apple для компьютеров Power Mac G5 , а также для ряда современных систем MIPS .
Текущая спецификация HTX 3.1 осталась конкурентоспособной для высокоскоростной (2666 и 3200 МТ / с или около 10,4 и 12,8 ГБ / с) оперативной памяти DDR4 2014 года и более медленной (около 1 ГБ / с [1], как у высокопроизводительных твердотельных накопителей PCIe. ULLtraDIMM флэш - ОЗУ) технологии более широкий диапазон скоростей RAM на общую шину процессора Intel , чем любой системной шины . Технологии Intel требуют, чтобы каждый диапазон скоростей ОЗУ имел собственный интерфейс, что приводит к более сложной компоновке материнской платы, но с меньшим количеством узких мест. HTX 3.1 со скоростью 26 ГБ / с может служить единой шиной для целых четырех модулей памяти DDR4, работающих на самых быстрых из предложенных скоростей. Помимо этого, для оперативной памяти DDR4 может потребоваться две или более шины HTX 3.1, что снижает ее ценность в качестве унифицированного транспорта.
СОДЕРЖАНИЕ
Обзор
Ссылки и ставки
HyperTransport выпускается в четырех версиях: 1.x, 2.0, 3.0 и 3.1, которые работают от 200 МГц до 3,2 ГГц. Это также соединение DDR или « двойной скорости передачи данных », что означает, что оно отправляет данные как по переднему, так и по заднему фронту тактового сигнала . Это обеспечивает максимальную скорость передачи данных 6400 МТ / с при работе на частоте 3,2 ГГц. В современных вычислениях рабочая частота автоматически согласовывается с набором микросхем материнской платы (северный мост).
HyperTransport поддерживает автосогласование ширины битов от 2 до 32 бит на ссылку; на каждую шину HyperTransport приходится два однонаправленных канала. С появлением версии 3.1, использующей полные 32-битные каналы и полную рабочую частоту спецификации HyperTransport 3.1, теоретическая скорость передачи данных составляет 25,6 ГБ / с (3,2 ГГц × 2 передачи за тактовый цикл × 32 бита на канал) в каждом направлении, или 51,2 ГБ / с совокупная пропускная способность, что делает его быстрее, чем большинство существующих стандартов шины для рабочих станций и серверов ПК, а также делает его быстрее, чем большинство стандартов шины для высокопроизводительных вычислений и сетей.
В электрическом отношении HyperTransport похож на низковольтную дифференциальную сигнализацию (LVDS), работающую при напряжении 1,2 В. В HyperTransport 2.0 добавлена функция понижения усиления посткурсорного передатчика . В HyperTransport 3.0 добавлены скремблирование и фазовая синхронизация приемника, а также опциональная функция уменьшения усиления предшественника передатчика.
Пакетно-ориентированный
HyperTransport основан на пакетах , где каждый пакет состоит из набора 32-битных слов, независимо от физической ширины канала. Первое слово в пакете всегда содержит командное поле. Многие пакеты содержат 40-битный адрес. Если требуется 64-битная адресация, добавляется дополнительный 32-битный пакет управления. Полезные данные отправляются после пакета управления. Передачи всегда дополняются до кратного 32 битам, независимо от их фактической длины.
Управляемый мощностью
HyperTransport также упрощает управление питанием, поскольку он соответствует спецификации Advanced Configuration and Power Interface . Это означает, что изменения в состояниях сна процессора (состояния C) могут сигнализировать об изменениях состояний устройства (состояния D), например, об отключении питания дисков, когда ЦП переходит в режим сна. В HyperTransport 3.0 добавлены дополнительные возможности, позволяющие контроллеру централизованного управления питанием реализовывать политики управления питанием.
Приложения
Замена передней шины
Основное использование HyperTransport заключается в замене определенной Intel интерфейсной шины , которая отличается для каждого типа процессора Intel. Например, Pentium нельзя подключить к шине PCI Express напрямую, но сначала необходимо пройти через адаптер для расширения системы. Собственная передняя шина должна подключаться через адаптеры для различных стандартных шин, таких как AGP или PCI Express. Обычно они включены в соответствующие функции контроллера, а именно в северный и южный мосты .
Напротив, HyperTransport - это открытая спецификация, опубликованная консорциумом, состоящим из нескольких компаний. Один чип адаптера HyperTransport будет работать с широким спектром микропроцессоров с поддержкой HyperTransport.
AMD использовала HyperTransport для замены фронтальной шины в своих микропроцессорах семейств Opteron , Athlon 64 , Athlon II , Sempron 64 , Turion 64 , Phenom , Phenom II и FX .
Многопроцессорное соединение
Еще одно применение HyperTransport - это соединение для многопроцессорных компьютеров NUMA . AMD использует HyperTransport с проприетарным расширением когерентности кэша как часть своей архитектуры Direct Connect в линейке процессоров Opteron и Athlon 64 FX ( архитектура Dual Socket Direct Connect (DSDC) ). Межсоединения ХОРУСА от Newisys расширяет эту концепцию на более крупные кластеры. Устройство Aqua от 3Leaf Systems виртуализирует и соединяет ЦП, память и ввод-вывод.
Замена маршрутизатора или коммутатора шины
HyperTransport также можно использовать в качестве шины в маршрутизаторах и коммутаторах . Маршрутизаторы и коммутаторы имеют несколько сетевых интерфейсов и должны передавать данные между этими портами как можно быстрее. Например, для четырехпортового маршрутизатора Ethernet 1000 Мбит / с требуется максимальная внутренняя пропускная способность 8000 Мбит / с (1000 Мбит / с × 4 порта × 2 направления) - HyperTransport значительно превышает полосу пропускания, требуемую для этого приложения. Однако для маршрутизатора 10 Гбит / с с 4 + 1 портами потребуется внутренняя пропускная способность 100 Гбит / с. Добавьте к этому антенны 802.11ac 8, и стандарт WiGig 60 ГГц (802.11ad), и HyperTransport станет более осуществимым (от 20 до 24 полос, используемых для необходимой полосы пропускания).
Соединение сопроцессора
Проблема задержки и пропускной способности между процессорами и сопроцессорами обычно была основным камнем преткновения на пути их практической реализации. Появились сопроцессоры, такие как FPGA , которые могут получить доступ к шине HyperTransport и интегрироваться в материнскую плату. ПЛИС текущего поколения от обоих основных производителей ( Altera и Xilinx ) напрямую поддерживают интерфейс HyperTransport и имеют в наличии IP-ядра . Такие компании, как XtremeData, Inc. и DRC, берут эти ПЛИС (Xilinx в случае DRC) и создают модуль, который позволяет ПЛИС подключаться непосредственно к сокету Opteron.
21 сентября 2006 года AMD начала инициативу под названием Torrenza , направленную на дальнейшее продвижение использования HyperTransport для сменных карт и сопроцессоров . Эта инициатива открыла их "Socket F" для дополнительных плат, таких как XtremeData и DRC.
Разъем для дополнительной карты (HTX и HTX3)
Консорциум HyperTransport выпустил спецификацию разъема, которая позволяет периферийному устройству на базе слотов иметь прямое соединение с микропроцессором с помощью интерфейса HyperTransport. Он известен как H yper T ransport e X pansion ( HTX ). Используя перевернутый экземпляр того же механического разъема, что и 16-полосный слот PCI-Express (плюс разъем x1 для контактов питания), HTX позволяет разрабатывать подключаемые карты, которые поддерживают прямой доступ к ЦП и DMA к системной ОЗУ . Первоначальной картой для этого слота была QLogic InfiniPath InfiniBand HCA. IBM и HP , среди прочих, выпустили системы, совместимые с HTX.
Исходный стандарт HTX ограничен 16 битами и 800 МГц.
В августе 2008 года Консорциум HyperTransport выпустил HTX3, который увеличивает тактовую частоту HTX до 2,6 ГГц (5,2 GT / s, 10,7 GTi, реальная скорость передачи данных 5,2 ГГц, скорость редактирования 3 MT / s) и сохраняет обратную совместимость.
Тестирование
Разъем для тестирования «DUT» предназначен для обеспечения соединения стандартизированной системы функционального тестирования.
Реализации
- AMDAMD64 и Direct Connect Architecture на базе процессоров
- Чипсеты AMD
- AMD-8000 серии
- ATI Radeon Xpress 200 для процессора AMD
- ATI Radeon Xpress 3200 для процессора AMD
- HT-2000
- HT-2100
- nForce Professional MCPs (мультимедийный и коммуникационный процессор)
- nForce 3 серии
- nForce 4 серии
Частотные характеристики
Версия HyperTransportГод Максимум. Частота HT Максимум. ширина ссылки Максимум. совокупная пропускная способность (ГБ / с) двунаправленный 16-битный однонаправленный 32-битный однонаправленный * 1.0 2001 г. 800 МГц 32-битный 12,8 3,2 6.4 1.1 2002 г. 800 МГц 32-битный 12,8 3,2 6.4 2.0 2004 г. 1,4 ГГц 32-битный 22,4 5,6 11.2 3.0 2006 г. 2,6 ГГц 32-битный 41,6 10,4 20,8 3.1 2008 г. 3,2 ГГц 32-битный 51,2 12,8 25,6 * AMD Athlon 64 , Athlon 64 FX, Athlon 64 X2 , Athlon X2, Athlon II , Phenom, Phenom II , Sempron , Turion series и более поздние версии используют одно 16-битное соединение HyperTransport. AMD Athlon 64 FX ( 1207 ), Opteron используют до трех 16-битных каналов HyperTransport. Общие тактовые частоты для этих каналов процессора составляют от 800 МГц до 1 ГГц (старые однопроцессорные системы и системы с несколькими разъемами на каналах 754/939/940) и от 1,6 ГГц до 2,0 ГГц (более новые системы с одним разъемом на каналах AM2 + / AM3 - большинство новых процессоров используют 2.0. ГГц). Хотя сам HyperTransport поддерживает связи с 32-битной шириной, эта ширина в настоящее время не используется никакими процессорами AMD. Однако некоторые наборы микросхем даже не используют 16-битную ширину, используемую процессорами. К ним относятся Nvidia nForce3 150, nForce3 Pro 150 и ULi M1689, которые используют 16-битный нисходящий канал HyperTransport, но ограничивают восходящий канал HyperTransport до 8 бит.
Там были некоторые маркетинга путаница между использованием HT со ссылкой на H Yper T ransport и последующего использования HT ссылаться на Intel «s Hyper-Threading функции на некотором Pentium 4 основанное и новой Nehalem и Westmere на базе Intel Core микропроцессоров . Гиперпоточный официально известно как H yper- Т hreading Т ехнология ( НТТЫ ) или технология HT . Из-за этой возможности путаницы Консорциум HyperTransport всегда использует выписанную форму: «HyperTransport».
Infinity Fabric
Infinity Fabric (IF) - это надмножество HyperTransport, анонсированного AMD в 2016 году в качестве межсоединения для своих графических процессоров и процессоров. Он также может использоваться в качестве межчипового соединения для связи между процессорами и графическими процессорами (для архитектуры гетерогенной системы ), схема, известная как архитектура бесконечности . Компания заявила, что Infinity Fabric будет масштабироваться с 30 ГБ / с до 512 ГБ / с и будет использоваться в процессорах на базе Zen и графических процессорах Vega, которые впоследствии были выпущены в 2017 году.
В настоящий момент мы являемся свидетелями изменения приоритетов в индустрии высоких технологий. После того как Intel и AMD оптимизировали свои CPU, они обратили внимание на то, что производительность компьютера можно увеличить еще и за счет оптимизации чипсетов. Следующей на очереди стала память, в результате чего были разработаны спецификации Rambus DRAM и DDR RAM (хотя разработки этих видов памяти велись сторонними фирмами, известно, какое влияние оказали Intel и AMD на их реализацию). Следующим же этапом этой гонки стала борьба за увеличение пропускной способности системной шины. А результатом ее станут, как можно предположить, не только денежные поступления, но и выигрыш в сражении между архитектурами.
Табл. 1. Фирмы, входящие в группы поддержки стандартов Arapahoe и HyperTransport
Фактически, одновременное присутствие на рынке двух шин (причем весьма вероятно, что один отдельно взятый чипсет будет поддерживать либо одну, либо другую, но не обе вместе) может повлечь за собой переориентацию производителей компонентов на платформу только одного из двух производителей, с полным отказом от второго. И, к примеру, видеокарту от NVIDIA, ориентированную только на шину HyperTransport, нельзя будет использовать на платформе Intel или, вполне возможно, для ее корректной работы нужен будет переходник, что не только повысит цену компьютера, но и уменьшит производительность. Но не буду пугать читателя страшными прогнозами, для которых пока нет реальных оснований, так как о равноправной конкуренции этих архитектур говорить еще очень рано. Пожалуй, главным аргументом в борьбе шинных спецификаций является тот факт, что фирма AMD готова выпустить на рынок продукты, поддерживающие HyperTransport, в этом году. Intel же не готова к такому шагу, так как спецификация Arapahoe находится лишь на стадии разработки и сможет увидеть свет только в конце 2003 года. Но обо все по порядку. Хотя стандарты еще не реализованы, информации о них скопилось достаточно, чтобы попытаться сравнить их, что мы с вами и сделаем.
Arapahoe
По заявлению руководства Arapahoe SIG, технология позиционируется на рынок прежде всего как конкурент аналогичным по своим задачам архитектурам AMD (HyperTransport) и Motorola (RapidIO). Другими словами, Arapahoe не претендует на то, чтобы быть единственной шиной "для всего". Среди "претендентов на сожительство" Луис Барнс (Louis Burns), вице-президент и главный менеджер Intel's Desktop Platforms Group, назвал InfiniBand, IEEE 1394b (FireWire), USB 2.0, Serial ATA и 1/10-Gb Ethernet.
Технология, призванная расширить возможности шины PCI, может и не увидеть свет из-за большой конкуренции на этом рынке. Не будем забывать, что до реализации этой шины в железе осталось еще 2 года, а конкуренты уже готовы выпустить на рынок свои продукты, которые даже сейчас будут лучше, чем планируемые Intel на срок через 2 года.
HyperTransport
-
HyperTransport, ранее носившая название Lightning Data Transport (LDT), позиционируется как дополнение к технологии InfiniBand на рынок телекоммуникационных и встроенных систем, что налагает свои требования на спецификацию, реализующую преимущества обоих направлений. По заявлению руководства HTTC, технология может быть с одинаковым успехом использована как в серверных системах, так и в настольных и мобильных устройствах. Результатом этого станет некоторое изменение в архитектуре компьютера: связь между контроллерами периферийных устройств будет обеспечивать шина HyperTransport.
Табл. 2. Сравнительная характеристика стандартов Arapahoe и HyperTransport
Параметры Arapahoe HyperTransport Симметричная/асимметричная симметричная асимметричная Двунаправленная/однонаправленная двунаправленная двунаправленная Скорость передачи 2.5 ГБ/с 12.8 ГБ/с Peer-to-peer подключение + + Scalable bandwidth + + Адресация 32- и 64-битная 64-битная Планируемый срок выхода конец 2003 года конец 2001 года Вместо заключения
Мы рассмотрели всего лишь две, наиболее яркие технологии системных шин от постоянных конкурентов, Intel и AMD. Из этого не следует, что только эти две технологии претендуют на лидерство в построении архитектуры будущих компьютеров, просто они пока являются наиболее поддерживаемыми со стороны разработчиков. Вполне возможно, что будущее каждой из системных шин нового поколения определится самым простым образом: чем больше производителей аппаратного обеспечения поддержат ту или иную спецификацию, тем больше у нее будет возможностей занять лидирующее положение. Две рассмотренные спецификации не так уж сильно отличаются друг от друга, однако скорость появления продуктов на основе HyperTransport может стать решающим фактором.
HyperTransport ( HT ), ранее известный как Lightning Data Transport ( LDT ), представляет собой технологию для соединения процессоров компьютеров . Это двунаправленный последовательный / параллельный канал связи точка-точка с высокой пропускной способностью и малой задержкой, который был представлен 2 апреля 2001 года. Консорциум HyperTransport отвечает за продвижение и развитие технологии HyperTransport.
HyperTransport лучше всего известен как системной шины архитектуры AMD центральных процессоров (CPU) от Athlon 64 через AMD FX и связанных с Nvidia Nforce материнских плат микросхем. HyperTransport также использовался IBM и Apple для компьютеров Power Mac G5 , а также для ряда современных систем MIPS .
Текущая спецификация HTX 3.1 осталась конкурентоспособной для высокоскоростной (2666 и 3200 МТ / с или около 10,4 и 12,8 ГБ / с) оперативной памяти DDR4 2014 года и более медленной (около 1 ГБ / с [1], как у высокопроизводительных твердотельных накопителей PCIe. ULLtraDIMM флэш - ОЗУ) технологии более широкий диапазон скоростей RAM на общую шину процессора Intel , чем любой системной шины . Технологии Intel требуют, чтобы каждый диапазон скоростей ОЗУ имел собственный интерфейс, что приводит к более сложной компоновке материнской платы, но с меньшим количеством узких мест. HTX 3.1 со скоростью 26 ГБ / с может служить единой шиной для целых четырех модулей памяти DDR4, работающих на самых быстрых из предложенных скоростей. Помимо этого, для оперативной памяти DDR4 может потребоваться две или более шины HTX 3.1, что снижает ее ценность в качестве унифицированного транспорта.
СОДЕРЖАНИЕ
Обзор
Ссылки и ставки
HyperTransport выпускается в четырех версиях: 1.x, 2.0, 3.0 и 3.1, которые работают от 200 МГц до 3,2 ГГц. Это также соединение DDR или « двойной скорости передачи данных », что означает, что оно отправляет данные как по переднему, так и по заднему фронту тактового сигнала . Это обеспечивает максимальную скорость передачи данных 6400 МТ / с при работе на частоте 3,2 ГГц. В современных вычислениях рабочая частота автоматически согласовывается с набором микросхем материнской платы (северный мост).
HyperTransport поддерживает автосогласование ширины битов от 2 до 32 бит на ссылку; на каждую шину HyperTransport приходится два однонаправленных канала. С появлением версии 3.1, использующей полные 32-битные каналы и полную рабочую частоту спецификации HyperTransport 3.1, теоретическая скорость передачи данных составляет 25,6 ГБ / с (3,2 ГГц × 2 передачи за тактовый цикл × 32 бита на канал) в каждом направлении, или 51,2 ГБ / с совокупная пропускная способность, что делает его быстрее, чем большинство существующих стандартов шины для рабочих станций и серверов ПК, а также делает его быстрее, чем большинство стандартов шины для высокопроизводительных вычислений и сетей.
В электрическом отношении HyperTransport похож на низковольтную дифференциальную сигнализацию (LVDS), работающую при напряжении 1,2 В. В HyperTransport 2.0 добавлена функция понижения усиления посткурсорного передатчика . В HyperTransport 3.0 добавлены скремблирование и фазовая синхронизация приемника, а также опциональная функция уменьшения усиления предшественника передатчика.
Пакетно-ориентированный
HyperTransport основан на пакетах , где каждый пакет состоит из набора 32-битных слов, независимо от физической ширины канала. Первое слово в пакете всегда содержит командное поле. Многие пакеты содержат 40-битный адрес. Если требуется 64-битная адресация, добавляется дополнительный 32-битный пакет управления. Полезные данные отправляются после пакета управления. Передачи всегда дополняются до кратного 32 битам, независимо от их фактической длины.
Управляемый мощностью
HyperTransport также упрощает управление питанием, поскольку он соответствует спецификации Advanced Configuration and Power Interface . Это означает, что изменения в состояниях сна процессора (состояния C) могут сигнализировать об изменениях состояний устройства (состояния D), например, об отключении питания дисков, когда ЦП переходит в режим сна. В HyperTransport 3.0 добавлены дополнительные возможности, позволяющие контроллеру централизованного управления питанием реализовывать политики управления питанием.
Приложения
Замена передней шины
Основное использование HyperTransport заключается в замене определенной Intel интерфейсной шины , которая отличается для каждого типа процессора Intel. Например, Pentium нельзя подключить к шине PCI Express напрямую, но сначала необходимо пройти через адаптер для расширения системы. Собственная передняя шина должна подключаться через адаптеры для различных стандартных шин, таких как AGP или PCI Express. Обычно они включены в соответствующие функции контроллера, а именно в северный и южный мосты .
Напротив, HyperTransport - это открытая спецификация, опубликованная консорциумом, состоящим из нескольких компаний. Один чип адаптера HyperTransport будет работать с широким спектром микропроцессоров с поддержкой HyperTransport.
AMD использовала HyperTransport для замены фронтальной шины в своих микропроцессорах семейств Opteron , Athlon 64 , Athlon II , Sempron 64 , Turion 64 , Phenom , Phenom II и FX .
Многопроцессорное соединение
Еще одно применение HyperTransport - это соединение для многопроцессорных компьютеров NUMA . AMD использует HyperTransport с проприетарным расширением когерентности кэша как часть своей архитектуры Direct Connect в линейке процессоров Opteron и Athlon 64 FX ( архитектура Dual Socket Direct Connect (DSDC) ). Межсоединения ХОРУСА от Newisys расширяет эту концепцию на более крупные кластеры. Устройство Aqua от 3Leaf Systems виртуализирует и соединяет ЦП, память и ввод-вывод.
Замена маршрутизатора или коммутатора шины
HyperTransport также можно использовать в качестве шины в маршрутизаторах и коммутаторах . Маршрутизаторы и коммутаторы имеют несколько сетевых интерфейсов и должны передавать данные между этими портами как можно быстрее. Например, для четырехпортового маршрутизатора Ethernet 1000 Мбит / с требуется максимальная внутренняя пропускная способность 8000 Мбит / с (1000 Мбит / с × 4 порта × 2 направления) - HyperTransport значительно превышает полосу пропускания, требуемую для этого приложения. Однако для маршрутизатора 10 Гбит / с с 4 + 1 портами потребуется внутренняя пропускная способность 100 Гбит / с. Добавьте к этому антенны 802.11ac 8, и стандарт WiGig 60 ГГц (802.11ad), и HyperTransport станет более осуществимым (от 20 до 24 полос, используемых для необходимой полосы пропускания).
Соединение сопроцессора
Проблема задержки и пропускной способности между процессорами и сопроцессорами обычно была основным камнем преткновения на пути их практической реализации. Появились сопроцессоры, такие как FPGA , которые могут получить доступ к шине HyperTransport и интегрироваться в материнскую плату. ПЛИС текущего поколения от обоих основных производителей ( Altera и Xilinx ) напрямую поддерживают интерфейс HyperTransport и имеют в наличии IP-ядра . Такие компании, как XtremeData, Inc. и DRC, берут эти ПЛИС (Xilinx в случае DRC) и создают модуль, который позволяет ПЛИС подключаться непосредственно к сокету Opteron.
21 сентября 2006 года AMD начала инициативу под названием Torrenza , направленную на дальнейшее продвижение использования HyperTransport для сменных карт и сопроцессоров . Эта инициатива открыла их "Socket F" для дополнительных плат, таких как XtremeData и DRC.
Разъем для дополнительной карты (HTX и HTX3)
Разъемы сверху вниз: HTX, PCI-Express для райзер-карты, PCI-ExpressКонсорциум HyperTransport выпустил спецификацию разъема, которая позволяет периферийному устройству на базе слотов иметь прямое соединение с микропроцессором с помощью интерфейса HyperTransport. Он известен как H yper T ransport e X pansion ( HTX ). Используя перевернутый экземпляр того же механического разъема, что и 16-полосный слот PCI-Express (плюс разъем x1 для контактов питания), HTX позволяет разрабатывать подключаемые карты, которые поддерживают прямой доступ к ЦП и DMA к системной ОЗУ . Первоначальной картой для этого слота была QLogic InfiniPath InfiniBand HCA. IBM и HP , среди прочих, выпустили системы, совместимые с HTX.
Исходный стандарт HTX ограничен 16 битами и 800 МГц.
В августе 2008 года Консорциум HyperTransport выпустил HTX3, который увеличивает тактовую частоту HTX до 2,6 ГГц (5,2 GT / s, 10,7 GTi, реальная скорость передачи данных 5,2 ГГц, скорость редактирования 3 MT / s) и сохраняет обратную совместимость.
Тестирование
Разъем для тестирования «DUT» предназначен для обеспечения соединения стандартизированной системы функционального тестирования.
Реализации
- AMDAMD64 и Direct Connect Architecture на базе процессоров
- Чипсеты AMD
- AMD-8000 серии
- ATI Radeon Xpress 200 для процессора AMD
- ATI Radeon Xpress 3200 для процессора AMD
- HT-2000
- HT-2100
- nForce Professional MCPs (мультимедийный и коммуникационный процессор)
- nForce 3 серии
- nForce 4 серии
Частотные характеристики
Версия HyperTransportГод Максимум. Частота HT Максимум. ширина ссылки Максимум. совокупная пропускная способность (ГБ / с) двунаправленный 16-битный однонаправленный 32-битный однонаправленный * 1.0 2001 г. 800 МГц 32-битный 12,8 3,2 6.4 1.1 2002 г. 800 МГц 32-битный 12,8 3,2 6.4 2.0 2004 г. 1,4 ГГц 32-битный 22,4 5,6 11.2 3.0 2006 г. 2,6 ГГц 32-битный 41,6 10,4 20,8 3.1 2008 г. 3,2 ГГц 32-битный 51,2 12,8 25,6 * AMD Athlon 64 , Athlon 64 FX, Athlon 64 X2 , Athlon X2, Athlon II , Phenom, Phenom II , Sempron , Turion series и более поздние версии используют одно 16-битное соединение HyperTransport. AMD Athlon 64 FX ( 1207 ), Opteron используют до трех 16-битных каналов HyperTransport. Общие тактовые частоты для этих каналов процессора составляют от 800 МГц до 1 ГГц (старые однопроцессорные системы и системы с несколькими разъемами на каналах 754/939/940) и от 1,6 ГГц до 2,0 ГГц (более новые системы с одним разъемом на каналах AM2 + / AM3 - большинство новых процессоров используют 2.0. ГГц). Хотя сам HyperTransport поддерживает связи с 32-битной шириной, эта ширина в настоящее время не используется никакими процессорами AMD. Однако некоторые наборы микросхем даже не используют 16-битную ширину, используемую процессорами. К ним относятся Nvidia nForce3 150, nForce3 Pro 150 и ULi M1689, которые используют 16-битный нисходящий канал HyperTransport, но ограничивают восходящий канал HyperTransport до 8 бит.
Там были некоторые маркетинга путаница между использованием HT со ссылкой на H Yper T ransport и последующего использования HT ссылаться на Intel «s Hyper-Threading функции на некотором Pentium 4 основанное и новой Nehalem и Westmere на базе Intel Core микропроцессоров . Гиперпоточный официально известно как H yper- Т hreading Т ехнология ( НТТЫ ) или технология HT . Из-за этой возможности путаницы Консорциум HyperTransport всегда использует выписанную форму: «HyperTransport».
Infinity Fabric
Infinity Fabric (IF) - это надмножество HyperTransport, анонсированного AMD в 2016 году в качестве межсоединения для своих графических процессоров и процессоров. Он также может использоваться в качестве межчипового соединения для связи между процессорами и графическими процессорами (для архитектуры гетерогенной системы ), схема, известная как архитектура бесконечности . Компания заявила, что Infinity Fabric будет масштабироваться с 30 ГБ / с до 512 ГБ / с и будет использоваться в процессорах на базе Zen и графических процессорах Vega, которые впоследствии были выпущены в 2017 году.
Среди наиболее динамично развивающихся областей компьютерной техники стоит отметить сферу технологий передачи данных: в отличие от сферы вычислений, где наблюдается продолжительное и устойчивое развитие параллельных архитектур, в «шинной» 1 сфере, как среди внутренних, так и среди периферийных шин, наблюдается тенденция перехода от синхронных параллельных шин к высокочастотным последовательным. (Заметьте, «последовательные» – не обязательно значит «однобитные», здесь возможны и 2, и 8, и 32 бит ширины при сохранении присущей последовательным шинам пакетной передачи данных, то есть в пакете импульсов данные, адрес, CRC и другая служебная информация разделены на логическом уровне 2 ).
1 Компьютерная шина (магистраль передачи данных между отдельными функциональными блоками компьютера) – совокупность сигнальных линий, объединённых по их назначению (данные, адреса, управление), которые имеют определённые электрические характеристики и протоколы передачи информации. Шины отличаются разрядностью, способом передачи сигнала (последовательные или параллельные), пропускной способностью, количеством и типами поддерживаемых устройств, протоколом работы, назначением (внутренняя, интерфейсная).
Шины могут быть синхронными (осуществляющими передачу данных только по тактовым импульсам) и асинхронными (осуществляющими передачу данных в произвольные моменты времени), а также могут использовать мультиплексирование (передачу адреса и данных по одним и тем же линиям) и различные схемы арбитража (то есть способа совместного использования шины несколькими устройствами).
2 Основным отличием параллельных шин от последовательных является сам способ передачи данных. В параллельных шинах понятие «ширина шины» соответствует её разрядности – количеству сигнальных линий, или, другими словами, количеству одновременно передаваемых («выставляемых на шину») битов информации. Сигналом для старта и завершения цикла приёма/передачи данных служит внешний синхросигнал. В последовательных же каналах передачи используется одна сигнальная линия (возможно использование двух отдельных каналов для разделения потоков приёма-передачи). Соответственно, информационные биты здесь передаются последовательно. Данные для передачи через последовательную шину облекаются в пакеты (пакет – единица информации, передаваемая как целое между двумя устройствами), в которые, помимо собственно полезных данных, включается некоторое количество служебной информации: старт-биты, заголовки пакетов, синхросигналы, биты чётности или контрольные суммы, стоп-биты и т. п. Но в свете последних достижений в «железной» сфере компьютерной индустрии малое количество сигнальных линий и логически более сложный механизм передачи данных последовательных шин оборачиваются для них существенным преимуществом – возможностью практически безболезненного наращивания рабочих частот в таких пределах, каких никогда не достичь громоздким параллельным шинам с их высокочастотными проблемами ожидания доставки каждого бита к месту назначения. Проблема в том, что каждая линия такой шины имеет свою длину, свою паразитную ёмкость и индуктивность и, соответственно, своё время прохождения сигнала от источника к приёмнику, который вынужден выжидать дополнительное время для гарантии получения данных по всем линиям. Так, к примеру, каждый байт, передаваемый через линк шины PCIExpress, для увеличения помехозащищённости «раздувается» до 10 бит, что, однако, не мешает шине передавать до 0,25 ГБ за секунду по одной паре проводов. Да, ширина последовательной шины на самом деле является количеством одновременно задействованных отдельных последовательных каналов передачи.
Все эти нововведения и смена приоритетов преследуют в конечном итоге одну цель – повышение суммарного быстродействия системы, ибо не все существующие архитектурные решения способны эффективно масштабироваться. Несоответствие пропускной способности шин потребностям обслуживаемых ими устройств приводит к эффекту «бутылочного горлышка» и препятствует росту быстродействия даже при дальнейшем увеличении производительности вычислительных компонентов – процессора, оперативной памяти, видеосистемы и так далее.
Процессорная шина
Любой процессор архитектуры x86CPU обязательно оснащён процессорной шиной. Эта шина служит каналом связи между процессором и всеми остальными устройствами в компьютере: памятью, видеокартой, жёстким диском и так далее. Так, классическая схема организации внешнего интерфейса процессора (используемая, к примеру, компанией Intel в своих процессорах архитектуры х86) предполагает, что параллельная мультиплексированная процессорная шина, которую принято называть FSB (Front Side Bus), соединяет процессор (иногда два процессора или даже больше) и контроллер, обеспечивающий доступ к оперативной памяти и внешним устройствам. Этот контроллер обычно называют северным мостом , он входит в состав набора системной логики ( чипсета ).
Используемая Intel в настоящее время эволюция FSB – QPB , или Quad-Pumped Bus, способна передавать четыре блока данных за такт и два адреса за такт! То есть за каждый такт синхронизации шины по ней может быть передана команда либо четыре порции данных (напомним, что шина FSB–QPB имеет ширину 64 бит, то есть за такт может быть передано до 4х64=256 бит, или 32 байт данных). Итого, скажем, для частоты FSB, равной 200 МГц, эффективная частота передачи адреса для выборки данных будет эквивалентна 400 МГц (2х200 МГц), а самих данных – 800 МГц (4х200 МГц) 3 .
3 Кстати, именно результирующей «учетверённой» частотой передачи данных (как и в случае с «удвоенной» передачей DDR-шины, где данные передаются дважды за такт) хвастаются производители и продавцы, умалчивая тот факт, что для многочисленных мелких запросов, где данные в большинстве своём умещаются в одну 64-байтную порцию (и, соответственно, не используются возможности DDR или QDR/QPB), на чтение/запись важнее именно частота тактирования.
Различия реализации классической архитектуры и АМD-K8
Различия реализации классической архитектуры и АМD-K8
Ещё одним довольно заметным отличием архитектуры К8 является отказ от асинхронности, то есть обеспечение синхронной работы процессорного ядра, ОЗУ и шины HyperTransport, частоты которых привязаны к «шине» тактового генератора (НТТ), которая в этом случае является опорной. Таким образом, для процессора архитектуры К8 частоты ядра и шины HyperTransport задаются множителями по отношению к НТТ, а частота шины памяти выставляется делителем от частоты ядра процессора 4
4 Пример: для системы на базе процессора Athlon 64-3000+ (1,8 ГГц) с установленной памятью DDR-333 стандартная частота ядра (1,8 ГГц) достигается умножением на 9 частоты НТТ, равной 200 МГц, стандартная частота шины HyperTransport (1 ГГц) – умножением НТТ на 5, а частота шины памяти (166 МГц) – делением частоты ядра на 11.
В классической же схеме с шиной FSB и контроллером памяти, вынесенным в северный мост, возможна (и используется) асинхронность шин FSB и ОЗУ, а опорной частотой для процессора выступает частота тактирования 5 (а не передачи данных) шины FSB, частота же тактирования шины памяти может задаваться отдельно. Из наиболее свежих чипсетов возможностью раздельного задания частот FSB и памяти обладает NVIDIA nForce 680i SLI, что делает его отличным выбором для тонкой настройки системы (разгона).
Читайте также: