Многопроцесорние сервери в новому масштабі

  1. Досягнення в технології розробки процесорів роблять многопроцессорность і кластеризації надзвичайно...
  2. МУР І ІНШІ
  3. RISC-ОВАННИЙ БІЗНЕС
  4. ОДИН В ПОЛІ НЕ ВОЇН
  5. ПІРАН'Я WINDOWS NT
  6. кластеризації
  7. потрібному масштабі

Досягнення в технології розробки процесорів роблять многопроцессорность і кластеризації надзвичайно привабливими стратегіями масштабованості.

МУР І ІНШІ RISC-ОВАННИЙ БІЗНЕС ОДИН В ПОЛІ НЕ ВОЇН ПІРАН'Я WINDOWS NT кластеризації потрібному масштабі

Масштабованість - потенціал для модернізації мережі або обчислювальної платформи на випадок необхідності збільшити робоче навантаження - залежить від двох чинників - обчислювальної потужності і підсистеми вводу / виводу. Функції введення / виведення, як стрічка транспортера, доставляють дані для обробки і забирають її результат. Процесор ж виконує роль робітника. у статті "На шляху до наступного рівня продуктивності" в цьому номері Ларрі Миттаг розглядає питання введення / виведення: як швидко може рухатися стрічка транспортера? Ми ж розглянемо питання обробки: як швидко робітник може виконувати своє завдання сьогодні і наскільки швидше він зможе виконувати її в майбутньому?

МУР І ІНШІ

Для процесорів масштабованість означає дві речі: вони стають швидше і складніше (т. Е. Щільність транзисторів на одиницю поверхні зростає). Останні 20 років або близько того складність мікропроцесорів подвоювалася кожні півтора-два роки. (Ця закономірність була названа законом Мура, так як вона була вперше озвучена колишнім главою Intel Гордоном Муром.) Збільшення числа транзисторів в мікросхемі дозволяє створити більш потужний процесор, підняти пропускну здатність, мати файли більшого розміру і розширити адресується пам'ять. Підвищення ємності пам'яті має найважливіше значення. Для процесора з 32-розрядної адресної шиною, наприклад, максимальна ємність пам'яті становить близько 4,3 Гбайт. У разі 64-розрядного процесора теоретичну межу рівний 18 446 744 000 Гбайт, т. Е. В 4,3 млрд разів більше, ніж для 32-розрядного процесора. Повертаючись з небес на землю, ми бачимо, що 64-розрядний процесор Ultra Enterprise 10000 компанії Sun Microsystems підтримує на практиці всього 64 Гбайт пам'яті.

Для операційних систем і додатків, здатних звертатися до більш ніж 2 Гбайт пам'яті і маніпулюють великими обсягами даних, результати виявляються просто вражаючими. Наприклад, коли в кінці 1996 року Oracle представила 64-розрядний рішення, тести показали, що час виконання транзакції сервером бази даних Oracle7 скоротилося в 200 разів на 64-розрядному DEC AlphaServer з 8 Гбайт пам'яті в порівнянні з 32-розрядних AlphaServer з 2 Гбайт пам'яті . (Обидва комп'ютери працювали під управлінням 64-розрядної версії UNIX компанії Digital Equipment.) Наявність додаткової оперативної пам'яті на 64-розрядної машині дозволило завантажити всю базу даних обсягом 6 Гбайт в кеш пам'яті, таким чином звернення проводилося не до диску, а до пам'яті, що займало мікросекунди замість мілісекунд. Звичайно, такий підхід не можна назвати низьковитратних; AlphaServer, конфігурований для роботи з великою базою даних, може варто сотні тисяч або навіть мільйони доларів.

Крім того, функціональність операційних систем і додатків часто відстає від можливостей процесорів: і операційні системи, і додатки необхідно модифікувати, щоб вони могли використовувати переваги більш потужних процесорів. На жаль, програмного забезпечення потрібно чимало часу для адаптації до нових процесорів. Наприклад, перший 32-розрядний процесор Intel, 80386, з'явився в 1985 році, тоді як Novell представила 32-розрядну операційну систему NetWare 3.0 тільки в 1990 році, а Microsoft свою Windows NT 3.1 - в 1993 році.

Ймовірно, такого розриву між NT і 64-розрядними мікросхемами Intel (під кодовою назвою Merced, поява яких очікується в 1999 році) не буде, тому що Microsoft вже протягом декількох років працює над 64-розрядної версії NT. Проте навряд чи хто здивується, якщо надійна 64-розрядної версії NT з'явиться лише пару років після подання Merced, особливо якщо врахувати, що процесор буде мати нову архітектуру, з явним паралельним виконанням інструкцій (Explicitly Parallel Instruction Computing, EPIC). Щоб скористатися перевагами цієї архітектури, компілятор повинен знайти в вихідному коді інструкції, виконувати які можна паралельно, і потім створити машинний код, який використовує цей внутрішній паралелізм. Досить імовірно, що користувачі 64-розрядних операційних систем UNIX компаній Digital Equipment, Hewlett-Packard і Sun стануть першими, хто скористається перевагами Merced.

Досягнення в швидкості не відстають від досягнень в складності, причому перші не передбачають будь-яких змін в операційній системі або програмному забезпеченні. Просто все виконується швидше на більш швидкому процесорі.

Як довго ще розробка процесорів буде йти такими темпами? Ознаки зниження темпів вже проявляються з наближенням галузі до критичної точки, де сучасна технологія виробництва мікросхем досягає своїх меж.

За інших рівних умов, більш швидкі і складні процесори споживають більше енергії і виділяють більше тепла. Виділення тепла робить процесори менш надійними і скорочує термін їх служби. Ця проблема особливо серйозна в разі портативних комп'ютерів, оскільки вони не мають охолоджуючих вентиляторів. Так, всі сучасні портативні комп'ютери мають сенсорну схему, що зупиняє процесор при перегріванні. Енергоспоживання - ще одна серйозна проблема портативних комп'ютерів, в результаті термін служби батарей є одним з визначальних критеріїв при виборі моделі.

Виробники мікросхем вирішують проблему перегріву головним чином за рахунок протруєння більш тонких ліній на платі. Виготовлення мікросхем за допомогою 0,25-мікронного процесу дозволяє зменшити їх фізичний розмір, споживану енергію і тепло, що виділяється в порівнянні з 0,35-мікронним процесом. Крім того, менші процесори і працюють швидше. Нарешті, виробники отримують більше мікросхем з однієї кремнієвої підкладки, а це дозволяє знизити їх ціну. Сьогодні процесори для настільних систем виготовляються за допомогою 0,35-мікронної технології. Однак найбільш компактні процесори, наприклад Pentium MMX на 200 і 233 МГц компанії Intel (під кодовою назвою Tillamook для мобільних комп'ютерів), виробляються на основі 0,25-мікронної технології. Tillamook харчується від джерела напругою 1,8 В, а не 5 В як 486-й процесор і перші Pentium.

Судячи з Таблиці 1, в 2001 році ми будемо мати 0,10-мікронних процес виробництва мікросхем з напругою 1 В-менш. Однак, на думку представника Intel зі зв'язків з громадськістю Говарда Гая, з уживаними матеріалами і процесами напруга ніколи не вдасться зробити меншим 1 В. Більш того, сучасний фотолітографічний процес травлення з використанням ультрафіолетових променів має нижню межу в 0,13 мікрон. З урахуванням того, що 0,18-мікрона мікросхема Merced з'явиться в 1999 році, ми можемо зробити висновок, що мікропроцесорна галузь наткнеться на непереборну перешкоду з боку як напруги, так і розміру. Однак в Сполучених Штатах дослідження з розробки технології, здатної подолати ці обмеження, ведуться відразу в трьох напрямках, але поки ще рано говорити про те, яке з них здатне досягти поставленої мети.

ТАБЛИЦЯ 1 - ПОПУЛЯРНІ МІКРОПРОЦЕСОРИ Процесор Розрядність шини даних Процес травлення (в мікронах) Тактова частота (МГц) Кількість транзисторів (млн) Напруга Дата випуску Intel Merced 64 0,18 немає відомостей> 10 немає відомостей тисяча дев'ятсот дев'яносто дев'ять DEC Alpha 21264 64 0,35 500, 600 15,2 2 1998 Intel Deschutes 32 0,25 300, 333, 450 7,5 немає відомостей 1998 Intel Tillamook 64 0,25 200, 233 4,5 1,8 1997 Intel Pentium II 32 0,35 233, 266, 300 7,5 3,3 1 997 Intel Pentium Pro 32 0,35 200 5,5 3,3 1995 Intel Pentium 32 0,35 60, 66 3,1 5 1993 AMD K6 32 0,25 300 8,8 3,3 1997 Cyrix (National Semiconductor) 6x86MX 32 0,25 180, 200, 225 немає відомостей 3,3 1997 Intel 80486 DX2 32 0,8 66 1,2 5 1989

RISC-ОВАННИЙ БІЗНЕС

Іншу стратегію масштабування - Reduced Instruction Set Computing (RISC) - сповідують такі виробники, як DEC, HP, IBM, MIPS (підрозділ Silicon Graphics) і Sun. Використання меншого числа простих інструкцій веде до скорочення кількості транзисторів на мікросхемі. Внаслідок того, що і складність і висока тактова частота ведуть до збільшення виділення тепла, проста архітектура RISC дозволяє підняти тактову частоту, не перевищуючи допустимі межі тепловиділення.

Який процесор більш ефективний, залежить від характеру програми. Більш складний процесор працює краще з програмою, що використовує безпосередньо його більш складні і численні інструкції. Програми, які не використовують ці інструкції, виявляються ефективнішими на більш швидкому і простому процесорі. Навіть при однаковій тактовій частоті процесори RISC виконують зазвичай обчислення з плаваючою комою на 20% швидше, ніж процесори CISC (Complex Instruction Set Computing). Сьогодні найбільш швидкими і потужними є мікропроцесори RISC, такі як Alpha компанії DEC і PA-8000 компанії Hewlett-Packard.

Системи на базі RISC зазвичай дорожче, головним чином внаслідок менших обсягів їх виробництва. Крім того, розробники програмного забезпечення змушені створювати спеціальні версії своїх програм для різних різновидів UNIX, які виробники процесорів RISC підтримують. Ця вимога збільшує вартість і веде до скорочення числа доступних додатків для кожної платформи. (Процесор Alpha компанії DEC здатний виконувати NT і стандартні програми для NT, але тим не менше Alpha не належить до числа популярних платформ для NT.)

( 1x1 ) Малюнок 1.
Продуктивність восьмипроцесорних SMP-серверів на базі Windows NT значно покращилася з 1997 року. Microsoft Cluster Server (MCS) на базі технології Wolfpack не має ще помітного переваги в продуктивності над однією машиною. Таким чином, кластеризація використовується поки в якості отказоустойчивого рішення.

В даний час ринкової нішею RISC є інженерні додатки, такі як обробка зображень, САПР і тривимірне моделювання, так як вони надзвичайно чутливі до швидкості обчислень з плаваючою точкою. Однак багато бізнес-додатки типу текстових процесорів і електронних таблиць мало чутливі до швидкості обчислень з плаваючою точкою; все, що їм необхідно, - швидке виконання цілочисельних операцій, а в цій області сучасні процесори Pentium можуть посперечатися з процесорами RISC. З огляду на низьку вартість Pentium, вони є безсумнівними переможцями на ринку бізнес-додатків. З тієї ж причини вони надзвичайно популярні як процесори для комп'ютерів з масовою паралельною обробкою (Massively Parallel Processing, MPP) з сотнями і тисячами процесорів.

Сьогодні з точки зору масштабованості протиставлення "RISC або CISC" втратило свою гостроту. Технічно дві архітектури не настільки далеко відстоять один від одного, як раніше. Нові процесори CISC дуже швидкі і ефективні, а сучасні процесори RISC складніше своїх попередників. В останні кілька років ворогуючі табори стали подавати ознаки примирення. Наприклад, Data General представила свій Aviion AV 4900 на базі Pentium в кінці 1996 року. Раніше все системи Data General були побудовані на базі процесорів Motorola. Аналогічно ProServa SH, також представлений в кінці 1996 року, став першою машиною NEC Technologies на базі Pentium. Раніше NEC використовувала тільки процесори MIPS.

У 1997 році і DEC, і Hewlett-Packard стали тісніше співпрацювати з Intel. HP допомогла Intel розробити набір інструкцій IA-64, причому, згідно із заявами, він забезпечує аналогічну RISC продуктивність і можливість виконувати програми на базі стандартного набору інструкцій Intel. Merced першим з процесорів Intel стане підтримувати IA-64. DEC збирається також розробити процесори, що підтримують IA-64, а виробляти їх стане Intel.

ОДИН В ПОЛІ НЕ ВОЇН

В опублікованій в 1997 році статті в Economist автор процитував слова Гордона Мура про те, що в 1998 році виробничі потужності Intel перевищать рубіж в 3 млрд доларів. Цi данi вiдображають, той факт, що помітних досягнень в масштабованості на рівні одного процесора можна домогтися тільки за рахунок значних вкладень в технологію виробництва. Такі витрати позначаються на вартості новітніх процесорів. Однак підвищити масштабованість можна і простішими і дешевшими засобами, наприклад за допомогою багатопроцесорної обробки, при якій два або більше ЦПУ працюють разом на одній машині. Це дозволяє домогтися гарної масштабованості без зміни базової технології виробництва.

Найбільш поширені дві багатопроцесорні технології: симетрична і паралельна обробка. Неуніфікований доступ до пам'яті (Nonuniform Memory Access, NMA) є новітньою різновидом SMP.

SMP використовується головним чином при роботі з великими базами даних, хоча в останні роки вона стала застосовуватися для складів даних і систем підтримки прийняття рішень. Зі свого боку MPP застосовується майже виключно в наукових і інженерних додатках для складних програм з великим об'ємом обчислень, наприклад для моделювання погоди на земній кулі або взаємодії субатомарних частинок.

З точки зору масштабованості основна відмінність між SMP і MPP в тому, яким чином окремі процесори управляють пам'яттю. У разі SMP все процесори спільно використовують одну загальну шину пам'яті. Конкуренція за шину знижує ефективність архітектури із загальною пам'яттю при збільшенні числа процесорів. Наявність окремого високошвидкісного кеша пам'яті для кожного процесора, як це передбачено в SMP-машинах старшого класу, пом'якшує, але не усуває цю проблему. Через такого обмеження багато конфігурації SMP складаються максимум з 2, 4 або 8 процесорів. Підтримка більше 8 процесорів передбачає всякі новації в апаратній архітектурі, і лише рідкісні SMP-машини підтримують понад 32 процесорів. Безсумнівним плюсом такого підходу є те, що SMP-комп'ютер виглядає для додатка як звичайна однопроцесорна машина; це значно спрощує програмування. Зазвичай все, що необхідно, щоб скористатися перевагами багатопроцесорної обробки, - це многопоточная програма і операційна система, здатна розподіляти потоки між процесорами.

У разі MPP кожен процесор має власну пам'ять і шину пам'яті. Перевагою такої конфігурації є те, що конкуренція за шину відсутня, а число процесорів може досягати сотень і тисяч. (Як правило, рішення вважається "масово-паралельним", тільки коли число процесорів перевищує 64.) На жаль, кожен процесор повинен мати також власний сегмент коду для виконання: система не виглядає як однопроцесорна для додатка. У минулому вченим і інженерам доводилося спеціально писати програми під конкретну архітектуру MPP, з якої вони працювали. В наші дні поява стандарту на інтерфейс передачі повідомлень спрощує для програмістів завдання написання переноситься коду для різних систем.

Технологія MPP розвивалася головним чином за рахунок її застосування в фінансованих урядом проектах, і

з припиненням холодної війни для неї наступили важкі часи. Деякі з найбільших і найбільш успішних виробників систем MPP, наприклад Cray Research і Convex Computer, були придбані виробниками робочих станцій / серверів. Проте їх MPP-комп'ютери не припинили свого існування. Наприклад, Exemplar SPP2000 є сучасною інкарнацією Convex. Cray, куплена Silicon Graphics, продовжує виробляти MPP-комп'ютери під маркою Cray. Іншим надзвичайно потужним MPP-комп'ютером є Intel Paragon.

NUMA можна розглядати як проміжний етап між SMP і MPP. Вона визначає архітектуру для взаємодії декількох "вузлів" SMP. Вузлом може бути комп'ютер в кластері, хоча сьогодні найчастіше мають на увазі групу процесорів в комп'ютері. Кожен вузол має своєї власної виділеної фізичною пам'яттю, що усуває конкуренцію за ресурси. Вузли зв'язані за допомогою координатного комутатора таким чином, що всі вони можуть звертатися до одного й того ж віртуального простору пам'яті. Всі вузли разом виглядають для додатка як одна SMP-машина.

ПІРАН'Я WINDOWS NT

Як і в разі однопроцесорних комп'ютерів, операційна система є стрижнем для багатопроцесорної масштабованості. Сьогодні і MPP, і NUMA - технології виключно для UNIX. Це означає, що UNIX продовжує домінувати в системах старшого класу. Наприклад, сервери Aviion AV компанії Data General і NUMA-Q 2000 компаній Sequent - обидві моделі з'явилися в 1997 році - є 32-процесорні системи. Швидше за все, UNIX буде продовжувати домінувати в системах SMP з числом процесорів більше 8 частково внаслідок того, що NT 4.0 Enterprise Edition ліцензується для підтримки восьми процесорів. Поки Microsoft не зробила ніяких заяв щодо ліцензування NT 5 для комп'ютерів, що мають більше 8 процесорів.

Випущена в 1996 році, NT 3.51 підтримувала чотирипроцесорні SMP-машини, і ціле безліч таких комп'ютерів для NT на базі Pentium Pro з'явилося в тому ж році, зокрема Revolution Quad6 200/512 від Advanced Logic Research, Affinity XEPro від Austin Computer Systems, ProLiant 500 6/200 від Compaq, Prioris ZX 6200MP / 4 від DEC, ProServa SH від NEC і Aquanta QS / 6 від Unisys.

Кроме того, в 1996 году Intel Почаїв віробляті системну плату Standard High-Volume (SHV) з чотірма Процесори. Плата SHV має чотири процесори Pentium Pro, 4 Гбайт пам'яті, дві рівноправні підсистеми вводу / виводу на базі PCI і комплект мікросхем. Останній являє собою набір великомасштабних інтеграційних схем, що виконують кілька життєво важливих функцій, наприклад контролера пам'яті, контролера диска, моста PCI, тактового генератора реального часу, контролера безпосереднього доступу до пам'яті, контролера клавіатури, контролера маніпулятора миша і контролера вторинного кеша. Системна плата SHV укупі з многопроцессорной специфікацією Intel становить апаратний стандарт на чотирипроцесорні SMP-машини на базі процесорів Intel. Такі комп'ютери почали з'являтися в середині 1996 року, серед них Aviion AV 4900 від Data General і NetServer LX Pro від Hewlett-Packard, причому обидві моделі розраховані на операційну систему NT.

У 1996 році деякі виробники спробували подолати покладений NT межа в чотири процесори. Однак, згідно з з'явився в кінці 1996 року звіту Aberdeen Group, восьмипроцесорних системи NT були здатні виконувати лише 7200 транзакцій в хвилину (TPM), а дана цифра лише на 7% вище, ніж 6750 TPM для 4-процесорної системи. (Ці значення отримані в результаті виконання контрольних тестів TPC-C організації Transaction Processing Counsil.) Подібний виграш навряд чи міг виправдати придбання восьмипроцессорной системи на базі NT. Тим часом чотирипроцесорні системи більш ніж удвічі перевершували по продуктивності однопроцесорні системи.

Однак в 1997 році виробники обладнання знайшли способи підвищити ефективність використання декількох плат SHV в одному корпусі. Наприклад, компанія Corollary оголосила, що вона розробляє технологію Profusion для реалізації восьмипроцессорной обробки за допомогою плати SHV і мікросхеми Deschutes компанії Intel. Intel з ентузіазмом поставилася до цих планів і придбала Corollary в 1997 р Compaq, Data General, Hitachi, NCR, Samsung і Unisys оголосили, що вони збираються придбати ліцензію на Profusion.

Інша технологія з використанням декількох плат SHV, OctaScale, була розроблена NCR і реалізована в восьмипроцесорних WorldMark 4380 тій же компанії в 1997 році; NCR пропонує ліцензії на OctaScale.

У найгіршому разі 1997 року було ознаменовано появою декількох інших платформ SMP для NT на базі Pentium Pro: Unisys випустила свій 10-процесорний Aquanta XR / 6, а Axil Computer - монтується в стійку восьмипроцесорний SMP-сервер Northbridge NX803. HP оголосила про восьмипроцесорних NetServer на базі системної плати NX801 компанії Axil. На час написання статті Axil збиралася випустити NX801 в березні 1998 року.

Якщо у вас склалося враження, що зграя піраній NT підбирається до самого серця ринку SMP, то ви не самотні в своїй думці.

Звичайно, масштабованість - це не тільки збільшення числа процесорів. Це перш за все здатність змусити процесори виконувати корисну роботу, а не витрачати свою міць виключно на координацію спільних обчислень. Виробники стверджують, що ситуація знаходиться у них під контролем. Hewlett-Packard, наприклад, заявляє, що восьмипроцесорний NetServer має на 75-96% більшу продуктивність, ніж чотирипроцесорний NetServer - таким чином, масштабованість наближається до лінійної. За твердженням Data General, її восьмипроцесорний AV-8600 має в 1,6 рази кращу продуктивність, ніж чотирипроцесорний AV-8600 при виконанні NT 4.0 і Oracle8.

Ці показники аналогічні повідомленими раніше для менших конфігурацій. Наприклад, доповіді Transaction Processing Counsil (TSP) почала 1997 року повідомляють, що чотирипроцесорний NetServer має на 88% кращу продуктивність, ніж його двохпроцесорний аналог (7351 TPM в порівнянні з 3904 TPM). Аналогічно TPC повідомляє про 75-відсоткове перевагу в продуктивності двопроцесорного сервера Compaq ProLiant 5500 над однопроцесорним аналогом (6856 порівняно з 3898 TPM). Чотирипроцесорний ProLiant 7000 показав 11056 TPM, т. Е. Він був на 61% більш продуктивним, ніж двохпроцесорний 5500.

Многопроцессорная симетрична обробка має важливе значення для NT Server, особливо коли платформа служить в якості сервера додатків. Тим часом Microsoft спробувала навісити на NetWare компанії Novell ярлик сервера файлів і друку, якому масштабування введення / виводу необхідно більш, ніж збільшення його обчислювальної потужності. (Сервери файлів / друку служать головним чином для забезпечення доступу до файлів на диску і перекачування даних по мережі клієнтові або принтеру - обидва завдання припускають інтенсивну завантаження системи введення / виводу.) Однак Novell швидкими темпами перетворює NetWare і IntranetWare в високопродуктивну платформу сервера додатків на Java з підтримкою Novell Directory Services (NDS). Розвиваючи цю стратегію, Novonyx (спільне підприємство Novell і Netscape) повідомляє про поставку Web-сервера Enterpise Server компанії Netscape в пакеті з NetWare.

З огляду на роль NetWare як корпоративного сервера Java, Web і каталогів, немає нічого дивного в тому, що Novell готує гігантський стрибок до многопроцессорной обробці в NetWare. NetWare 5.0 (кодова назва Moab), очікувана в середині 1998 року, буде підтримувати до 32 процесорів. NetWare 4.1 підтримує 4-процессорную SMP і модифікується для підтримки до 12-процесорної SMP. Взагалі кажучи, NetWare 4.1 SMP - це OEM-продукт, що реалізується виробниками серверів, так як він повинен бути адаптований до конкретної машини.

кластеризації

Багатопроцесорний комп'ютер виконує лише одну копію операційної системи. Якщо виконуються кілька копій ОС, але процесори інтегровані таким чином, що, з точки зору адміністратора, користувача або додатки, вони виглядають як одна система, то ми маємо справу з кластеризацией.

Незважаючи на те що Sun оголосила про 64-процесорної SMP-машині (Starfire Ultra Enterpise 10000), розробка і створення SMP-машин з 32 або 64 процесорами представляє серйозні труднощі і пов'язана зі значними витратами, тому з позиції співвідношення ціна / продуктивність найбільш ефективні SMP -системи, число процесорів в яких не перевищує 16. Однак навіть для NUMA верхня межа становить в даний час 32 процесора.

MPP є одним з варіантів, але навряд чи ви станете до неї вдаватися без особливої ​​необхідності, особливо якщо врахувати ціну в десятки, а то і сотні мільйонів доларів. Іншу альтернативу представляє кластеризація. Вона служить для об'єднання високопродуктивних систем, причому кластери обходяться набагато дешевше, ніж MPP-комп'ютери. Наприклад, 64-процесорний кластер буде коштувати 8 млн доларів, а 96-процесорний - від 9 до 12 млн доларів (див. Таблицю 2, де перераховані деякі тестовані конфігурації TPC).

ТАБЛИЦЯ 2 - масштабується СТАРШОГО КЛАСУ Компанія Система Спосіб масштабування Загальна вартість системи (млн доларів) Процесорів на систему Систем в кластері Загальна кількість процесорів Процесор Операційна система Digital AlphaServer 8400 Кластеризация * 9,2 8 4 32 DECchip 21164 350 MГц Digital Unix HP 9000 Кластеризация * 8 4 16 64 PA-RISC 180 MГц HP-UX NCR WorldMark Server Кластеризація * 11,7 4 24 96 Pentium Pro 200 МГц Unix SVR4 Pyramid Reliant TM1000 Кластеризация * 9,6 6 16 96 MIPS 250 МГц Reliant Unix Sequent NUMA-Q 2000 NUMA 5,7 32 немає відомостей 32 Pentium Pro 180 МГц DYNIX / ptx Sun Starfire Ultra Enterprise 1000 SMP 5 64 немає відомостей 64 UltraSPARC Solaris Системи пройшли Еталон е тести Transaction Processing Counsil (TPC).
* Кластерні SMP-системи

Як видно з Таблиці 2, UNIX поки задає тон на ринку кластерних систем старшого класу, причому перевагою користуються процесори RISC. Системи цього класу досить зрілі і пройшли повноцінне тестування, і вони виглядають як одна система для додатків, адміністраторів і користувачів.

Ринок кластерних систем молодшого класу на базі Windows NT поступово починає розвиватися, причому саме його поява пов'язана з виходом Microsoft Cluster Server в складі NT 4.0 Enterprise Edition. Однак поки MCS підтримує тільки два комп'ютери в кластері. Більш того, якщо користувачі і адміністратори бачать кластер як єдину систему, то до додатків це не відноситься. Нарешті, MCS не провадить перерозподілу навантаження, т. Е. Виділення ресурсів під завдання в залежності від їх наявності. (Додаткову інформацію про кластерні рішеннях молодшого класу дивись в статті М. Гурвіца "Управління отказоустойчивостью" в лютневому номері LAN за цей рік.)

Microsoft пообіцяла представити MCS з підтримкою восьми вузлів в кластері. Зі свого боку Novell оголосила про підтримку кластера з 16 вузлами в NetWare 5. Обидва виробники заявляють, що їх кластерні рішення здійснюватимуть розподіл навантаження і виглядати для додатків як одна система.

У міру того як операційні системи і додатки стануть реалізовувати потенціал масштабованості кластерів, технологія кластеризації стане, без сумніву, основним способом економічного масштабування NT і NetWare за межі SMP. В даний час кластеризация NT є ​​скоріше відмовостійкої технологією, ніж масштабується рішенням, в той час як кластеризація NetWare - поки що тільки обіцянки.

потрібному масштабі

Стратегії масштабованості стають доступнішими з фінансової точки зору з переходом від UNIX і RISC до середах на базі NetWare, Windows і Intel. Сьогодні кластеризація, нові багатопроцесорні технології і більш потужні процесори дають користувачам більше варіантів вибору, ніж будь-коли раніше, для побудови серверних платформ, здатних підтримувати ресурсомісткі програми і зростаючі мережі.

Майк Гурвіц - автор і консультант. З ним можна зв'язатися за адресою: [email protected] .Ми ж розглянемо питання обробки: як швидко робітник може виконувати своє завдання сьогодні і наскільки швидше він зможе виконувати її в майбутньому?
Як довго ще розробка процесорів буде йти такими темпами?