Більше

Стиснення декількох статичних шарів в один шар для швидшого завантаження веб-карти?

Стиснення декількох статичних шарів в один шар для швидшого завантаження веб-карти?


У нашому веб-додатку є багато шарів для завантаження, це призводить до завантаження карти дуже повільно.

Я шукаю спосіб стиснення декількох статичних шарів в один шар, щоб зробити завантаження швидшим.

Усі шари з корпоративної бази геоданих (версія 10).

Чи можна стискати шари?


Рекомендую переглянути сторінку довідки під назвою Керування продуктивністю картографічних служб ArcGIS.

Зокрема, я думаю, вам слід поглянути на крапку на цій сторінці нижче:

  • Попередньо обчислюйте інформацію, коли ви можете це зробити. Наприклад, ви можете попередньо обчислити карти, які постачаються з ArcGIS для сервера, і використовувати кешовані служби карт або шари базової карти.

Те, що ви описуєте, звучить як шар Basemap.


Шари плитки

ArcGIS Online включає в себе безліч базових карт, що забезпечують безпосередній географічний контекст для ваших операційних рівнів. Базові карти зберігаються у вигляді плиткових шарів, призначених для швидкого та простого доступу за допомогою веб-карт, веб-програм, ArcGIS та майже будь-якого програмного забезпечення для картографування. Наприклад, ви можете включити базову карту з плитками вулиць у вашому районі, щоб надати візуальне посилання на дорожні знаки у вашому багатофункціональному шарі. Шари плитки також корисні, коли вам потрібно виставити карту чи шар в Інтернеті для візуалізації відносно статичних даних.

Шари плитки бувають різних форматів на основі вихідних даних. Шари плитки можна зберігати як попередньо відтворені растрові плитки або як векторні плитки. Растрові та векторні плитки розроблені для забезпечення високопродуктивної та масштабованої доставки картографічних даних для цілей візуалізації.


Список літератури

Кржич, У., Гюнтер, С., Сондерс, Т.Є., Стрейчан, С.Дж. & amp Hufnagel, L. Нат. Методи 9, 730–733 (2012).

Томер, Р., Хайрі, К., Амат, Ф. і А. Келлер, П. Дж. Нат. Методи 9, 755–763 (2012).

Чень, B.-C. Наука 346, 1257998 (2014).

Bosveld, F. та співавт. Наука 336, 724–727 (2012).

Рейно, E.G., Peychl, J., Huisken, J. & amp Tomancak, P. Нат. Методи 12, 30–34 (2015).

Альбертс, Б. та співавт. Молекулярна біологія клітини (Garland Science, 2014).

Гілберт, С.Ф. Біологія розвитку (Sinauer Associates, 2014).

Амат, Ф. та ін. Нат. Методи 11, 951–958 (2014).

Фоулкс, C.C. та ін. Клітинка 133, 364–374 (2008).

Schmid, B. et al. Нат. Комун. 4, 2207 (2013).

Франкель, Т. Геометрія фізики: вступ (Cambridge Univ. Press, 2004).

Ролланд-Лаган, А.-Г., Бангем, Дж. & amp Coen, E. Природа 422, 161–163 (2003).

Кларк, А. Г., Діркес, К. та А. Палух, Е. К. Біофіза. Дж. 105, 570–580 (2013).

Макдональд, Д.М. & amp Choyke, P.L. Нат. Мед. 9, 713–725 (2003).

Пітрон, П.Г. та ін. Нат. Методи 10, 598–599 (2013).

Зоммер, К., Штріх, К., Коте, У. та Ампрехт, Ф. А. Іластік: набір інструментів для інтерактивного навчання та сегментації. В Proc. 8-й Міжнародний симпозіум IEEE з біомедичних зображень (ISBI 2011) 230–233 (IEEE, 2011).

Маллен, П., Тонг, Ю., Алієз, П. та Десбрун, М. Спектральна конформна параметризація. Обчислення. Графік. Форум 27, 1487–1494 (2008).

Кляйн, С., Старінг, М., Мерфі, К., Віргевер, М.А. & amp Pluim, J.P.W. elastix: набір інструментів для реєстрації медичних зображень на основі інтенсивності. IEEE Trans. Мед. Візуалізація 29, 196–205 (2010).

Mickoleit, M. та співавт. Реконструкція серця, що б'ється, даніо. Нат. Методи 11, 919–922 (2014).


Стиснення декількох статичних шарів в один шар для швидшого завантаження веб-карти? - Геоінформаційні системи

Електронні таблиці, таблиці на веб-сайтах, бази даних - будь-які дані, на основі яких можна підготувати таблицю з даними про розташування, можна використовувати для експортування в BatchGeo. Якщо ви починаєте створювати таблиці з нуля, щоб порадити використовувати наш шаблон таблиць. Підготувавши свої дані, просто скопіюйте їх у BatchGeo, щоб створити карту з маркерами.

2. Проверка та настройки

Ми робимо все можливе, щоб угадати нульовий стіл з геоінформацією, наприклад: адреси, імена міста, район, поштові індексами або широку та довгому. Якщо налаштування сервісу за умовою вас не вживають, ви можете призначити власні налаштування.

3. Перенос об’єктів на карті

Ми виконуємо геокодирування поштових індексів / адресів та створюємо вашу карту. У залежності від кількості адресів у процесі таблиці процес може зайняти кілька хвилин, якщо ви не вказали широку та довготу, ця карта буде створена практично невірно. Закончив картографування, ви можете зберегти карту на веб-сторінці, натиснувши кнопку «Сохранить и продолжить».


Водоносні горизонти та підземні води

Величезна кількість води існує в землі під вашими ногами, і люди у всьому світі нею користуються. Але його можна знайти у корисних кількостях лише в певних місцях під землею - водоносних шарах. Прочитайте далі, щоб зрозуміти поняття водоносних горизонтів і те, як вода існує в землі.

Підземні води та водоносні горизонти

Яма, викопана на пляжі, ілюструє концепцію того, як земля, якщо вона досить проникна, може утримувати воду. Верхня поверхня цієї зони насичення називається підводним шаром.

Кредит: Говард Перлман, USGS

Підземні води є одним з наших найцінніших ресурсів - хоча ви, мабуть, ніколи цього не бачите і навіть не усвідомлюєте, що він є.

Ви коли-небудь викопували яму на пляжі і спостерігали, як вона частково заповнюється водою з підстилаючого піску? Це чудовий спосіб проілюструвати концепцію того, як земля, якщо вона досить проникна, може утримувати воду, але при цьому залишається твердою. Верхня поверхня цієї заповненої водою ділянки, або «зона насичення», називається підводним шаром. Насичена зона під водним шаром називається водоносним шаром, а водоносні шари - це величезні сховища води. У нашому прикладі ями з піском ви по суті викопали "криницю", яка викриває поверхню води, з водоносним шаром під нею. На пляжі рівень рівня води завжди на одному рівні з рівнем океану, яка знаходиться трохи нижче поверхні пляжу.

Як ви вже читали, більшість порожніх просторів у скелях під поверхнею води заповнені водою. Ці породи мають різні характеристики пористості та проникності, що означає, що вода не рухається однаково навколо всіх гірських порід під землею.

Коли водоносний камінь легко пропускає воду в колодязі і джерел, він називається водоносним шаром. Колодязі можна просвердлити у водоносні горизонти і відкачати воду. Опади з часом додає води (підзарядка) в пористу породу водоносного шару. Однак швидкість поповнення не однакова для всіх водоносних горизонтів, і це необхідно враховувати при відкачуванні води з колодязя. Надто швидке відкачування води забирає воду у водоносний шар і, зрештою, призводить до того, що свердловина дає все менше води і навіть просушити. Насправді, занадто велика прокачка колодязя може навіть призвести до того, що колодязь вашого сусіда пересохне, якщо ви обоє качаєте з одного водоносного шару.

Візуалізація підземних вод

На діаграмі нижче ви можете побачити, як земля під водним шаром (блакитна зона) насичена водою. У "ненасиченій зоні" над водним шаром (сіра зона) все ще міститься вода (зрештою, коріння рослин мешкають у цій області), але вона не повністю насичена водою. Ви можете побачити це на двох кресленнях внизу схеми, на яких показано крупний план того, як вода зберігається між підземними частинками гірських порід.


2 відповіді 2

Зберігання блоків як позицій та значень насправді дуже неефективне. Навіть без будь-яких накладних витрат, спричинених структурою або об’єктом, який ви використовуєте, вам потрібно зберігати 4 окремі значення в блоці. Мало б сенс застосовувати його лише над методом "зберігання блоків у фіксованих масивах" (той, який ви описали раніше), коли тверда лише чверть блоків, і таким чином ви навіть не приймаєте будь-яких інших методів оптимізації в рахунок.

Octrees насправді чудово підходять для ігор на основі вокселів, оскільки вони спеціалізуються на зберіганні даних із більшими функціями (наприклад, патчі того самого блоку). Щоб проілюструвати це, я використав квадрі (в основному октрі в 2d):

Це мій стартовий набір, що містить 32x32 плитки, що дорівнює 1024 значенням:

Зберігання цього як 1024 окремих значень здається не таким неефективним, але як тільки ви досягнете розмірів карт, подібних до ігор, таких як Terraria, завантаження екранів займе кілька секунд. І якщо ви збільшите його до третього виміру, він почне витрачати весь простір у системі.

Квадрі (або октрі в 3d) можуть допомогти ситуації. Щоб створити одну, ви можете або перейти від плиток, і згрупувати їх разом, або перейти від однієї величезної комірки, і ви розділите її, поки не дійдете до плиток. Я скористаюся першим підходом, тому що це простіше візуалізувати.

Отже, на першій ітерації ви згрупуєте все в клітинки 2х2, а якщо комірка містить лише плитки одного типу, ви скидаєте плитки і просто зберігаєте тип. Після однієї ітерації наша карта буде виглядати так:

Червоними лініями позначено те, що ми зберігаємо. Кожен квадрат - це лише 1 значення. Це зменшило розмір з 1024 значень до 439, що на 57% менше.

Але ви знаєте мантру. Давайте підемо на крок далі і згрупуємо їх у клітинки:

Це зменшило кількість збережених значень до 367. Це лише 36% від початкового розміру.

Вам, очевидно, потрібно робити цей розподіл, поки кожні 4 сусідні комірки (8 сусідніх блоків у 3d) всередині фрагмента не зберігаються всередині однієї комірки, по суті перетворюючи фрагмент в одну велику комірку.

Це також має деякі інші переваги, головним чином, при зіткненні, але ви можете створити для цього окремий документ, який лише піклується про те, чи є один блок твердим чи ні. Таким чином, замість перевірки проти зіткнень для кожного блоку всередині фрагмента, ви можете просто зробити це проти комірок.


& # 8220Чи я це вже знаю? & # 8221 Вікторина

Вікторина & # 8220Чи я це вже знаю? & # 8221 допомагає вам визначити свої сильні та недолікові сторони в темах цієї глави & # 8217s.

Вікторина з восьми питань, яка випливає з основних розділів розділу & # 8220Фундаментальні теми & # 8221, допомагає визначити, як провести обмежений час на навчання.

У таблиці 2-1 викладено основні теми, які обговорювались у цій главі, а також запитання & # 8220Чи я це вже знаю? & # 8221, які відповідають цим темам.

Малюнок 2-1 Ієрархічний дизайн мережі складається з трьох рівнів: ядра, розподілу та доступу

Кожен рівень забезпечує необхідну функціональність мережі корпоративного містечка. Вам не потрібно реалізовувати шари як різні фізичні сутності. Ви можете реалізувати кожен шар в одному або декількох пристроях або як взаємодіючі компоненти інтерфейсу, що мають спільне шасі. Менші мережі можуть & # 8220згорнути & # 8221 кілька шарів на одному пристрої, маючи лише мається на увазі ієрархію. Підтримувати чітке усвідомлення ієрархії корисно в міру зростання мережі.

Основний шар

Основним рівнем є магістраль високошвидкісних комутаційних мереж, яка має вирішальне значення для корпоративних комунікацій. Його також називають хребтом. Основний шар повинен мати такі характеристики:

Низька затримка та хороша керованість

Уникнення інтенсивних процесорних маніпуляцій з пакетами, викликаних безпекою, інспекцією, класифікацією якості обслуговування (QoS) або іншими процесами

Обмежений і постійний діаметр

Коли мережа використовує маршрутизатори, кількість стрибків маршрутизатора від краю до краю називається діаметром. Як уже зазначалося, вважається гарною практикою проектувати послідовний діаметр в межах ієрархічної мережі. Поїздка від будь-якої кінцевої станції до іншої кінцевої станції через магістраль повинна мати однакову кількість стрибків. Відстань від будь-якої кінцевої станції до сервера на магістралі також повинна бути постійною.

Обмеження діаметру мережі та діаметра # 8217s забезпечує передбачувану продуктивність та легкість усунення несправностей. Ви можете додавати маршрутизатори шару розподілу та клієнтські локальні мережі до ієрархічної моделі, не збільшуючи діаметр основного шару & # 8217s. Використання блочної реалізації ізолює існуючі кінцеві станції від більшості наслідків зростання мережі.

Рівень розподілу

Рівень розподілу мережі - це точка ізоляції між мережевим доступом та основним рівнем. Рівень розподілу може мати багато ролей, включаючи реалізацію наступних функцій:

Підключення, засноване на політиці (наприклад, забезпечення того, щоб трафік, надісланий з певної мережі, переадресовувався на один інтерфейс, тоді як весь інший трафік - на інший інтерфейс)

Надмірність і балансування навантаження

Агрегація мережевих шаф

Агрегація з'єднань WAN

Агрегація або узагальнення адрес або районів

Доступ відомства або робочої групи

Визначення домену широкомовного або багатоадресного передавання

Маршрутизація між віртуальними локальними мережами (VLAN)

Переклади медіа (наприклад, між Ethernet та Token Ring)

Перерозподіл між доменами маршрутизації (наприклад, між двома різними протоколами маршрутизації)

Розмежування між статичними та динамічними протоколами маршрутизації

Ви можете використовувати кілька функцій програмного забезпечення Cisco IOS для реалізації політики на рівні розподілу:

Фільтрування за адресою джерела або пункту призначення

Фільтрування на вхідних або вихідних портах

Приховування внутрішніх мережевих номерів шляхом фільтрації маршрутів

Механізми QoS, такі як черги на основі пріоритетів

Рівень розподілу забезпечує агрегування маршрутів, забезпечуючи узагальнення маршруту до основного. У локальних мережах кампусу рівень розподілу забезпечує маршрутизацію між VLAN, які також застосовують політики безпеки та QoS.

Шар доступу

Рівень доступу забезпечує доступ користувачів до локальних сегментів у мережі. Рівень доступу характеризується переключенням сегментів локальної мережі в умовах кампусу. Мікросегментація за допомогою комутаторів локальної мережі забезпечує високу пропускну здатність робочих груп за рахунок зменшення кількості пристроїв на сегментах Ethernet. Функції рівня доступу включають наступне:

Класифікація та маркування QoS та межі довіри

Інспекція протоколу розв’язання адрес (ARP)

Віртуальні списки контролю доступу (VACL)

Живлення через Ethernet (PoE) та допоміжні VLAN для VoIP

Контроль доступу до мережі (NAC)

Ви застосовуєте моделі високої доступності на рівні доступу. Розділ & # 8220Висока доступність мережевих послуг & # 8221 охоплює моделі доступності. Перемикач локальної мережі на рівні доступу може контролювати доступ до порту та обмежувати швидкість відправлення трафіку до порту та з нього. Ви можете реалізувати доступ, визначивши MAC-адресу за допомогою ARP, довіряючи хосту та використовуючи списки доступу.

Інші глави цієї книги охоплюють інші функції у списку.

Для середовищ малого офісу / домашнього офісу (SOHO) вся ієрархія руйнується до інтерфейсів на одному пристрої. Віддалений доступ до центральної корпоративної мережі здійснюється за допомогою традиційних технологій WAN, таких як ISDN, Frame Relay та орендованих ліній.Ви можете реалізувати такі функції, як маршрутизація на замовлення (DDR) та статична маршрутизація для контролю витрат. Віддалений доступ може включати технологію віртуальної приватної мережі (VPN).

Таблиця 2-2 узагальнює ієрархічні рівні.

Малюнок 2-2 Переключений ієрархічний дизайн

На малюнку 2-3 наведені приклади маршрутизованої ієрархічної конструкції. У цій конструкції межа шару 3 зміщується до рівня доступу. Переключення рівня 3 відбувається в рівнях доступу, розподілу та основних рівнях. Фільтрація маршруту налаштована на інтерфейсах у напрямку до рівня доступу. Узагальнення маршрутів налаштовано на інтерфейсах до основного рівня. Перевага цієї конструкції полягає в тому, що балансування навантаження відбувається з рівня доступу, оскільки посилання на комутатори розподілу перенаправляються.

Малюнок 2-3 Маршрутизований ієрархічний дизайн

Іншим рішенням для забезпечення надмірності між перемиканням доступу та розподілу є система віртуальної комутації (VSS). VSS вирішує проблему циклу STP шляхом перетворення пари комутації розподілу в логічний єдиний комутатор. Він видаляє STP і заперечує необхідність використання протоколу маршрутизатора гарячого режиму очікування (HSRP), протоколу резервування віртуального маршрутизатора (VRRP) або протоколу балансування навантаження шлюзу (GLBP).

З VSS фізична топологія змінюється, оскільки кожен комутатор доступу має один висхідний комутатор розподілу на відміну від двох висхідних комутаторів розподілу. VSS налаштовано лише на комутатори Cisco 6500, що використовують VSS Supervisor 720-10G. Як показано на малюнку 2-4, два комутатори з'єднані за допомогою 10GE-каналів, які називаються віртуальними комутаційними посиланнями (VSL), що робить їх єдиними комутаторами. Ключові переваги VSS включають наступне:

Перемикання рівня 3 може використовуватися в напрямку рівня доступу, покращуючи безперервний зв'язок.

Масштабує пропускну здатність системи до 1,44 Тбіт / с.

Спрощене управління єдиною конфігурацією комутатора розподілу VSS.

Краща рентабельність інвестицій (ROI) за рахунок збільшення пропускної здатності між рівнем доступу та рівнем розподілу.

Підтримується на комутаторах Catalyst 4500, 6500 та 6800.

Дизайн Hub-and-Speke

Для проектування мереж конструкція маточини і спиць забезпечує кращий час конвергенції, ніж топологія кільця. Конструкція ступиці та спиці, показана на малюнку 2-5, також краще масштабується та простіша в управлінні, ніж кільцева або сітчаста топологія. Наприклад, реалізація політик безпеки в топології повної сітки стане некерованою, оскільки вам доведеться налаштовувати політики в кожному розташуванні точки.

Малюнок 2-5 Дизайн ступиці та спиці

Згорнутий основний дизайн

Однією з альтернатив тришаровій ієрархії є згорнута конструкція ядра. Це дворівнева ієрархія, яка використовується з меншими мережами. Зазвичай він використовується на ділянках з однією будівлею з кількома поверхами. Як показано на малюнку 2-6, основний і розподільчий рівні об'єднуються, забезпечуючи всі послуги, необхідні для цих рівнів. Параметри проектування, щоб вирішити, чи потрібно переходити до тришарової ієрархії, включають недостатню потужність та пропускну здатність на рівні розподілу, стійкість мережі та географічну дисперсію.

Малюнок 2-6 Згорнута конструкція стрижня

Модель архітектури підприємства Cisco

Модель архітектури Cisco Enterprise спрощує проектування більших, більш масштабованих мереж.

У міру того, як мережі стають все більш досконалими, необхідно використовувати більш модульний підхід до проектування, ніж просто ядро ​​WAN та LAN, рівні розподілу та доступу. Архітектура поділяє мережу на функціональні мережі та модулі. Цими напрямками та модулями архітектури Cisco Enterprise є

Модуль центру обробки даних підприємства

Модуль корпоративного телеробітника

Модель архітектури корпоративної архітектури Cisco підтримує концепцію компонентів розподілу та доступу, що з'єднують користувачів, сервіси глобальної мережі та ферми серверів через високошвидкісну магістраль кампуса. Модульний підхід у проектуванні повинен бути орієнтиром для архітектора мережі. У менших мережах шари можуть згортатися в один шар, навіть на один пристрій, але функції залишаються.

На рис. 2-7 показана модель архітектури Cisco Enterprise. Підприємство на території кампусу містить інфраструктуру кампусу, яка складається з ядра, розподілу будівель та шарів доступу до будівель з модулем центру обробки даних. Область підприємства складається з Інтернету, електронної комерції, VPN та WAN-модулів, які підключають підприємство до послуг постачальника послуг та # 8217s. Область SP надає підприємству Інтернет, телефонну комутаційну мережу загального користування (PSTN) та послуги WAN.

Малюнок 2-7 Модель архітектури Cisco Enterprise

Сервери управління мережею знаходяться в інфраструктурі кампусу, але мають зв'язки з усіма компонентами корпоративної мережі для моніторингу та управління.

Корпоративний край підключається до модуля розподілу крайок в університетському містечку. У малих та середніх місцях розподіл країв може зруйнуватися в компонент магістралі кампуса. Він забезпечує підключення до вихідних служб, які далі описані в наступних розділах.

Модуль Enterprise Campus

Підприємство складається з таких підмодулів:

Побудова комутаторів розподілу та агрегації

На малюнку 2-8 показана модель Enterprise Campus. Інфраструктура кампусу складається з ядра кампусу, розподілу будівель та шарів доступу до будівель. Ядро університетського містечка забезпечує високошвидкісну комутаційну магістраль між будівлями, фермою серверів та у напрямку до підприємства. Цей сегмент складається із резервного та швидкозбіжного зв’язку. Рівень розподілу будівель об'єднує всі комутатори доступу до шафи та виконує контроль доступу, QoS, резервування маршруту та балансування навантаження. Комутатори доступу до будівлі забезпечують доступ до VLAN, PoE для IP-телефонів і бездротових точок доступу, придушення трансляції та дерево охоплення.

Малюнок 2-8 Модель Enterprise Campus

Ферма серверів або центр обробки даних забезпечує високошвидкісний доступ та високу доступність (надмірність) до серверів. Корпоративні сервери, такі як файлові та друкарські сервери, сервери програм, сервери електронної пошти, сервери протоколу динамічного конфігурування хостів (DHCP) та сервери системи доменних імен (DNS) розміщуються у фермі серверів. Сервери Cisco Unified CallManager розміщуються у фермі серверів для мереж IP-телефонії. Сервери мережевого управління розташовані у фермі серверів, але ці сервери пов'язують кожен модуль у кампусі для забезпечення моніторингу мережі, ведення журналів, тенденцій та управління конфігурацією.

Інфраструктура корпоративного містечка може застосовуватися до малих, середніх та великих місць. У більшості випадків великі кампуси мають трирівневу конструкцію з елементом шафи-проводки (рівень доступу до будівлі), розподільчим шаром будівлі та основним шаром кампуса. Невеликі місця в університетському містечку, ймовірно, мають дворівневу конструкцію з елементом шафи для проводки (рівень доступу Ethernet) та магістральним ядром (згорнуте ядро ​​та розподільчі шари). Також можна налаштувати функції розподілу в багатошаровому пристрої доступу до будівлі, щоб зберегти фокус магістралі кампусу на швидкому транспорті. Середні розміри мереж кампуса іноді використовують трирівневу або дворівневу реалізацію, залежно від кількості портів, вимог до послуг, керованості, продуктивності та необхідності.

Enterprise Edge Area

Як показано на малюнку 2-9, регіон підприємства складається з таких підмодулів:

Бізнес веб-додатки та бази даних, мережі електронної комерції та сервери

Інтернет-зв’язок та демілітаризована зона (DMZ)

Підключення до WAN для підприємств

Малюнок 2-9 Модуль Enterprise Edge

Модуль електронної комерції

Підмодуль електронної комерції корпоративного краю забезпечує високодоступні мережі для ділових послуг. Він використовує конструкції високої доступності модуля ферми серверів з підключенням Інтернету до Інтернету. Методи проектування такі ж, як описані для цих модулів. Пристрої, розташовані в підмодулі електронної комерції, включають наступне:

Веб-сервери та додатки: Основний користувальницький інтерфейс для навігації електронною комерцією

Сервери баз даних: Містити інформацію про програму та транзакції

Брандмауер та маршрутизатори брандмауера: Керуйте спілкуванням між користувачами системи

Мережеві системи запобігання вторгненню (IPS): Забезпечити моніторинг ключових сегментів мережі в модулі для виявлення та реагування на атаки на мережу

Багатошаровий комутатор з модулями IPS: Забезпечити транспортний транспорт та інтегрований моніторинг безпеки

Модуль підключення до Інтернету

Інтернет-підмодуль корпоративного краю надає такі послуги, як загальнодоступні сервери, електронна пошта та DNS. Також забезпечується підключення до одного або декількох постачальників послуг Інтернету (ISP). Компоненти цього підмодуля включають наступне:

Брандмауер та маршрутизатори брандмауера: Забезпечте захист ресурсів, фільтрацію трафіку та припинення VPN для віддалених сайтів та користувачів

Інтернет-маршрутизатори: Забезпечте базову фільтрацію та багатошаровий зв’язок

Сервери FTP та HTTP: Забезпечити веб-додатки, які взаємодіють підприємство зі світом через загальнодоступний Інтернет

Сервери ретрансляції SMTP: Діють як ретранслятори між Інтернетом та поштовими серверами інтрамережі

DNS-сервери: Служать авторитетними зовнішніми DNS-серверами для підприємства та передають внутрішні запити в Інтернет

Кілька моделей підключають підприємство до Інтернету. Найпростіша форма - мати єдиний ланцюг між підприємством та ІП, як показано на малюнку 2-10. Недоліком є ​​те, що у вас немає резерву або відмови при відмові схеми.

Малюнок 2-10 Просте підключення до Інтернету

Ви можете використовувати багатогалузеві рішення, щоб забезпечити резервування або перехід на інтерактивну службу. Малюнок 2-11 показує чотири варіанти багатокористувацького Інтернету:

Варіант 1: Один маршрутизатор, подвійні посилання на одного провайдера

Варіант 2: Один маршрутизатор, подвійні посилання на двох провайдерів

Варіант 3: Подвійні маршрутизатори, подвійні посилання на одного провайдера

Варіант 4: Подвійні маршрутизатори, подвійні посилання на двох провайдерів

Малюнок 2-11 Інтернет-параметри багатогалузевого зв'язку

Варіант 1 забезпечує резервування каналу, але не забезпечує резервування Інтернет-провайдера та локального маршрутизатора. Варіант 2 забезпечує надмірність зв'язку та провайдера, але не забезпечує надмірність для відмови локального маршрутизатора. Варіант 3 забезпечує надмірність зв'язку та локального маршрутизатора, але не передбачає відмови провайдера. Варіант 4 передбачає повне резервування локального маршрутизатора, посилань та провайдерів.

VPN / віддалений доступ

Модуль VPN / віддаленого доступу корпоративного краю надає послуги припинення віддаленого доступу, включаючи аутентифікацію для віддалених користувачів та сайтів. Компоненти цього підмодуля включають наступне:

Брандмауери: Забезпечують фільтрацію трафіку, перевіряють автентичність віддалених веб-сайтів та забезпечують підключення за допомогою тунелів IPsec

Концентратори доступу через комутований доступ: Припиніть застарілі комутовані підключення та автентифікуйте окремих користувачів

Адаптивні пристрої безпеки Cisco (ASA): Припиніть тунелі IPsec, автентифікуйте окремих віддалених користувачів та надайте послуги брандмауера та запобігання вторгненню

Прилади мережі запобігання вторгненню (IPS)

Якщо ви використовуєте сервер терміналів з віддаленим доступом, цей модуль підключається до PSTN. Сьогодні мережі # 8217s часто віддають перевагу мережам VPN перед серверами терміналів із віддаленим доступом та виділеними WAN-посиланнями. VPN зменшують комунікаційні витрати, використовуючи інфраструктуру ІП. Для критично важливих додатків економія витрат може бути компенсована зменшенням контролю за підприємством та втратою детермінованого сервісу. Віддалені офіси, мобільні користувачі та домашні офіси отримують доступ до Інтернету за допомогою локального ІП із захищеними тунелями IPsec до підмодуля VPN / віддаленого доступу через підмодуль Інтернет.

На малюнку 2-12 показано дизайн VPN. Філії отримують місцевий доступ до Інтернету від Інтернет-провайдера. Телеробітники також отримують місцевий доступ до Інтернету. Програмне забезпечення VPN створює захищені тунелі VPN на сервері VPN, який знаходиться в підмодулі VPN корпоративного краю.

Малюнок 2-12 Архітектура VPN

Підприємство WAN

Корпоративний край корпоративної глобальної мережі включає доступ до глобальних мереж. Технології WAN включають наступне:

Мультипротокольна комутація етикеток (MPLS)

Синхронна оптична мережа (SONET) та синхронна цифрова ієрархія (SDH)

Цифрова абонентська лінія (DSL)

Розділ 6, & # 8220WAN Technologies and Enterprise Edge, & # 8221 і глава 7, & # 8220WAN Design, & # 8221 висвітлюють ці технології WAN. Маршрутизатори в корпоративній WAN-мережі забезпечують WAN-доступ, QoS, маршрутизацію, резервування та контроль доступу до WAN. З цих технологій WAN MPLS є найпопулярнішою технологією WAN, яка використовується сьогодні. Для мереж MPLS маршрутизатори WAN надають пріоритет IP-пакетам на основі конфігурованих значень коду точки диференційованих служб (DSCP) для використання одного з декількох рівнів QoS MPLS. На рис. 2-13 показано модуль WAN, що підключається до краю Frame Relay SP. Робочі маршрутизатори підприємства в модулі WAN підключаються до комутаторів реле SP & # 8217s Frame Relay.

Малюнок 2-13 Модуль WAN

Використовуйте такі вказівки при розробці корпоративного краю:

Визначте зв’язок, необхідний для підключення корпоративної мережі до Інтернету. Ці з'єднання призначаються модулю підключення до Інтернету.

Створіть модуль електронної комерції для клієнтів та партнерів, яким потрібен доступ до Інтернету для бізнесу та додатків баз даних.

Спроектуйте модуль віддаленого доступу / VPN для доступу VPN до внутрішньої мережі з Інтернету. Впровадити політику безпеки та налаштувати параметри автентифікації та авторизації.

Призначте крайні секції, які мають постійні зв’язки, з віддаленими філіями. Призначте їх WAN, мережі метрополітену (MAN) та модулю VPN.

Модуль краю постачальника послуг

Модуль SP-краю, показаний на малюнку 2-14, складається з таких служб, як:

Малюнок 2-14 WAN / Internet SP edge модуль

Підприємства використовують ІП для придбання мережевих послуг. Інтернет-провайдери пропонують підприємствам доступ до Інтернету. Інтернет-провайдери можуть направляти корпоративні мережі до своєї мережі, а також до вищих та однорангових Інтернет-провайдерів. Інтернет-провайдери можуть надавати послуги Інтернету через доступ Ethernet, DSL або T1 / DS3. Зараз для ПП зазвичай є маршрутизатор ISP на сайті замовника та забезпечує доступ до Ethernet для замовника. Підключення до декількох провайдерів було описано в розділі & # 8220Модуль підключення до Інтернету. & # 8221

Щодо голосових послуг, провайдери PSTN пропонують доступ до глобальної загальнодоступної голосової мережі. Для корпоративної мережі PSTN дозволяє комутованим користувачам отримувати доступ до підприємства за допомогою аналогових або стільникових бездротових технологій. Він також використовується для резервного копіювання глобальної мережі за допомогою служб ISDN.

SP-сервери WAN пропонують MPLS, Frame Relay, ATM та інші послуги WAN для підключення підприємств до сайту з постійними з’єднаннями. Ці та інші технології WAN описані в главі 6.

Віддалені модулі

Віддаленими модулями моделі Cisco Enterprise Architecture є гілка підприємства, корпоративний центр обробки даних та корпоративні модулі телеробітника.

Модуль філії підприємства

Філія підприємства зазвичай складається з віддалених офісів або офісів продажів. Ці філії покладаються на глобальну мережу, щоб користуватися послугами та програмами, що надаються в головному кампусі. Інфраструктура віддаленого сайту, як правило, складається з маршрутизатора WAN та невеликого комутатора локальної мережі, як показано на малюнку 2-15. Як альтернатива MPLS, для підключення до головного кампусу прийнято використовувати технології IPsec VPN від сайту до сайту.

Малюнок 2-15 Модуль філії підприємства

Модуль Центру обробки даних підприємства

Корпоративний центр обробки даних використовує мережу для вдосконалення сервера, серверів зберігання даних та серверів додатків. Зовнішній центр обробки даних надає послуги з ліквідації наслідків катастрофи та продовження бізнесу для підприємства. Високодоступні сервіси глобальної мережі використовуються для підключення корпоративного містечка до віддаленого корпоративного центру обробки даних. Компоненти центру обробки даних включають наступне:

Мережева інфраструктура: Гігабітний та 10-гігабітний Ethernet, InfiniBand, оптичний транспорт та комутація пам’яті

Інтерактивні послуги: Послуги комп’ютерної інфраструктури, послуги зберігання даних, безпека та оптимізація додатків

Управління постійним струмом: Cisco Fabric Manager і Cisco VFrame для управління серверами та послугами

Детальний опис корпоративного центру обробки даних викладено в главі 4 & # 8220Дизайн центру обробки даних & # 8221

Модуль Enterprise Teleworker

Модуль корпоративного телеробітника складається з невеликого офісу або мобільного користувача, якому потрібно отримати доступ до послуг корпоративного містечка. Як показано на малюнку 2-16, мобільні користувачі підключаються додому, у готелях або з інших місць за допомогою комутованої лінії або ліній доступу до Інтернету. Клієнти VPN використовуються, щоб дозволити мобільним користувачам безпечно отримати доступ до корпоративних програм. Рішення Cisco Virtual Office пропонує рішення для співробітників, що управляється централізовано за допомогою невеликих інтегрованих службових маршрутизаторів (ISR) у рішенні VPN. Можливості IP-телефонів також передбачені рішенням Cisco Virtual Office, що забезпечує корпоративні голосові послуги для мобільних користувачів.

Малюнок 2-16 Рішення корпоративного телеробітника

У таблиці 2-3 підсумовано архітектуру Cisco Enterprise.

Малюнок 2-17 HSRP: фантомний маршрутизатор представляє справжні маршрутизатори

На малюнку 2-17 відбувається наступна послідовність:

Робоча станція налаштована на використання фантомного маршрутизатора (192.168.1.1) як маршрутизатора за замовчуванням.

Після завантаження маршрутизатори вибирають маршрутизатор A як активний маршрутизатор HSRP. Активний маршрутизатор виконує роботу для фантома HSRP. Маршрутизатор B - це резервний маршрутизатор HSRP.

Коли робоча станція надсилає фрейм ARP для пошуку маршрутизатора за замовчуванням, маршрутизатор A відповідає фантомним маршрутизатором та MAC-адресою # 8217s.

Якщо маршрутизатор A переходить у автономний режим, маршрутизатор B бере активний маршрутизатор, продовжуючи доставку пакетів робочої станції та # 8217s. Зміна прозора для робочої станції.

VRRP - це протокол резервування маршрутизатора, визначений у RFC 3768. RFC 5768 визначає VRRPv3 як для мереж IPv4, так і IPv6. VRRP базується на HSRP Cisco & # 8217s, але не сумісний. VRRP визначає виборчий протокол, який динамічно призначає відповідальність за віртуальний маршрутизатор одному з маршрутизаторів VRRP у локальній мережі. Маршрутизатор VRRP, що керує IP-адресами, пов’язаними з віртуальним маршрутизатором, називається ведучим, і він пересилає пакети, відправлені на ці IP-адреси. Виборчий процес забезпечує динамічну відмову в експедиторській відповідальності, якщо господар стане недоступним. Це дозволяє будь-яку IP-адресу віртуального маршрутизатора в локальній мережі використовувати як кінцеві хости за замовчуванням маршрутизатор першого стрибка. Резервна копія віртуального маршрутизатора бере на себе відповідальність за пересилання віртуального маршрутизатора, якщо майстер не вдається.

GLBP захищає трафік даних від невдалого маршрутизатора або схеми, такого як HSRP, дозволяючи одночасно розподіляти навантаження пакетів між групою резервних маршрутизаторів. Методи балансування навантаження за допомогою HSRP і VRRP працюють з невеликими мережами, але GLBP дозволяє здійснювати балансування навантаження першого стрибка у великих мережах.

Відмінність GLBP від ​​HSRP полягає в тому, що він забезпечує балансування навантаження між кількома резервними маршрутизаторами та # 8212 до чотирьох шлюзів у групі GLBP. Він балансує навантаження за допомогою однієї віртуальної IP-адреси та декількох віртуальних MAC-адрес. Кожен хост налаштований на одну і ту ж віртуальну IP-адресу, і всі маршрутизатори групи віртуальних маршрутизаторів беруть участь у переадресації пакетів. За замовчуванням усі маршрутизатори в групі автоматично пересилають трафік та баланс навантаження. Учасники GLBP спілкуються між собою за допомогою привітних повідомлень, що надсилаються кожні три секунди на адресу багатоадресної розсилки 224.0.0.102, порт 3222 протоколу User Datagram Protocol (UDP). Переваги GLBP включають наступне:

Розподіл навантаження: GLBP може бути налаштований таким чином, що трафік від клієнтів локальної мережі може бути спільним для кількох маршрутизаторів.

Кілька віртуальних маршрутизаторів: GLBP підтримує до 1024 віртуальних маршрутизаторів (груп GLBP) на кожному фізичному інтерфейсі маршрутизатора.

Попередження: GLBP дозволяє випереджати активний віртуальний шлюз із резервуванням вищого пріоритету.

Аутентифікація: Підтримується проста автентифікація текстового пароля.

Надмірність сервера

Деякі середовища потребують повністю надлишкових (дзеркальних) файлових серверів та серверів програм. Наприклад, у брокерській фірмі, де торговці повинні отримувати доступ до даних для купівлі та продажу акцій, два або більше резервних серверів можуть копіювати дані. Крім того, ви можете розгорнути сервери Cisco Unified Communications Manager (CUCM) у кластерах для надмірності. Сервери повинні бути в різних мережах і використовувати надлишкові джерела живлення. Щоб забезпечити високу доступність модуля ферми серверів, у вас є такі опції:

Одномісний вкладення: Це не рекомендується, оскільки для динамічного пошуку альтернативного маршрутизатора потрібні альтернативні механізми (HSRP, GLBP).

Подвійне кріплення: Це рішення підвищує доступність за рахунок використання надлишкових мережевих карт (NIC).

Набори портів Fast EtherChannel (FEC) та Gigabit EtherChannel (GEC): Це рішення об’єднує 2 або 4 швидкі або гігабітні Ethernet-зв’язки для збільшення пропускної здатності.

Надлишок маршруту

Проектування зайвих маршрутів має дві цілі: збалансування навантажень та підвищення доступності.

Балансування навантаження

Більшість протоколів IP-маршрутизації можуть збалансувати навантаження по паралельних посиланнях, що мають однакову вартість. За допомогою команди maximum-paths можна змінити кількість посилань, за якими маршрутизатор балансуватиме для IP, за замовчуванням - чотири, а максимум - шість. Щоб підтримати балансування навантаження, підтримуйте пропускну здатність узгодженою в межах рівня ієрархічної моделі, щоб усі шляхи мали однакову вартість. (Cisco Enhanced Interior Gateway Routing Protocol [EIGRP] - виняток, оскільки він може збалансувати навантаження на трафіку за кількома маршрутами, що мають різні показники, за допомогою функції, званої дисперсією.)

Протокол маршрутизації на основі стрибків робить балансування навантаження по шляхах з нерівною пропускною здатністю, доки кількість переходів є рівною. Після того, як повільніший канал стає насиченим, втрата пакетів на насиченому каналі перешкоджає повному використанню ліній більш високої пропускної здатності, цей сценарій називається забиттям в отворах. Ви можете уникнути забитостей, спроектувавши та забезпечивши зв’язки з рівною пропускною здатністю в межах одного рівня ієрархії, або використовуючи протокол маршрутизації, який враховує пропускну здатність.

Балансування навантаження IP у маршрутизаторі Cisco залежить від того, який режим комутації використовує маршрутизатор. Обробляйте баланси навантаження на комутацію за пакетом за пакетом. Швидке, автономне, кремнієве, оптимальне, розподілене та перемикання навантажень комутації NetFlow балансує за призначенням, оскільки процесор кешує інформацію, яка використовується для інкапсуляції пакетів на основі пункту призначення для цих типів режимів комутації.

Збільшення доступності

Окрім полегшення балансування навантаження, надлишкові маршрути збільшують доступність мережі.

Ви повинні підтримувати постійну пропускну здатність у межах даного конструктивного компонента, щоб полегшити балансування навантаження. Ще однією причиною збереження постійної пропускної здатності в межах рівня ієрархії є те, що протоколи маршрутизації набагато швидше сходяться на безлічі шляхів рівної вартості до мережі призначення.

Використовуючи надлишкові мережеві конструкції мережі, ви можете мінімізувати ефект відмов у зв'язку. Залежно від часу збіжності протоколів маршрутизації, відмова однієї лінії зв'язку не може мати катастрофічного ефекту.

Ви можете розробити надлишкові мережеві посилання, щоб забезпечити повну сітку або добре зв’язану часткову сітку. У мережі з повною мережею кожен маршрутизатор має посилання на кожен інший маршрутизатор, як показано на малюнку 2-18. Повномережева мережа забезпечує повне резервування, а також забезпечує хорошу продуктивність, оскільки між будь-якими двома сайтами існує лише затримка з одним стрибком. Кількість посилань у повній сітці дорівнює n (n & # 82111) / 2, де n - кількість маршрутизаторів. Кожен маршрутизатор підключений до кожного іншого маршрутизатора. Добре підключена мережа з частковою сіткою забезпечує кожен маршрутизатор посиланнями принаймні на два інших пристрої маршрутизації в мережі.

Малюнок 2-18 Мережа з повною мережею: кожен маршрутизатор має посилання на будь-який інший маршрутизатор у мережі.

Повномережева мережа може бути дорогою для впровадження в глобальну мережу через необхідну кількість посилань. Крім того, групи маршрутизаторів, які транслюють оновлення маршрутизації або рекламу послуг, мають практичні обмеження на масштабування. Зі збільшенням кількості однорангових маршрутизаторів збільшується обсяг пропускної здатності та ресурсів центрального процесора, призначених для обробки трансляцій.

Рекомендована рекомендація полягає в тому, щоб підтримувати трансляцію трафіку на рівні менше 20 відсотків пропускної здатності кожного посилання, що обмежує кількість однорангових маршрутизаторів, які можуть обмінюватися таблицями маршрутизації або рекламними оголошеннями. При проектуванні пропускної здатності ліній зв'язку зарезервуйте 80 відсотків для трафіку даних, голосу та відео, щоб решта могла бути використана для маршрутизації та іншого трафіку лінії зв'язку. Плануючи надмірність, дотримуйтесь вказівок щодо простого ієрархічного проектування. Рисунок 2-19 ілюструє класичний ієрархічний та надлишковий дизайн підприємства, який використовує топологію з частковою сіткою, а не з повною сіткою. Що стосується конструкцій локальної мережі, зв'язки між рівнями доступу та розподілу можуть бути Fast Ethernet, з посиланнями на ядро ​​зі швидкістю Gigabit Ethernet.

Малюнок 2-19 Частково-сітчастий дизайн із надмірністю

Надлишкові носії посилань

У критично важливих додатках часто доводиться надавати надлишкові носії інформації.

У комутованих мережах комутатори можуть мати надлишкові посилання між собою. Ця надмірність хороша тим, що мінімізує час простою, але може призвести до того, що трансляції постійно кружляють мережу, що називається широкомовним штормом. Оскільки комутатори Cisco реалізують алгоритм охоплюючого дерева IEEE 802.1d, ви можете уникнути цього циклу в протоколі Spanning Tree Protocol (STP). Алгоритм охоплюючого дерева гарантує, що між двома мережевими станціями активний лише один шлях. Алгоритм дозволяє надлишкові шляхи, які автоматично активуються, коли активний шлях відчуває проблеми.

STP має конструктивне обмеження, дозволяючи активувати лише один із зайвих шляхів. VSS можна використовувати з комутаторами Catalyst 6500 для подолання цього обмеження.

Ви можете використовувати EtherChannel для групування посилань для балансування навантаження. Посилання об’єднані в повноваження 2 (2, 4, 8) груп. Він агрегує пропускну здатність посилань. Отже, два порти 10GE стають 20 Гбіт / с пропускною здатністю, коли вони в комплекті. Для більш детального балансування навантаження використовуйте комбінацію джерела та призначення балансування навантаження для кожного порту, якщо таке є на комутаторі. У поточних мережах EtherChannel використовує LACP, який є стандартним протоколом узгодження, визначеним у IEEE 802.3ad (старіше рішення включало власний протокол PAgP Cisco). LACP допомагає захистити від циклів рівня 2, спричинених неправильною конфігурацією. Один мінус полягає в тому, що він створює накладні витрати та затримку при налаштуванні комплекту.

Оскільки WAN-посилання часто є критично важливими елементами роботи в мережі, середовища WAN часто застосовують надлишкові носії інформації. Як показано на малюнку 2-20, ви можете забезпечити резервні посилання, щоб вони стали активними, коли основне посилання падає або перевантажується.

Малюнок 2-20 Резервні посилання можуть забезпечити надмірність.

Часто резервні посилання використовують іншу технологію. Наприклад, загальноприйнятим є використання Інтернет-мереж VPN для резервного копіювання основних посилань MPLS у сучасних мережах. Використовуючи плаваючі статичні маршрути, ви можете вказати, що резервний маршрут повинен мати більшу адміністративну відстань (використовується маршрутизаторами Cisco для вибору інформації про маршрутизацію), щоб він зазвичай не використовувався, якщо не провалиться основний маршрут.

При наданні резервних посилань, дізнайтеся якомога більше про фізичну маршрутизацію ланцюга. Різні оператори іноді використовують одні й ті ж засоби, тобто ваш резервний шлях може сприймати ті самі збої, що і ваш основний шлях. Проведіть слідчу роботу, щоб переконатися, що ваша резервна копія дійсно діє як резервна.

Cisco підтримує протокол Multilink Point-to-Point (MPPP), який є стандартом Інженерної робочої групи (IETF) для агрегації B-каналів ISDN (або асинхронного послідовного інтерфейсу). Він з'єднує кілька WAN-ліній в один логічний канал. MPPP визначено в RFC 1990. MPPP не вказує, яким чином маршрутизатор повинен виконувати процес прийняття рішень для створення додаткових каналів. Натомість він прагне забезпечити, щоб пакети надходили послідовно на приймаючий маршрутизатор. Потім дані інкапсулюються в PPP, а дейтаграмі надається порядковий номер. На приймаючому маршрутизаторі PPP використовує цей порядковий номер для повторного створення вихідного потоку даних. Кілька каналів виглядають як одне логічне посилання на протоколи верхнього рівня. Для мереж Frame Relay FRF.16.1 Multilink Frame Relay використовується для виконання подібної функції.


Анотація

Підходи до машинного навчання (ML) широко використовуються для розробки систем або фреймворків з можливістю прогнозувати властивості, що цікавлять, шляхом вивчення та встановлення взаємозв’язків та умовиводів з даних. У цій роботі запропоновано структуру на основі ML, яка передбачає еволюцію локального розподілу деформацій, пластичну анізотропію та руйнування під час деформації при розтягуванні алюмінієвого сплаву AlSi10Mg, отриманого шляхом селективного лазерного плавлення (SLM). Структура поєднує методи, що беруть участь у виробництві добавок (AM) та штучному інтелекті (AI). Це включає друк зразків з використанням лазерного злиття порошкового шару (LPBF), сканування комп’ютерної рентгенівської комп’ютерної томографії (КТ) для вимірювання розподілу внутрішніх дефектів, механічне тестування з цифровою кореляцією зображень (DIC) для отримання локального розвитку деформації, вилучення та зв’язку КТ і дані DIC, а також розробка, перевірка та оцінка моделі штучної нейронної мережі (ANN). Експериментальні дані вимірювань КТ та ДВЗ використовуються для підготовки, перевірки та оцінки запропонованої моделі ANN. Мікроструктурні особливості, такі як розмір, форма, об'ємна частка та розподіл пористості, використовуються як вхідні дані для ANN. Запропонована модель ANN успішно прогнозує еволюцію локальних деформацій, пластичну анізотропію та руйнування під час деформації на розтяг. Інтенсивність та розташування деформаційних точок, а також форма смуг зсуву та місце виникнення тріщини добре прогнозуються. Сучасне дослідження демонструє застосовність підходу, заснованого на ML, для прогнозування співвідношення мікроструктура - властивість - ефективність для інженерних матеріалів із складними різнорідними мікроструктурами, такими як ті, що виробляються додатково за допомогою УУЗ. Успіх цього підходу мотивує подальше використання методів ML, як засобу для прискореної розробки нових сплавів, оптимізації процесів AM та його широкої застосовності.


Зміст

Алгоритм балансування навантаження завжди намагається відповісти на конкретну проблему. Серед іншого, слід враховувати характер завдань, алгоритмічну складність, апаратну архітектуру, на якій будуть працювати алгоритми, а також необхідну толерантність до помилок. Тому слід знайти компроміс, щоб найкращим чином відповідати вимогам, що стосуються конкретних додатків.

Характер завдань Редагувати

Ефективність алгоритмів балансування навантаження критично залежить від характеру завдань. Отже, чим більше інформації про завдання доступно під час прийняття рішення, тим більший потенціал для оптимізації.

Розмір завдань Редагувати

Досконале знання часу виконання кожного із завдань дозволяє досягти оптимального розподілу навантаження (див. Алгоритм суми префікса). [1] На жаль, насправді це ідеалізований випадок. Знання точного часу виконання кожного завдання є надзвичайно рідкісною ситуацією.

З цієї причини існує кілька методів, щоб скласти уявлення про різні терміни виконання. Перш за все, у щасливому сценарії, коли завдання мають відносно однорідний розмір, можна вважати, що кожному з них буде потрібно приблизно середній час виконання. Якщо, з іншого боку, час виконання дуже нерегулярний, слід застосовувати більш досконалі методи. Один із методів - це додати метадані до кожного завдання. Залежно від попереднього часу виконання подібних метаданих, можна робити висновки для майбутнього завдання на основі статистичних даних. [2]

Редагування залежностей

У деяких випадках завдання залежать одне від одного. Ці взаємозалежності можна проілюструвати спрямованим ациклічним графіком. Інтуїтивно зрозуміло, що деякі завдання не можуть розпочатися, поки інші не будуть виконані.

Припускаючи, що необхідний час для кожного із завдань відомий заздалегідь, оптимальний порядок виконання повинен призвести до мінімізації загального часу виконання. Хоча це проблема, яка важка для NP, і тому її важко точно вирішити. Існують такі алгоритми, як планувальник завдань, які обчислюють оптимальний розподіл завдань за допомогою метаевристичних методів.

Розподіл завдань Редагувати

Ще однією особливістю завдань, критичних для проектування алгоритму балансування навантаження, є їх здатність розбиватися на підзадачі під час виконання. Представлений згодом алгоритм "Деревоподібних обчислень" користується цією особливістю.

Статичні та динамічні алгоритми Редагувати

Статичне редагування

Алгоритм балансування навантаження є «статичним», коли він не враховує стан системи для розподілу завдань. Таким чином, стан системи включає такі заходи, як рівень навантаження (а іноді навіть перевантаження) певних процесорів. Натомість заздалегідь робляться припущення щодо загальної системи, такі як час прибуття та потреби в ресурсах для вхідних завдань. Крім того, відома кількість процесорів, їх відповідна потужність та швидкість зв'язку. Отже, статичне балансування навантаження має на меті пов’язати відомий набір завдань із доступними процесорами з метою мінімізації певної функції продуктивності. Фокус полягає у концепції цієї функціональної функції.

Методи статичного навантаження балансування зазвичай централізовані навколо маршрутизатора або Master, який розподіляє навантаження та оптимізує функціональні характеристики. Ця мінімізація може враховувати інформацію, пов’язану із завданнями, що розподіляються, і отримувати очікуваний час виконання.

Перевага статичних алгоритмів полягає в тому, що вони прості в налаштуванні та надзвичайно ефективні у випадку досить регулярних завдань (наприклад, обробки HTTP-запитів з веб-сайту). Однак все ще існує певна статистична різниця у розподілі завдань, яка може призвести до перевантаження деяких обчислювальних одиниць.

Динамічне редагування

На відміну від алгоритмів розподілу статичного навантаження, динамічні алгоритми враховують поточне навантаження кожного з обчислювальних блоків (їх також називають вузлами) в системі. При цьому підході завдання можуть бути динамічно переміщені з перевантаженого вузла на недозавантажений вузол, щоб отримати швидшу обробку. Хоча ці алгоритми набагато складніші в проектуванні, вони можуть дати чудові результати, зокрема, коли час виконання сильно варіюється від одного завдання до іншого.

Архітектура динамічного балансування навантаження може бути більш модульною, оскільки необов’язково мати певний вузол, призначений для розподілу роботи. Коли завдання однозначно присвоюються процесору відповідно до його стану в даний момент, це унікальне призначення. Якщо, навпаки, завдання можна постійно перерозподіляти відповідно до стану системи та її розвитку, це називається динамічним призначенням. [3] Очевидно, що алгоритм балансування навантаження, який вимагає занадто багато спілкування для прийняття рішень, ризикує уповільнити вирішення загальної проблеми.

Апаратна архітектура Редагувати

Неоднорідні машини Редагувати

Інфраструктури паралельних обчислень часто складаються з одиниць різної обчислювальної потужності, що слід враховувати при розподілі навантаження.

Наприклад, одиниці з нижчою потужністю можуть отримувати запити, які вимагають меншої кількості обчислень, або, у випадку однорідних або невідомих розмірів запитів, отримувати менше запитів, ніж більші одиниці.

Спільна та розподілена пам'ять Редагувати

Паралельні комп'ютери часто поділяються на дві великі категорії: ті, де всі процесори мають спільну спільну пам'ять, на якій вони паралельно читають і пишуть (модель PRAM), і ті, де кожен обчислювальний блок має власну пам'ять (модель розподіленої пам'яті) і де інформація обмінюється повідомленнями.

Для комп'ютерів із спільною пам'яттю управління конфліктами записів значно уповільнює швидкість індивідуального виконання кожного обчислювального блоку. Однак вони можуть чудово працювати паралельно. І навпаки, у разі обміну повідомленнями кожен з процесорів може працювати на повній швидкості. З іншого боку, коли мова йде про колективний обмін повідомленнями, усі процесори змушені чекати, поки найповільніші процесори почнуть фазу спілкування.

Насправді небагато систем потрапляють саме в одну з категорій. Загалом, кожен із процесорів має внутрішню пам’ять для зберігання даних, необхідних для наступних обчислень, і організований у послідовні кластери. Часто ці елементи обробки потім координуються за допомогою розподіленої пам'яті та передачі повідомлень. Тому алгоритм балансування навантаження повинен бути однозначно адаптований до паралельної архітектури. В іншому випадку існує ризик того, що ефективність паралельного розв’язання задач значно зменшиться.

Редагування ієрархії

Пристосовуючись до апаратних структур, розглянутих вище, існує дві основні категорії алгоритмів балансування навантаження. З одного боку, той, де завдання призначаються «майстром» і виконуються «працівниками», які інформують майстра про хід своєї роботи, а майстер може потім взяти на себе розподіл або перепризначення робочого навантаження у разі динамічного алгоритм. У літературі це згадується як архітектура "Майстер-Робітник". З іншого боку, керування може розподілятися між різними вузлами. Потім на кожному з них виконується алгоритм балансування навантаження, і відповідальність за розподіл завдань (а також повторне присвоєння та розподіл, відповідно) розподіляється. Остання категорія передбачає динамічний алгоритм балансування навантаження.

Оскільки конструкція кожного алгоритму балансування навантаження унікальна, попереднє розрізнення повинно бути кваліфіковане. Таким чином, можливо також мати проміжну стратегію, наприклад, з "головними" вузлами для кожного підкластера, які самі підлягають глобальному "ведучому". Існують також багаторівневі організації, в яких чергується стратегія управління ведучим-підлеглим та розподіленим управлінням. Останні стратегії швидко ускладнюються і рідко зустрічаються. Дизайнери віддають перевагу алгоритмам, якими легше керувати.

Адаптація до більших архітектур (масштабованість) Редагувати

В контексті алгоритмів, які працюють протягом дуже довгого часу (сервери, хмара.), Архітектура комп'ютера з часом розвивається. Однак бажано не кожен раз розробляти новий алгоритм.

Тому надзвичайно важливим параметром алгоритму балансування навантаження є його здатність адаптуватися до масштабованої апаратної архітектури. Це називається масштабованістю алгоритму. Алгоритм називається масштабованим для вхідного параметра, коли його продуктивність залишається відносно незалежною від розміру цього параметра.

Коли алгоритм здатний адаптуватися до різної кількості обчислювальних одиниць, але кількість обчислювальних одиниць повинна бути зафіксована перед виконанням, він називається формувальним. Якщо, з іншого боку, алгоритм здатний мати справу з коливанням кількості процесорів під час його виконання, алгоритм називається податливим. Більшість алгоритмів балансування навантаження є принаймні формувальними. [4]

Відмовостійкість Редагувати

Особливо у широкомасштабних обчислювальних кластерах неприпустимо виконувати паралельний алгоритм, який не може протистояти відмові одного компонента. Тому розробляються відмовостійкі алгоритми, які можуть виявляти відключення процесорів та відновлювати обчислення. [5]

Статичний розподіл з повним знанням завдань: префікс сума Редагувати

Якщо завдання незалежні одне від одного, і якщо їх відповідний час виконання та завдання можна розділити, існує простий і оптимальний алгоритм.

Розподіливши завдання таким чином, щоб дати однакову кількість обчислень кожному процесору, все, що залишається зробити, - це згрупувати результати разом. Використовуючи алгоритм суми префікса, цей поділ можна обчислити за логарифмічним часом щодо кількості процесорів.

Якщо, однак, завдання неможливо розподілити (тобто вони є атомними), хоча оптимізація призначення завдань є складною проблемою, все-таки можна наблизити порівняно справедливий розподіл завдань за умови, що розмір кожного з них значно менший ніж загальне обчислення, виконане кожним з вузлів. [6]

Здебільшого час виконання завдання невідомий, і доступні лише приблизні наближення. Цей алгоритм, хоча і особливо ефективний, не є життєздатним для цих сценаріїв.

Розподіл статичного навантаження без попередніх знань Редагувати

Навіть якщо час виконання взагалі не відомий заздалегідь, розподіл статичного навантаження завжди можливий.

Графік кругового редагування Редагувати

В круговому алгоритмі перший запит надсилається на перший сервер, потім наступний на другий і так далі до останнього. Потім він починається знову, присвоюючи наступний запит першому серверу тощо.

Цей алгоритм може бути зважений таким чином, що найпотужніші блоки отримують найбільшу кількість запитів і отримують їх першими.

Довільне статичне редагування

Випадкове балансування статичного навантаження - це просто питання випадкового призначення завдань різним серверам. Цей метод працює досить добре. Якщо, навпаки, кількість завдань відома заздалегідь, ще ефективніше розрахувати випадкову перестановку заздалегідь. Це дозволяє уникнути комунікаційних витрат для кожного завдання. Більше немає потреби в майстрі розподілу, оскільки кожен процесор знає, яке завдання йому призначене. Навіть якщо кількість завдань невідома, все одно можна уникнути зв'язку з генерацією псевдовипадкових призначень, відомою всім процесорам.

Ефективність цієї стратегії (вимірюється загальним часом виконання для даного фіксованого набору завдань) зменшується з максимальним розміром завдань.

Інші Редагувати

Звичайно, існують і інші методи присвоєння:

  • Менше роботи: призначте серверам більше завдань, виконуючи менше (метод також можна зважити).
  • Хеш: розподіляє запити відповідно до хеш-таблиці.
  • Потужність двох варіантів: виберіть два сервери навмання та виберіть найкращий із двох варіантів. [7] [8]

Редагування схеми майстра-працівника

Схеми Master-Worker є одними з найпростіших алгоритмів динамічного балансування навантаження. Майстер розподіляє навантаження серед усіх робітників (їх також іноді називають "рабами"). Спочатку всі робітники не працюють і повідомляють про це майстру. Майстер відповідає на запити робітників і розподіляє їм завдання. Коли у нього немає більше завдань, він повідомляє робітників, щоб ті перестали просити про завдання.

Перевага цієї системи полягає в тому, що вона розподіляє навантаження дуже справедливо. Насправді, якщо не брати до уваги час, необхідний для призначення, час виконання був би порівнянним із сумою префікса, побаченою вище.

Проблема цього алгоритму полягає в тому, що йому важко адаптуватися до великої кількості процесорів через велику кількість необхідних комунікацій. Ця відсутність масштабованості робить її швидко непрацездатною на дуже великих серверах або дуже великих паралельних комп'ютерах. Майстер виступає як вузьке місце.

Однак якість алгоритму можна значно покращити, замінивши головний список списком завдань, який може використовуватися різними процесорами. Хоча цей алгоритм трохи складніший у реалізації, він обіцяє набагато кращу масштабованість, хоча все ще недостатній для дуже великих обчислювальних центрів.

Неієрархічна архітектура без знання системи: робота над викраденням Edit

Інший метод подолання проблем масштабованості, коли час, необхідний для виконання завдання, невідомий - це викрадення роботи.

Підхід полягає у призначенні кожному процесору певної кількості завдань випадковим або заздалегідь визначеним способом, а потім дозволяючи неактивним процесорам "красти" роботу з активних або перевантажених процесорів. Існує кілька реалізацій цієї концепції, визначених моделлю розподілу завдань та правилами, що визначають обмін між процесорами. Хоча цей прийом може бути особливо ефективним, його важко реалізувати, оскільки необхідно переконатись, що комунікація не стає основним заняттям процесорів замість вирішення проблеми.

У випадку атомних завдань можна виділити дві основні стратегії: та, де процесори з низьким навантаженням пропонують свої обчислювальні можливості тим, хто має найбільше навантаження, і ті, де найбільш завантажені блоки хочуть полегшити навантаження, яке їм призначено. Було показано [9], що коли мережа сильно навантажена, для найменш завантажених блоків ефективніше пропонувати свою доступність, а коли мережа злегка завантажена, саме перевантажені процесори потребують підтримки з боку найбільш неактивних. Це правило обмежує кількість повідомлень, якими обмінюються.

У випадку, коли починається з однієї великої задачі, яку неможливо розділити за атомний рівень, існує дуже ефективний алгоритм "Деревоподібне обчислення", [10] де батьківське завдання розподіляється в робочому дереві.

Принцип редагування

Спочатку багато процесорів мають порожнє завдання, за винятком того, яке працює послідовно над ним. Неактивні процесори випадково видають запити іншим процесорам (не обов'язково активним). Якщо останній може розділити завдання, над яким працює, він робить це, надсилаючи частину своєї роботи на вузол, що робить запит. В іншому випадку він повертає порожнє завдання. Це викликає структуру дерева. Потім необхідно надіслати сигнал завершення батьківському процесору, коли підзадача виконана, щоб він, у свою чергу, надсилав повідомлення батьківському, поки не дійде до кореня дерева. Після закінчення роботи першого процесора, тобто кореневого, може транслюватися глобальне повідомлення про завершення. Зрештою, необхідно зібрати результати, повернувшись вгору по дереву.

Редагування ефективності

Ефективність такого алгоритму близька до суми префікса, коли час скорочення роботи та спілкування не надто високий порівняно з роботою, яку потрібно виконати. Щоб уникнути занадто високих витрат на зв’язок, можна уявити перелік завдань у спільній пам’яті. Отже, запит - це просто читання з певної позиції в цій спільній пам'яті на запит головного процесора.

На додаток до ефективного вирішення проблем за допомогою паралельних обчислень, алгоритми балансування навантаження широко використовуються в управлінні запитами HTTP, де сайт з великою аудиторією повинен мати можливість обробляти запити в секунду.

Інтернет-послуги Редагувати

Однією з найбільш часто використовуваних програм балансування навантаження є надання єдиної Інтернет-послуги з декількох серверів, іноді її називають фермою серверів. Зазвичай системи із збалансованим навантаженням включають популярні веб-сайти, великі мережі Інтернет-ретрансляції, сайти протоколу передачі файлів із високою пропускною здатністю (FTP), сервери протоколу передачі мережевих новин (NNTP), сервери системи доменних імен (DNS) та бази даних.

Круглий DNS Редагувати

Круглий DNS - це альтернативний метод балансування навантаження, який не вимагає виділеного програмного або апаратного вузла. У цій техніці декілька IP-адрес асоціюються з одним доменним іменем, і клієнтам надається IP-адреса. IP присвоюється клієнтам з коротким терміном дії, тому клієнт, швидше за все, використовуватиме інший IP під час наступного доступу до запитуваної Інтернет-послуги.

Делегування DNS Редагувати

Іншим більш ефективним методом балансування навантаження за допомогою DNS є делегування www.example.org як субдомену, зона якого обслуговується кожним із тих самих серверів, що обслуговують веб-сайт. Цей прийом особливо добре працює там, де окремі сервери географічно поширюються в Інтернеті. Наприклад:

На сервері два той самий файл зони містить:

Таким чином, коли сервер не працює, його DNS не реагує, а веб-служба не отримує трафіку. Якщо лінія до одного сервера перевантажена, ненадійність DNS забезпечує менше трафіку HTTP, що надходить на цей сервер. Крім того, найшвидша відповідь DNS на вирішувач майже завжди відповідає найближчому серверу мережі, що забезпечує геочутливу балансування навантаження [ потрібне цитування ]. Короткий TTL на записі A допомагає забезпечити швидке перенаправлення трафіку, коли сервер падає. Необхідно враховувати можливість того, що ця методика може призвести до того, що окремі клієнти переключатимуться між окремими серверами в середині сеансу.

Балансування випадкового навантаження на стороні клієнта Редагувати

Іншим підходом до балансування навантаження є надання клієнту списку IP-адрес сервера, а потім довільний вибір IP-адреси зі списку для кожного з’єднання. [12] [13] Це по суті покладається на всіх клієнтів, що генерують подібні навантаження, і на Закон великих чисел [13], щоб досягти досить плоского розподілу навантаження між серверами. Стверджувалося, що вирівнювання випадкового навантаження на стороні клієнта, як правило, забезпечує кращий розподіл навантаження, ніж круговий DNS, це пов'язано з проблемами кешування з круговим DNS, що у випадку великих серверів кешування DNS, як правило, перекошує розподіл для круговий DNS, тоді як випадковий вибір на стороні клієнта залишається незмінним незалежно від кешування DNS. [13]

При такому підході спосіб доставки списку IP-адрес клієнту може варіюватися і може бути реалізований як список DNS (доставляється всім клієнтам без будь-якого кругового обертання) або шляхом жорсткого кодування його до списку. Якщо використовується «розумний клієнт», який виявляє, що випадково вибраний сервер не працює, і знову підключається випадковим чином, це також забезпечує відмовостійкість.

Серверні балансири навантаження Редагувати

Що стосується Інтернет-служб, серверний балансир навантаження - це, як правило, програмна програма, яка прослуховує порт, де зовнішні клієнти підключаються до служб доступу. Балансир навантаження пересилає запити на один із «серверних» серверів, який зазвичай відповідає на балансир навантаження. Це дозволяє балансувальнику навантаження відповідати клієнту, а клієнт ніколи не знає про внутрішній поділ функцій. Це також заважає клієнтам контактувати безпосередньо із серверними серверами, що може мати переваги безпеки, приховуючи структуру внутрішньої мережі та запобігаючи атакам на мережевий стек ядра або не пов'язаних з ними служб, що працюють на інших портах.

Деякі балансири навантаження забезпечують механізм виконання чогось особливого у випадку, якщо всі серверні сервери недоступні. Це може включати переадресацію на резервний балансир навантаження або відображення повідомлення про відключення.

Також важливо, щоб сам балансир навантаження не став єдиною точкою поломки. Зазвичай балансири навантаження реалізовані в парах високої доступності, які також можуть повторювати дані збереження сеансу, якщо це вимагає конкретна програма. [14] Деякі програми запрограмовані із захистом від цієї проблеми шляхом зміщення точки балансування навантаження над диференціальними платформами спільного використання за межі визначеної мережі. Послідовні алгоритми, сполучені з цими функціями, визначаються гнучкими параметрами, унікальними для конкретної бази даних. [15]

Алгоритми планування Редагувати

Численні алгоритми планування, які також називаються методами балансування навантаження, використовуються балансирами навантаження, щоб визначити, якому внутрішньому серверу надіслати запит. Прості алгоритми включають випадковий вибір, кругові або найменші з'єднання. [16] Більш складні балансири навантаження можуть враховувати додаткові фактори, такі як повідомлене завантаження сервера, найменший час відгуку, статус вгору / вниз (визначається певним опитуванням моніторингу), кількість активних з'єднань, географічне розташування, можливості, або скільки трафіку йому нещодавно було призначено.

Наполегливість Редагувати

Важливим питанням при роботі служби, збалансованої навантаженням, є обробка інформації, яка повинна зберігатися в декількох запитах в сеансі користувача. Якщо ця інформація зберігається локально на одному серверному сервері, то наступні запити, що надходять на різні серверні сервери, не зможуть її знайти. Це може бути кешована інформація, яку можна перерахувати, і в цьому випадку запит на балансування навантаження до іншого серверного сервера просто створює проблему з продуктивністю. [16]

В ідеалі, кластер серверів, що стоїть за балансиром навантаження, не повинен знати про сеанс, так що якщо клієнт підключається до будь-якого серверного сервера в будь-який час, це не впливає на роботу користувача. Зазвичай це досягається за допомогою спільної бази даних або бази даних сеансу в пам'яті, наприклад Memcached.

Одним з основних рішень, що стосуються даних сеансу, є послідовне надсилання всіх запитів в сеансі користувача на той же серверний сервер. Це відоме як "стійкість" або "липкість". Суттєвим недоліком цієї техніки є відсутність автоматичного відмови: якщо внутрішній сервер виходить з ладу, інформація за сеанс стає недоступною, і будь-які сеанси в залежності від цього втрачаються. Ця ж проблема, як правило, актуальна для серверів центральних баз даних, навіть якщо веб-сервери є "без громадянства", а не "липкими", це центральна база даних (див. Нижче).

Призначення певному серверу може базуватися на імені користувача, IP-адресі клієнта або бути випадковим. Через зміни сприйнятої адреси клієнта в результаті DHCP, перекладу мережевих адрес та веб-проксі, цей метод може бути ненадійним. Випадкові розподіли повинні запам'ятовуватися балансиром навантаження, що створює навантаження на зберігання. Якщо балансир навантаження замінено або виходить з ладу, ця інформація може бути втрачена, і призначення може знадобитися видалити після періоду очікування або в періоди великого навантаження, щоб уникнути перевищення місця, доступного для таблиці розподілу. Метод випадкового призначення також вимагає, щоб клієнти підтримували певний стан, що може бути проблемою, наприклад, коли веб-браузер вимкнув зберігання файлів cookie. Складні балансири навантаження використовують декілька методів стійкості, щоб уникнути деяких недоліків будь-якого одного методу.

Іншим рішенням є збереження даних за сеанс у базі даних. Як правило, це погано для продуктивності, оскільки збільшує навантаження на базу даних: базу даних найкраще використовувати для зберігання інформації, що є менш перехідною, ніж дані за сеанс. Щоб база даних не стала єдиною точкою відмови та покращила масштабованість, база даних часто реплікується на декількох машинах, а балансування навантаження використовується для розподілу навантаження запиту по цих репліках. Технологія Microsoft ASP.net State Server є прикладом бази даних сеансів. Усі сервери у веб-фермі зберігають дані сеансів на державному сервері, і будь-який сервер у фермі може отримати дані.

У дуже поширеному випадку, коли клієнтом є веб-браузер, простим, але ефективним підходом є зберігання даних за сеанс у самому браузері. Одним із способів досягти цього є використання файлів cookie веб-переглядача, відповідно позначених часом та зашифрованих. Інший - переписування URL-адрес. Зберігання даних сеансу на клієнті, як правило, є найкращим рішенням: тоді балансир навантаження може вільно вибрати будь-який серверний сервер для обробки запиту. Однак цей метод обробки даних про стан погано підходить для деяких складних сценаріїв бізнес-логіки, де корисне навантаження стану сеансу є великим, і перерахунок його з кожним запитом на сервері неможливий. Переписування URL-адрес має основні проблеми безпеки, оскільки кінцевий користувач може легко змінити надіслану URL-адресу і, таким чином, змінити потоки сеансів.

Ще одним рішенням для зберігання постійних даних є пов’язання імені з кожним блоком даних та використання розподіленої хеш-таблиці для псевдовипадкового присвоєння цього імені одному з доступних серверів, а потім збереження цього блоку даних на призначеному сервері.

Редагувати функції балансування навантаження

Апаратні та програмні балансири навантаження можуть мати різні спеціальні функції. Основною особливістю балансувача навантаження є можливість розподіляти вхідні запити по ряду серверних серверів у кластері відповідно до алгоритму планування. Більшість наведених нижче функцій стосуються постачальника:

Асиметричне навантаження Коефіцієнт може бути призначений вручну, щоб деякі сервери-сервери отримували більшу частку робочого навантаження, ніж інші. Це іноді використовується як грубий спосіб обліку деяких серверів, що мають більшу ємність, ніж інші, і не завжди може працювати за бажанням. Пріоритетна активація Коли кількість доступних серверів опускається нижче певної кількості або завантаження стає занадто високим, резервні сервери можна підключити до мережі. Розвантаження та прискорення TLS Прискорення TLS (або його попередника SSL) - це техніка вивантаження обчислень криптографічного протоколу на спеціалізоване обладнання. Залежно від робочого навантаження, обробка вимог шифрування та автентифікації запиту TLS може стати основною частиною попиту на ЦП веб-сервера, оскільки попит зростає, користувачі бачитимуть повільніший час відгуку, оскільки накладні витрати TLS розподіляються між веб-серверами. Щоб усунути цей попит на веб-серверах, балансир може розірвати з'єднання TLS, передаючи запити HTTPS як запити HTTP веб-серверам. Якщо балансир сам не перевантажений, це не помітно погіршує продуктивність, сприйняту кінцевими користувачами. Недоліком цього підходу є те, що вся обробка TLS зосереджена на одному пристрої (балансирі), який може стати новим вузьким місцем. Деякі прилади балансування навантаження включають спеціалізоване обладнання для обробки TLS. Замість оновлення балансувача навантаження, яке є досить дорогим спеціальним обладнанням, може бути дешевше відмовитись від розвантаження TLS і додати кілька веб-серверів. Крім того, деякі постачальники серверів, такі як Oracle / Sun, тепер включають обладнання для криптографічного прискорення у свої центральні процесори, такі як T2000. F5 Networks включає в свій локальний менеджер трафіку (LTM) спеціальну апаратну карту прискорення TLS, яка використовується для шифрування та дешифрування трафіку TLS. Однією очевидною перевагою розвантаження TLS в балансирі є те, що він дозволяє виконувати балансування або перемикання вмісту на основі даних у запиті HTTPS. Захист від атак від розподіленої відмови в обслуговуванні (DDoS) Балансери навантаження можуть надавати такі функції, як файли cookie SYN та відстрочене прив'язування (серверні сервери не бачать клієнта, доки він не завершить своє рукостискання TCP), для пом'якшення атак SYN-потоків і, як правило, роботи з розвантаження. від серверів до більш ефективної платформи. Стиснення HTTP Стиснення HTTP зменшує обсяг даних, що передаються для об'єктів HTTP, використовуючи стиснення gzip, доступне у всіх сучасних веб-браузерах. Чим більший відгук і чим далі клієнт віддалений, тим більше ця функція може скоротити час відповіді. Компроміс полягає в тому, що ця функція створює додатковий попит на процесор на балансуванні навантаження і може бути виконана веб-серверами. Розвантаження TCP Різні постачальники використовують для цього різні терміни, але ідея полягає в тому, що зазвичай кожен HTTP-запит від кожного клієнта є різним TCP-з'єднанням. Ця функція використовує HTTP / 1.1 для консолідації декількох HTTP-запитів від декількох клієнтів в одному TCP-сокеті до внутрішніх серверів.Буферизація TCP Балансировщик навантажень може буферизувати відповіді сервера і передавати дані ложкою повільним клієнтам, дозволяючи веб-серверу звільняти потік для інших завдань швидше, ніж, якби йому довелося відправити весь запит безпосередньо клієнту. Пряме повернення сервера Опція асиметричного розподілу навантаження, коли запит і відповідь мають різні мережеві шляхи. Перевірка працездатності Балансир опитує сервери на стан прикладного рівня та видаляє невдалі сервери з пулу. HTTP-кешування. Фільтрування вмісту Деякі балансири можуть довільно змінювати трафік на шляху. Безпека HTTP Деякі балансири можуть приховувати сторінки помилок HTTP, видаляти заголовки ідентифікації сервера з відповідей HTTP та шифрувати файли cookie, щоб кінцеві користувачі не могли ними керувати. Пріоритетні черги. Також відома як формування ставок, можливість надавати різний пріоритет різному трафіку. Переключення з урахуванням вмісту Більшість балансирів навантаження можуть надсилати запити на різні сервери на основі запитуваної URL-адреси, припускаючи, що запит не зашифрований (HTTP) або якщо він зашифрований (через HTTPS), що запит HTTPS припиняється (розшифровується) під час завантаження балансир. Аутентифікація клієнта Аутентифікуйте користувачів за різними джерелами автентифікації, перш ніж дозволити їм доступ до веб-сайту. Програмна маніпуляція трафіком Принаймні один балансир дозволяє використовувати мову сценаріїв, щоб дозволити власні методи балансування, довільні маніпуляції трафіком тощо. Брандмауер Брандмауери можуть запобігти прямим підключенням до серверних серверів з міркувань безпеки мережі. Система запобігання вторгненню Системи запобігання вторгненню пропонують захист прикладного рівня на додаток до мережевого / транспортного рівня, що забезпечується захистом брандмауера.

Телекомунікації Редагувати

Балансування навантаження може бути корисним у додатках із надлишковими лініями зв'язку. Наприклад, компанія може мати кілька підключень до Інтернету, що забезпечують доступ до мережі, якщо одне з підключень виходить з ладу. Домовленість про збій означатиме, що одне посилання призначене для звичайного використання, тоді як друге посилання використовується лише в тому випадку, якщо основне посилання виходить з ладу.

Використовуючи балансування навантаження, обидва посилання можуть використовуватися постійно. Пристрій або програма стежить за доступністю всіх посилань і обирає шлях для відправки пакетів. Використання декількох посилань одночасно збільшує доступну пропускну здатність.

Редагування найкоротшого шляху

IEEE затвердив стандарт IEEE 802.1aq у травні 2012 р. [17], також відомий як найкоротший мост (SPB). SPB дозволяє всім посиланням бути активними через безліч рівних шляхів витрат, забезпечує швидший час конвергенції для зменшення часу простою та спрощує використання балансування навантаження в топологіях сітчастої мережі (частково підключене та / або повністю підключене), дозволяючи трафіку навантажувати частку по всіх шляхи мережі. [18] [19] SPB розроблений таким чином, щоб практично усунути людські помилки під час конфігурації та зберігає природу plug-and-play, яка встановила Ethernet як фактичний протокол на рівні 2. [20]

Маршрутизація 1 Редагувати

Багато телекомунікаційних компаній мають кілька маршрутів через свої мережі або до зовнішніх мереж. Вони використовують складне балансування навантаження, щоб перекласти трафік з одного шляху на інший, щоб уникнути перевантаження мережі на якомусь конкретному каналі, а іноді й мінімізувати витрати на транзит через зовнішні мережі або поліпшити надійність мережі.

Інший спосіб використання балансування навантаження - це діяльність з моніторингу мережі. Балансери навантаження можна використовувати для розподілу величезних потоків даних на кілька підпотоків та використання декількох аналізаторів мережі, кожен з яких читає частину вихідних даних. Це дуже корисно для моніторингу швидких мереж, таких як 10GbE або STM64, де складна обробка даних може бути неможливою на швидкості дроту. [21]

Мережі центрів обробки даних Редагувати

Балансування навантаження широко використовується в мережах дата-центрів для розподілу трафіку за багатьма існуючими шляхами між будь-якими двома серверами. [22] Це дозволяє більш ефективно використовувати пропускну здатність мережі та зменшує витрати на забезпечення. Загалом, балансування навантаження в мережах ЦОД можна класифікувати як статичне, так і динамічне.

Статичне балансування навантаження розподіляє трафік шляхом обчислення хешу адрес джерела та пункту призначення та номерів портів потоків трафіку та за його допомогою визначає, як потоки призначаються одному з існуючих шляхів. Динамічне вирівнювання навантаження призначає потоки трафіку шляхам, контролюючи використання смуги пропускання на різних шляхах. Динамічне призначення також може бути активним або реактивним. У першому випадку присвоєння фіксується після того, як зроблено, тоді як у другому мережева логіка продовжує моніторинг доступних шляхів і зсуває потоки по них у міру зміни використання мережі (з надходженням нових потоків або завершенням існуючих). Був доступний вичерпний огляд балансування навантаження в мережах центрів обробки даних. [22]


Перегляньте відео: Пропавшая американская эскадрилья найдена во льдах Арктики