Центральный сервер сети интернет находится в сша – Обзор вариантов организации доступа к сервисам корпоративной сети из Интернет / Habr

Содержание

Серверы в США, Дата Центр COPT DC-6-EvoSwitch/LeaseWeb (Manassas) / ua-hosting.company corporate blog / Habr

Долгое время я скептически относился к идее размещения серверов где-либо еще, кроме Нидерландов. Так как зачем? В Нидерландах отличная связность, пожалуй, лучшая в мире, лояльное законодательство, ну и наиболее приятные цены на аренду выделенных серверов в одном из наиболее надежных Дата-Центров, что пожалуй — самое важное. Тем не менее некоторые клиенты упорно требовали второй локации, желательно в другой стране, также встречались обладатели редкостной паранойи, а у некоторых аудитория была направлена на американский континент и прямой связности на США им было мало, встречались уникумы, которые просто думали, что в США лучше, почему лучше — они сами не знали…

В июле, окончательно «умирая» от скуки и летней прохлады, мы все же подумали, а не расширить ли нам присутствие в сети Интернет, добавив новую надежную локацию, тем более Jay Devinе, один из главных менеджеров в США, вот уже более полугода агитировал посетить COPT DC-6-EvoSwitch/LeaseWeb (Manassas), не прекращая тщетные попытки в стиле «ну закажите хоть что-то, нам тоже нужны клиенты».

Тем не менее перед тем, как доверить наших клиентов американцам, хотелось убедиться, что там действительно все на высоком уровне, так как ЦОД весьма отличается от нидерландского (владелец не LeaseWeb), и количество серверов LeaseWeb располагающихся в Манассасе значительно меньше, чем в нидерландском Хаарлеме — на февраль этого года порядка 3000, которые LeaseWeb перемещал целиком из одной серверной в другую:

Да, ребята молодцы, что сказать… Растут, переносят серверы из меньшей серверной в большую, что пожалуй допустимо на начальном этапе. Но хоть это все и профессионально было выполнено (мне сразу по окончанию переноса Джей прислал линк на видео, видимо они очень гордились тем, что все клиенты остались целы 🙂 ), повторений подобного переезда не хотелось и такое видео даже несколько отпугивало меня от более активных действий, хотя Джей гарантировал, что подобного более не повторится и теперь расширение будет проходить по другой схеме.

Появилось время в июле и повод — решили проверить, а почему нет. Хотя июль, конечно, не лучшее время для посещения США, жара, но так как там были в это время наши нидерландские коллеги, заодно можно было решить и другие вопросы и просто неплохо провести время. Посмотрев прогноз, где обещали радостные +33 на послезавтра, купили билеты в Вашингтон. Никогда не верьте прогнозам gismeteo, если они касаются США! Если по другим регионам они более-менее правдивы, то в США видимо у них проблемы с точностью…

По прилету в Вашингтон с задержкой в час (что стабильно часто наблюдается на рейсах AirFrance, сделаю антирекламу, хоть на Хабре, достали они, французы 🙂 ), в этот раз из-за поиска багажа пассажира, который захотел покинуть огромный двухэтажный самолет в последний момент, радостный голос стюардессы поведал нам, что за бортом хорошая солнечная погода, температура 114 градусов Фаренгейта или +45 Цельсия. Подумали ошиблась… Но выйдя из кондиционированного аэропорта — поняли, что нет, +45 в тени, на солнце еще больше… Благо такси было недалеко. Нам сказали, что в США сейчас несколько дней аномальная жара. Это был просто ад, по радио передавали о жертвах этой аномальной непогоды и о увеличении количества «станций охлаждения», где можно было прийти в себя. Стало интересно, как в таких температурах функционирует штатовский Дата Центр 🙂

Сразу вспомнился случай в Москве, когда во время аномальной летней жары при температурах гораздо ниже, отключались серверы в нескольких ЦОД, так как кондиционирование не справлялось, а тут +45 в тени… Кто никогда не был в столь экстремальных температурах, знайте — интересно только минуту, потом думаешь, как от этого спастись.

Пожалуй хорошо, что первым в программе стоял осмотр кондиционированного ЦОД. На следующий день рано утром, выехав из центра Вашингтона (а остановились мы в отеле на Капитолийском холме, рекомендую одноименный отель Capitol Hill Hotel, если захотите посетить столицу, правда — лучший вариант), не смотря на небольшие тянучки в городе, уже через 50 минут мы были в Манассасе. Еще минут 10 ушло на поиск офисного здания LeaseWeb, которое находится довольно далеко от ЦОД, затеряно среди других офисных зданий, имеет новый номер, почему-то отсутствующий в базе GPS.

Тем не мене — нашлись. Джей с Юлией, встретившие нас и позавидовавшие нашим шортам и легким футболкам (первые слова Джея — «я бы тоже одел шорты, если бы знал, что Вы в шортах» 🙂 ), сами пребывающие в деловом стиле в столь жаркую погоду, пригласили пройти в их офис. В офисе, в отличии от улицы, стоял жуткий холод, у американцев нездоровое восприятие кондиционирования, видимо не знают, что для обычного человека крайне вредны резкие перепады в более, чем 10 градусов. Тут же разница в температурах более 25 градусов (на улице более +45 в тени, в помещении +20, а может меньше), шок для организма огромный!

Теперь к главному — о ЦОД. В США сотрудников LeaseWeb значительно меньше, нежели в Нидерландах, менее двух десятков человек, так как оператором ЦОД выступает не EvoSwitch/LeaseWeb, а компания COPT, которая занимается управлением Дата Центром, обеспечением его работы и безопасности, предоставляя клиентам непосредственно инфраструктуру для размещения шкафов и серверов.

Corporate Office Properties Trust (COPT)

• Публичный ипотечный инвестиционный траст с общим капиталом свыше 4 миллиардов долларов.
• Владеет, разработал и/или совершает управление Дата Центрами общей полезной площадью свыше 200000 кв. метров, в том числе COPT DC-6 в Манассасе, штат Вирджиния.
• Отмечен многочисленными наградами.
• Имеет опыт в работе со специализированными государственными Дата-Центрами США.
• Имеет опыт работы с чувствительными отсековыми информационными объектами (SCIF) и в разработке комнат связи.
COPT DC-6 (ранее Power Loft)

• 3600 квадратных метров непосредственно полезного пространства для размещения IT-инфрастуктуры.
• 5 МВт максимальной мощности.
• Возможность расширения на 9 МВт и 2600 квадратных метров в течении 6 месяцев.
• Доступны контейнерные модули-отсеки для размещения.

Низкая стоимость эксплуатации:

• Использование окружающей среды для охлаждения позволяет сэкономить 10% энергии или $144000 / год.
• Эффективность использования мощности составляет 1.3 (против среднестатистического по индустрии 1.8), что дает экономию $240000 / год.
• Собственные водные ресурсы обеспечивают экономию $26400 / год.
• Общая годовая экономия в COPT DC-6 равна $410400 / год.

Экономия на налогах:

• Налог на оборудование на 70% меньше в COPT DC-6 (округ Принц-Уильям), чем в центре Ашберна (округ Лаудун) или в округе Ферфакс.
• Экономия $125000 с каждого миллиона инвестированного в оборудование в течении 10 лет.
Особенности безопасности:

• 22 мили от Ашберна и, соответственно, от концентрации рисков для Дата-Центра.
• Служба ATFD (ANTI TERRORISM / FORCE PROTECTION) патрулирует территорию более, чем в 50 метрах от здания.
• Инженерные системы отделены от объектов IT.
• Пространство для размещения отсеков секретных данных выделено и готово к использованию.
• Соответствует требованиям Департамента безопасности США и Директив Центральной разведки.
• Соответствует требованиям FISMA (Federal Information Security Management Act — Федеральный закон «Об обеспечении информационной безопасности»).

Решения для модульных Дата-Центров:

• Готовый план территории.
• Поддержка контейнеров двойной ширины.
• Использование имеющихся охладительных водных ресурсов, ИБП и генераторы.
Преимущества Манассаса

Плюсы местоположения Дата-Центра в Манассасе:

• 22 мили от Ашберна и его региональной концентрации рисков для Дата-Центров.
• Расположение вне основных маршрутов Международного аэропорта имени Даллеса.
• Налог на имущество физических лиц в округе Принц-Уильям на 70% ниже, чем в округе Лаудун.
• Стоимость общей эксплуатации ниже, чем в Дата-Центрах Ашберна.
• Соответствие со всеми локационными требованиями для Дата-Центров.
• Использование отдельной от города Ашберна энергосистемы.

Связность и задержки:

• Инновационный Парк в Манассасе, округ Принц-Уильям, крайне богат оптико-волоконными сетями.
• Множественные розничные и оптовые магистральные провайдеры предоставляют прямое и безопасное подключение к точкам обмена трафиком в Ашберне и к основным государственным точкам обмена трафиком Вирджинии, Мериленда и Вашингтона.
• Отсутствие разницы по показателям задержки между Манассасом и Ашберном.
• Задержка к региональному NAP (точка доступа к сети) в 5 раз меньше, чем в соглашении об уровне услуг Нью-Йоркской фондовой биржи.
• Доступны выделенные соединения тёмными волокнами к правительственным объектам.
• Сертификационные возможности включают в себя FISMA (Federal Information Security Management Act — Федеральный закон «Об обеспечении информационной безопасности»), ITIL (IT Infrastructure Library — библиотека инфраструктуры информационных технологий) и SAS 70/SAE 18 (Акт по стандартам аудита №70/ Сообщество автомобильных инженеров, акт 18).

Надежное оптоволокно и инфраструктура связи

COPT DC-6 обеспечен надежной оптоволоконной связью от таких компаний, как AboveNet, Level 3 Communications, FiberLight, Verizon, Comcast и NOVEC. Многие провайдеры расположены поблизости, за счет чего получение их услуг крайне упрощено. Государственное безопасное соединение располагается в непосредственной близости, прямое соединение возможно по утвержденным требованиям.

Расположение COPT DC-6 позволяет организовать прямое подключение при помощи нескольких провайдеров к основной сетевой точке доступа, расположенной в Ашберне, Вирджиния.

Оптоволоконные провайдеры имеют доступ к Дата Центру через два различных подземных ввода и оптоволоконные соединения идут напрямую к двум разным коммутационным комнатам, узлам межсетевого соединения (MMR). Подключение распределяется на два дополнительных MMR, обеспечивая в общей сложности четыре MMR. За счет этого один MMR покрывает 2300 квадратных метров фальшпола, предоставляя множественные пути и избыточное подключение к каждой области Дата-Центра.

COPT DC-6: план площади и стоек

ЗАПАДНОЕ КРЫЛО \ Секция 201-208

Доступно сейчас:
Секция 203-205
• 1560 кв. м.
• 2 МВт максимальной нагрузки.
• Возможность увеличения нагрузки до 4.5 МВт.

Доступно в будущем:
Секция 207:
• 440 кв. м.
• 1 МВт максимальной нагрузки.

ВОСТОЧНОЕ КРЫЛО \ Секция 209-216

Доступно сейчас:
Секция 209-211
• 1560 кв. м.
• 2 МВт максимальной нагрузки.
• 15 распределителей питания.

Доступно в будущем:
Секция 212-216:
• 2600 кв. м.
• 8 МВт максимальной нагрузки.

Особенности размещения:

• 254 шкафа возможно разместить в отсеке площадью 520 кв. метров.
• Пространство, освобожденное от систем климат-контроля (за счет использования окружающей среды), используется арендатором для установки на 50% больше шкафов.
• Гибкая мощность — от 1 кВт до 3,2 кВт на кв. метр полезной площади.

Преимущества:

• Уровень надежности Дата Центра 3+ (Tier III).
• Коэффициент эффективности использования мощности составляет 1.3.
• Гибкий проект — возможность использования статичных и роторных ИБП.
• Золотой стандарт энерго- ффективности и экологического проектирования (LEED-NC Gold), высочайший уровень энергоэффективности.
• Изолированность инженерных систем.
• Предотвращение генерации избыточной энергии — ни одной точки отказа.
• Самый современный центр управления сетью (NOC) и интегрированная система управленческой отчетности.
• Водные и воздушные экономайзеры снижают потребление энергии и эксплуатационные расходы.
Инновационная конструкция

Отделение инженерных систем от IT пространства:

• Простое разделение на секторы.
• Минимизация нарушений работы.
• Сохранение возможности роста полезных площадей для шкафов.
• Четкое разделение безопасности.
Вентиляционная установка с рециркуляцией с охлаждением (AHU) вместо юнитов климат-контроля (CRAC):

• 160-тонный AHU вместо 20-тонных CRAC.
• Частотно-регулируемый привод (VFD).
• Уникальная система рециркуляции воздуха.
• Поддержка до 3,2 кВт на каждый кв. метр (@ N+1MIN.)

Циркуляция охлажденной воды:

• Одновременное обслуживание.
• Отсутствие воды над фальшполом.
• Отводы для внутреннего охлаждения шкафов.
Федеральные соответствия:

• COPT DC-6 отвечает самым строгим стандартам Федеральной безопасности, которые включают в себя: минимум 150 футов от объекта до пропускных пунктов для транспорта, барьеры для транспорта, ограждения K-12, охраняемые входы, турникеты, биометрический контроль доступа и несколько зон видеонаблюдения.
• Объект соответствует стандартам SAS 70 II и SSAE 16 и может поддерживать FISMA, высокий уровень сетевой сертификации.
• COPT DC-6 является одним из 10 объектов, выбранным для размещения GSA Cloud.
Рабочая эффективность:

• COPT DC-6 использует на 70% меньше энергии, чем объекты традиционной конструкции в Северной Вирджинии.

Масштабируемость высокой плотности:

• Конструкция COPT DC-6 позволяет пользователям увеличить максимальное энергопотребление и охлаждение для более высокой плотности шкафов с минимальным ущербом или потерей пространства фальшпола, используя воздух или моноблочное охлаждение.
• Здание было спроектировано для отвода тепла до 3,2 кВт с квадратного метра с использованием воздуха, что позволяет размещать оборудование с большой плотностью при использовании водного охлаждения в шкафах.
• Установка охлаждения воды позволяет экономить водный ресурс, а зданию — воздух.
Надежность:

• COPT DC-6 спроектирован так, чтобы обеспечивать уровень надежности N+1, что классифицируется, как Tier III+ по критериям Uptime Institute.

• Есть возможность увеличения числа источников бесперебойного питания на 2N, что увеличит уровень надежности до Tier IV.
• COPT DC-6 находится в ведении сотрудников COPT, и COPT несет полную ответственность за безопасность, предоставление гарантированного уровня услуг согласно соглашения (SLA), осуществляет мониторинг всех систем, от закрытой схемы видеонаблюдения за периметром до отдельного устройства. Все эти устройства контролируются 24\7 из отдельного (вне объекта) Центра Управления Сетью.

Зеленая конструкция:

• COPT DC-6 является владельцем сертификатом LEED NC Gold.
• Инженерные системы значительно экономят воду и воздух.
• Поверхность крыши состоит из отражающего солнечный свет белого камня.
• Применяется автоматизированная система освещения помещений и территории.
Расположение:

Парк инноваций:

COPT DC-6 является частью Парка инноваций округа Принц-Уильям, 4 кв. км. идеально спланированного бизнес-парка, позиционируемого как «инкубатор технологий». Управляется отделом экономического развития администрации округа Принц-Уильям.

Расстояние от Вашингтона:

• Парк инноваций расположен в 30 милях от Вашингтона, то есть в 45 минутах спокойной езды из центра Вашингтона.
• Добраться можно по дороге 234 или I-95 на юг или I-66 на север. Железнодорожная станция Манассас расположена в 1.5 милях на юг, а Вашингтонский аэропорт имени Даллеса в 15 милях на север.

Ресурсы:

Вода

Вода поставляется из двух колодцев, которые могут обеспечивать работоспособность систем даже в самые жаркие дни лета в Вирджинии. В связи с этим, в стоимость месячного обслуживания не входит счет за воду.

Электричество

NOVEC предоставляет более 50 МВт мощности по выделенной 34,5 КВ связи. В дополнение к этому, дабы уберечь COPT DC-6 от снижения качества поставки электричества за счет увеличения нагрузки на сеть, NOVEC дает возможность увеличить мощность еще на 50 МВт.

Подача питания из нескольких источников передачи

• Подстанции из округов Лаудун / Гейнсвилл / Вулкан.
• Новая радиальная 34,5 кВ схема с 50 МВт мощностью.
• Выделенные каналы питания = повышение качества электроэнергии.

Дополнительная резервная 34,5 кВ схема из подстанций в Оксе и Канон Бренч (Ox/Cannon Branch).

Основные характеристики ЦОД

Фальшпол:

• 9290 квадратных метров фальшпола
• 16 отсеков, каждый из которых обеспечен 1,875 МВт
• 1220 кг максимальной нагрузки на квадратный метр
• Возможность расширения потребления мощности от 1,6 кВт до 3,2 кВт на квадратный метр без простоя или потерь площади фальшпола.
Энергосистема:

• 5 х 2,25 МВт дизельных электростанций (критическая мощность 1,25 МВт).
• Конфигурация в блоке 6 МВт — 4 основных, 1 резерв.
• Роторные или статические ИБП.
• Отсутствие параллельности электричества.
• Нет системы аварийного отключение электроэнергии.
• 2 МВт дизель-генераторы обеспечивают N +2 мощности для инженерных систем.
• Топология энергосети позволяет использовать подключения с переменным (AC) и постоянным (DC) током.
• Модульная конструкция обеспечивает возможность увеличения мощности с минимальными нарушениями и в кратчайшие сроки.

Хранилище топлива:

• До 2,275 млн. литров дизельного топлива с ультранизким содержанием серы.
• Система очистки топлива, система трубопроводов для избыточного топлива.
Управление микроклиматом:

• 11 400 тонн охлаждения
• 60 х 60 000 CFM для обработки воздуха
• Высокая эффективность охлаждения воды
• Экономия воздуха и воды из внешних источников
• 20-минутный резерв охлажденной воды
• Колодцы водоснабжения на территории
• Одновременная работа циклов охлажденной воды
• N +2 избыточных ресурсов
• Нет воды над фальшполом
Пожаротушение:

• Использование системы сухо-трубных спринклеров.
• Система обнаружения возгорания iVESDA установлена в соответствии с требованиями HPCS.

СИСТЕМЫ КОНТРОЛЯ

Четыре Siemens-модуля: EPMS, BMS, Security и Life/Fire/Safety

В данный момент у нашего партнера LeaseWeb US в COPT DC-6 доступны следующие мощности:

— более 7000 серверов;
— более 40 свободных шкафов для размещения оборудования, не включая уже доступные серверы с моментальной активацией;
— выделенный зал для размещения оборудования;
— возможность увеличения пропускной способности каналов связи до 3,5 Тбит / с;
— возможность резервирования соседних изолированных комнат-модулей для расширения.

Ну и самое приятное — не смотря на то, что обслуживание локации в США стоит дороже, +45 это не Нидерланды :), мы готовы предложить аналогичные цены на серверы с каналом от 100 Мбит / с до 10 Гбит / с.

http://ua-hosting.com.ua/us-servers.html — тут всегда доступны серверы с быстрой активацией, к примеру:

US — Intel Dual-Core G6950 / 4GB DDR3 / 2x250GB SATA2 / 100Mbps Unmetered — $65 / месяц
US — Intel Xeon E3-1230 / 8GB DDR3 / 2x500GB SATA2 / 100Mbps Unmetered — $89 / месяц

Остальные конфигурации предоставляются в течении максимально возможно короткого времени, после проведения заказа, также, как и конфигурации, к которым заказан апгрейд.

Теперь покажем фактическую связность.

Связность в Украину находится на уровне 130 мс:

[root@us3 ~]# tracepath dc.ukrtelecom.ua
1: us3.ua-hosting.com.ua (198.7.61.20) 0.054ms pmtu 1500
1: hosted.by.leaseweb.com (198.7.61.61) 0.337ms
1: hosted.by.leaseweb.com (198.7.61.60) 0.399ms
2: ae3.cr1.wdc1.leaseweb.net (108.59.15.120) 0.379ms
3: ash-bb1-link.telia.net (80.239.196.197) 17.066ms asymm 4
4: ash-bb4-link.telia.net (213.155.130.72) 1.198ms
5: hbg-bb2-link.telia.net (213.155.131.250) 88.118ms asymm 6
6: war-b2-link.telia.net (213.155.134.119) 106.503ms
7: ukrtelecom-ic-139714-war-b2.c.telia.net (80.239.135.46) 130.971ms asymm 8
8: no reply
9: new4.ukrtelecom.ua (82.207.79.44) 133.614ms reached
Resume: pmtu 1500 hops 9 back 52
[root@us3 ~]# ping 82.207.79.44
PING 82.207.79.44 (82.207.79.44) 56(84) bytes of data.
64 bytes from 82.207.79.44: icmp_seq=1 ttl=52 time=130 ms
64 bytes from 82.207.79.44: icmp_seq=2 ttl=52 time=130 ms
64 bytes from 82.207.79.44: icmp_seq=3 ttl=52 time=130 ms
64 bytes from 82.207.79.44: icmp_seq=4 ttl=52 time=130 ms
64 bytes from 82.207.79.44: icmp_seq=5 ttl=52 time=131 ms
64 bytes from 82.207.79.44: icmp_seq=6 ttl=52 time=131 ms
64 bytes from 82.207.79.44: icmp_seq=7 ttl=52 time=131 ms
^Z
[5]+ Stopped ping 82.207.79.44
[root@us3 ~]#

К некоторым провайдерам в Украине трафик почему-то ходит через Москву, тем не менее канал стабилен:

[root@us3 ~]# tracepath o3.ua
1: us3.ua-hosting.com.ua (198.7.61.20) 0.063ms pmtu 1500
1: hosted.by.leaseweb.com (198.7.61.61) 0.419ms
1: hosted.by.leaseweb.com (198.7.61.60) 0.437ms
2: ae1.cr1.wdc1.leaseweb.net (108.59.15.116) 0.389ms
3: te2-2.msc1.wdc.leaseweb.net (217.20.125.6) 0.652ms
4: xe1-0-0.ms1.iad.leaseweb.net (217.20.125.15) 1.284ms
5: xe0-0-0.ms2.iad.leaseweb.net (217.20.125.31) 1.132ms asymm 4
6: ahn.eqx.transtelecom.net (206.126.236.233) 89.537ms asymm 5
7: msk05.transtelecom.net (188.43.7.230) 138.340ms asymm 13
8: v6.cs1-g50.kv.wnet.ua (217.20.160.103) 146.268ms asymm 10
9: v6.cs1-g50.kv.wnet.ua (217.20.160.103) 146.422ms asymm 10
10: freenet-gw.cs-leo.kv.wnet.ua (217.20.168.237) 138.373ms asymm 8
11: ua.bb.freenet.ua (89.252.0.221) 141.737ms asymm 10
12: 94.76.104.22.freenet.com.ua (94.76.104.22) 146.579ms asymm 13
13: 94.76.104.22.freenet.com.ua (94.76.104.22) 148.404ms
14: noc.freenet.com.ua (94.76.107.4) 147.120ms reached
Resume: pmtu 1500 hops 14 back 51
[root@us3 ~]# ping 94.76.107.4
PING 94.76.107.4 (94.76.107.4) 56(84) bytes of data.
64 bytes from 94.76.107.4: icmp_seq=1 ttl=51 time=147 ms
64 bytes from 94.76.107.4: icmp_seq=2 ttl=51 time=147 ms
64 bytes from 94.76.107.4: icmp_seq=3 ttl=51 time=146 ms
64 bytes from 94.76.107.4: icmp_seq=4 ttl=51 time=146 ms
64 bytes from 94.76.107.4: icmp_seq=5 ttl=51 time=146 ms
64 bytes from 94.76.107.4: icmp_seq=6 ttl=51 time=146 ms
64 bytes from 94.76.107.4: icmp_seq=7 ttl=51 time=146 ms
^Z
[7]+ Stopped ping 94.76.107.4
[root@us3 ~]#

Связность в Москву:

[root@us3 ~]# tracepath MSK-M9-Relarn-1.relarn.ru
1: us3.ua-hosting.com.ua (198.7.61.20) 0.073ms pmtu 1500
1: hosted.by.leaseweb.com (198.7.61.60) 0.414ms
1: hosted.by.leaseweb.com (198.7.61.61) 0.425ms
2: be7.cr2.wdc1.leaseweb.net (108.59.15.112) 0.762ms
3: te3-3.msc1.wdc.leaseweb.net (217.20.125.8) 0.715ms
4: xe0-0-0.ms2.iad.leaseweb.net (217.20.125.31) 1.101ms
5: ahn.eqx.transtelecom.net (206.126.236.233) 89.511ms
6: pe04.Moscow.gldn.net (79.104.225.70) 133.438ms asymm 9
7: Rosniiros-gw.transtelecom.net (217.150.63.137) 139.801ms asymm 10
8: Rosniiros-gw.transtelecom.net (217.150.63.137) 141.582ms asymm 10
9: MSK-M9-Relarn-1.relarn.ru (193.232.226.10) 130.440ms reached
Resume: pmtu 1500 hops 9 back 247
[root@us3 ~]# ping 193.232.226.10
PING 193.232.226.10 (193.232.226.10) 56(84) bytes of data.
64 bytes from 193.232.226.10: icmp_seq=1 ttl=247 time=129 ms
64 bytes from 193.232.226.10: icmp_seq=2 ttl=247 time=129 ms
64 bytes from 193.232.226.10: icmp_seq=3 ttl=247 time=128 ms
64 bytes from 193.232.226.10: icmp_seq=4 ttl=247 time=128 ms
64 bytes from 193.232.226.10: icmp_seq=5 ttl=247 time=129 ms
64 bytes from 193.232.226.10: icmp_seq=6 ttl=247 time=129 ms
64 bytes from 193.232.226.10: icmp_seq=7 ttl=247 time=128 ms
^Z
[9]+ Stopped ping 193.232.226.10
[root@us3 ~]#

Связность в Питер:

[root@us3 ~]# tracepath selectel.ru
1: us3.ua-hosting.com.ua (198.7.61.20) 0.066ms pmtu 1500
1: hosted.by.leaseweb.com (198.7.61.60) 0.424ms
1: hosted.by.leaseweb.com (198.7.61.61) 0.486ms
2: be6.cr2.wdc1.leaseweb.net (108.59.15.106) 0.597ms
3: te3-3.msc2.wdc.leaseweb.net (217.20.125.12) 0.676ms
4: te3-1.msc1.wdc.leaseweb.net (217.20.125.28) 1.396ms asymm 6
5: xe0-0-0.ms2.iad.leaseweb.net (217.20.125.31) 1.172ms asymm 4
6: cat01.Frankfurt.beeline.ru (206.126.236.130) 93.560ms asymm 7
7: spb03.transtelecom.net (217.150.45.142) 130.942ms asymm 6
8: ae-01-1201.BRC1.spb.obit.ru (79.142.92.90) 126.136ms
9: gw-cust-selectel.obit.ru (217.79.3.130) 126.574ms asymm 14
10: 188.93.16.26 (188.93.16.26) 132.811ms reached
Resume: pmtu 1500 hops 10 back 49
[root@us3 ~]# ping 188.93.16.26
PING 188.93.16.26 (188.93.16.26) 56(84) bytes of data.
64 bytes from 188.93.16.26: icmp_seq=1 ttl=50 time=135 ms
64 bytes from 188.93.16.26: icmp_seq=2 ttl=49 time=138 ms
64 bytes from 188.93.16.26: icmp_seq=3 ttl=49 time=139 ms
64 bytes from 188.93.16.26: icmp_seq=4 ttl=49 time=139 ms
64 bytes from 188.93.16.26: icmp_seq=5 ttl=50 time=135 ms
64 bytes from 188.93.16.26: icmp_seq=6 ttl=49 time=135 ms
64 bytes from 188.93.16.26: icmp_seq=7 ttl=49 time=139 ms
^Z
[13]+ Stopped ping 188.93.16.26
[root@us3 ~]#

Итог: связность с Украиной, Москвой и Питером примерно на одинаковом уровне. Показатели пинга в пределах 130-150 мс. Значения стабильны, без резких пиков и провалов.

Вывод: ЦОД в США использовать более целесообразно, если Ваш ресурс ориентирован на аудиторию Америки, тем не менее значения пинга для большинства посетителей из Украины и РФ позволяют получать качественный доступ к сайтам расположенным не только в Нидерландах, но и США. На скорость загрузки веб-страниц разница в связности не окажет сильного влияния. Также локация в США будет привлекательна и в законодательном плане. Как и в Нидерландах, разрешены сайты для взрослых, но объекты авторского права также охраняются и реагировать на жалобы нужно, как и везде.

Для желающих провести свои тесты укажу ip-адрес одного из наших серверов в США: 198.7.61.20

Запросить тестовый файл для проверки скорости и другую интересующую информацию можно в нашем онлайн-чате на странице с серверами. Там же можно и провести заказ сервера в США по минимальной цене.

3 крупнейших дата центра в мире

Существуют сотни центров обработки данных распложенных по всему земному шару. Большинство из них относительно невелики, со средним размером около 100 000 квадратных футов (9290 квадратных метров). Но есть и гиганты, использующие столько энергии, сколько хватило бы на небольшой город с парой тысяч жителей.

В данной статье мы рассмотрим 3 самые большие дата центры в мире.

Три самых больших дата центра в мире.

1. Range International Information Group

Этот гигант расположен в Ланфане, Китай. Его размер 6300000 квадратных фута, а это примерно 585 тысяч квадратных метров.

Он еще не завершен, работы должны быть завершены к концу года, и его размер будет эквивалентен Пентагону в Вашингтоне или 110 футбольным полям.

Это предприятие будет способствовать дальнейшему развитию города Ланфан в качестве хоста для умных транзакций, электронного правительства, систем управления и администрации, пищевых и лекарственных средств безопасности.

Хотите и себе арендовать терминальный сервер? Может ссылка пригодится.

2. Switch SuperNAP

Этот дата центр расположен в Неваде, США. Имеет площадь 3,5 млн. кв. футов. (325 тыс. кв. м.). В данный момент это самый большой центр обработки информации в мире, и будет он таковым, пока в Китае не заработает Range International Information Group.

Находится он в Лас-Вегасе, на юге Невады. И имеет планы по расширению на 1000 акров в промышленном центре Рино Тахо, стоимостью 1 млрд. долларов. От чего Неваду можно назвать самым цифровым штатом в США.

По предварительным оценкам работы по расширению будут завершены в 2020 и 2025 годах.

Проект включает в себя развёртывание 500 миль сети волоконно-оптических кабелей, которые будут подключаться к Рино, Лас-Вегасу, Лос-Анджелесу и Сан-Франциско. Данные будут путешествовать между Рино и Лас-Вегасом всего за 7 миллисекунд, что дает 50 миллионам человек доступ к данным в течении 14 миллисекунд.

3. DuPont Fabros Technology

И последний дата центр в нашем списке находится в штате Вирджиния, США. Он состоит из шести здания и занимает 1,6 млн. квадратных футов (почти 149 тыс. кв. м.).

Он имеет 28 компьютерных залов достаточно мощных для 10,5 тысяч серверов.

практические методы и вопрос / Habr

Привет! Я руковожу небольшим ИТ-аутсорсингом, и к нам в прошлом году обратилось сразу несколько клиентов с похожими задачами — сделать так, чтобы никто не узнал, где именно стоят сервера компании.

В первом случае это был строительный бизнес, у них одна из особенностей сферы в том, что на машинах не должно быть даже следов переписки, особенно перед тендерами. Поэтому у них RDP-ферма, а в офисе терминалы. Прятать надо было ядро. Во втором случае — сервисная компания, работающая с известными личностями (у них это просто слой безопасности, который они не считают лишним). В третьем — производство для нефтяной сферы, у которых по сфере нереальная недобросовестная конкуренция с забросом инсайдеров в чужие офисы.

Мы придумали вот такую схему:

В центре — ядро, вокруг ядра — релей-серверы периметра (дешёвые машины-прокси, на каждой — свой сервис), дальше — терминалы конечных пользователей. Покритикуйте, пожалуйста, ну или попробуйте вычислить IP сервера ядра на примере в конце.

Зачем это нужно?

Общая идея в том, чтобы только владелец бизнеса и главный админ знали, где серверы физически расположены. Дома у заказчика, в подвале офиса, в гараже или в дата-центре в Германии или Туле… — не важно.

Естественно, крупный бизнес умеет решать такие задачи (или они вообще не встают по ряду причин развитой ИБ). А вот малый и средний — нет, и даже силами админа не всегда удаётся это сделать более-менее правильно. Поэтому и стучали к нам.

Идея защиты в том, что:
— Сложно найти IP сервера, поскольку для этого придётся захватить одну из релей-машин и роутер.
— Релей-машины управляются сервером роутинга, который защищён традиционным набором: антиDDoS, QoS, активная система предотвращения вторжений и так далее.
— Сами по себе релеи настолько слабы по ресурсам, что любая попытка протащить через них DDoS закончится обрыванием связи с узлом и поднятием в течение 5–6 минут другой релей-машины где-либо по миру.

Релеи берутся из случайных дешёвых хостингов (в том числе уже проверенных нами) и поднимаются автоматически из дашборда сервера роутинга. Доступа до этого дашборда у нас нет — мы делаем инсталляцию и показываем, что менять. После этого заказчик устанавливает новый пароль и указывает IP головного сервера. Подтверждается это открытым кодом, который мы передаём заказчику.

Естественно, слабое звено — админ. Но если его перекупают или заставляют стучать, всё равно мало что поможет.

Точки отдают стандартные сервисы типа почты, внутреннего сайта, мессенджера, терминалок, приложений типа 1С. В общем, то же самое, что два классических сервера, замурованных в подвал, но вместо IP «подвальных» друзей за каменной кладкой в конфиге пользовательского терминала — IP машин периметра.

В итоге образуется ситуация, когда:

  • Нельзя найти сервера ядра — то есть, например, нельзя украсть или забрать то, чего нет.
  • Роутер-сервер защищает от стандартных угроз и фильтрует нецелевой трафик.
  • У точки входа малая производительность — она ложится как плавкий предохранитель.

Подробнее:

Мы пока доделываем кластеризацию — раундробин и репликацию роутер-сервера. Точки доступа принципиально недублируемые, потому что это очень простая и дешёвая штуковина — проще развернуть новую, чем дублировать.

Детали:

Инсталляция сервера-маршрутизатора

Инсталляция происходит автоматически, но в её процессе фактически происходит следующее:
• На чистой системе создаётся новый пользователь с sudo-привилегиями
• Отключается root.
• Устанавливаются OpenVPN, iptables-persistent, Prometheus, MongoDB, Nginx, скрипты управления, резервного копирования, мониторинга и т. п.
• Настраивается iptables.
• Настраивается Prometheus.
• Конфигурируются prometheus и node-exporter.
• Конфигурируются Nginx и MongoDB.
• Распаковываются и конфигурируются все скрипты, агенты и образы систем, которые будут задействованы на этапах инсталляции точек доступа и подключения защищаемых серверов.

От недобросовестной конкуренции — вполне себе защита. Вопрос в том, всё ли мы предусмотрели в своём велосипеде.

Ну и приглашаю попробовать проверить, где центральный сервер. Вот две машины с опубликованным на них web-приложением (в развёрнутом периметре есть ещё точки доступа):
45.32.154.167 — маршрут №1 к сайту.
151.236.15.175 — маршрут №2 к тому же самому сайту.

Если найдёте IP центрального сервера — с меня бутылка. Покажете, как именно нашли, — вторая. Контактная почта: [email protected]

UPD 01.03.16 18:33 Кое-кто нашел третий маршрут к серверу, но не сам сервер.
UPD 01.03.16 21:38 Кое-кто еще нашел третий маршрут к серверу, но не сам сервер.
UPD 04.03.16 00:00 Спасибо всем большое за попытки и советы, кункурс приостанавливаю, адрес web-сервера найден не был.

как работает, сколько стоит, качество и отзывы — МирДоступа

Узнаем как работает и сколько стоит интернет в США…

США являются родиной интернета — большинство оборудования, обеспечивающего бесперебойную работу мировой паутины, всегда производилось и базировалось в Кремниевой Долине. Думаете, что интернет в США должен быть быстрым и дешевым? Вас ждет сюрприз…

Если зайти на сайты американских провайдеров, то можно, как минимум, удивится — стоимость интернет-услуг в штатах намного выше чем в России. Для среднестатистического россиянина цены на интернет в США покажутся, мягко говоря, завышенными. Отзывы о качестве услуг рядовых пользователей из США чаще негативные чем положительные.

Стоимость интернета в США

Жителю США стационарный интернет обойдется примерно в 40 долларов в месяц, кроме этого у большинства провайдеров со второго года подключения стоимость услуг повышается примерно на 50%. Заявленная скорость в большинстве штатов приближается 15 Мбит/с. Есть бюджетные провайдеры, например, Verizon, но бюджетные провайдеры работают не во всех штатах.

Мобильный интернет в США

Один из самых дешевых тарифов — Sim-10: стартовый пакет обойдется примерно в 45 долларов, а месячная плата составит около 50 долларов. За эти деньги предлагается 5 Гб трафика, LTE, безлимит на звонки по Америке.

Домашний интернет в США

Большинство провайдеров в США предлагают дополнительные услуги — интерактивное и кабельное телевидение, но такие услуги увеличивает стоимость абонентской платы примерно до $120. Предлагают интернет-услуги в штатах агрессивно – без довеска только низкоскоростные тарифы. Дополнительные услуги продаются намного настойчивее чем это делают кабельщики в России. Точек доступа бесплатного Wi-Fi достаточно — они имеются почти во всех ресторанах, кафе, сетях фастфуда, вокзалах, аэропортах, отелях.

Скорость интернета в США

Качество мобильной связи примерно такое же как и в России, что не удивительно — аппаратная часть у нас практически одинакова. Стабильнее всего в США работает 3G интернет. Стационарные точки чаще всего не выдерживают заявленных скоростей — по отзывам наших граждан, живущих в США, случаются регулярные обрывы подключения, а видео при просмотре значительно притормаживает. Большинство россиян говорят о том, что качество интернета в США хуже чем в России.

Особенности интернета в США

Монополизм на конкурентной основе проявляется как на уровне города, так и на уровне штата. В каждом доме, как правило, один провайдер. В некоторых штатах, например, во Флориде, один провайдер на все города. Рынок интернет в США поделен между четырьмя гигантами, а остальные игроки просто арендуют их мощности.

За последние два года, после того как мелкие муниципальные провайдеры выиграли затяжную судебную битву против «большой четверки» операторов, ситуация стала постепенно меняться, но опять же далеко не везде. Здесь сказываются прежде всего особенности законодательства США, которые во главу угла ставят конституцию штата, а не конституцию Федеральную — при таком подходе ждать стандартизированного качества интернет-услуг во всех Штатах не приходится.

Могут ли США отключить интернет в России

В связи с ажиотажем на тему может ли США отключить интернет в России, массовое отключение которого предрекают на 1 апреля, следует внести некоторую ясность. Большинство корневых DNS серверов, которые обеспечивает бесперебойную работу мировой паутины, действительно находятся в США. Но приостановить работу интернета указом какого бы то ни было правительства невозможно без применения силовых методов.

С технической точки зрения остановить работу мировой паутины в России возможно. Можно, например, «вынести» домен первого уровня ru, но это отразится только на доступности сайтов, которые имеют доменную зону ru. В России имеются зеркала 11 из 13 корневых DNS, кроме этого через эти сервера идет незначительная часть трафика, их главная функция — перенаправление DNS уровнем ниже. Рубильников с надписью «Выключить» интернет сегодня в мире точно не существует, как бы этого ни хотелось многим горячим головам

С точки зрения законодательство США корневыми DNS руководят различные коммерческие организации, университеты, некоммерческие организации, министерство обороны Соединенных Штатов и другие государственные структуры.

Руководство корневыми DNS осуществляется с разрешения ICANN, хотя юридически организации независимы друг от друга. Корпорация ICANN независима от федерального правительства — также как федеральный резерв, например, независим от правительственных структур.

Федеральный резерв является неправительственной организацией — работает эта структура следующим образом: если федеральные власти высказали желание изменить бюджет путем эмиссии доллара, то правительство обращается в федеральный резервный банк, если последний дает согласие, то выпускается новая партия банкнот. После этого федеральное правительство берет их у ФРБ в долг под проценты.

С политической точки зрения большинство экспертов и политологов сходятся на том, что США, в случае отключения России от интернета, только проиграет. «Китайский» вариант ограничений не стоит рассматривать всерьез — там политическая ситуация кардинально другая и принцип функционирования государство иной

В Китае правительство выдает провайдерам блеклист, по которому они блокируют доступ к определенным ресурсам или в определенные зоны. Если блокировка не происходит провайдер быстро блокируют иначе лицензию отнимут.

Facebook

Twitter

Мой мир

Вконтакте

Одноклассники

СЕРВЕР СЕТИ — это… Что такое СЕРВЕР СЕТИ?

  • сервер (сети и системы связи) — Функциональный узел в сети связи, который предоставляет данные другим функциональным узлам или выдает разрешение на доступ к своим ресурсам другим функциональным узлам, который может быть также логическим подразделом с независимым управлением… …   Справочник технического переводчика

  • Сервер удаленного доступа — программный сервер, принимающий PPP соединения и обеспечивающий удаленный доступ. Сервер удаленного доступа: подключается одновременно к локальной и к территориальной коммуникационной сетям; обеспечивает маршрутизацию блоков данных при их… …   Финансовый словарь

  • сервер диспетчерской системы цифровой сети железнодорожной радиосвязи — Сервер со специализированным программным обеспечением и централизованной базой данных, предназначенный для управления соединениями в цифровой сети железнодорожной радиосвязи. [ГОСТ Р 53953 2010] Тематики железнодорожная электросвязь EN dispatcher …   Справочник технического переводчика

  • Сервер Интернет — компьютер, подключенный к сети, или выполняющаяся на нем программа, предоставляющие клиентам доступ к общим ресурсам и управляющие этими ресурсами. Каждый компьютер, подключенный к сети Интернет имеет два равноценных уникальных адреса: цифровой… …   Финансовый словарь

  • СЕРВЕР — [англ. server Словарь иностранных слов русского языка

  • Сервер проверки подлинности локальной системы безопасности — Сервер проверки подлинности локальной системы безопасности (англ. Local Security Authority Subsystem Service, LSASS) часть операционной системы Windows, отвечающей за авторизацию локальных пользователей отдельного компьютера. Сервис… …   Википедия

  • сервер с запоминанием данных — Файл сервер, который принимает запросы клиентов, обрабатывает их и отсылает ответы, сохраняя в памяти информацию о текущей конфигурации сети. Обмен данными осуществляется короткими пакетами, т.к. отпадает необходимость в каждом из них передавать… …   Справочник технического переводчика

  • сервер вызовов — Зависящий от протокола механизм сигнализации, который маршрутизирует видео или речевые вызовы в сети. В протоколе H.323 таким объектом является контроллер шлюза. В протоколе SIP таким объектом является уполномоченный сервер SIP. Следует отметить …   Справочник технического переводчика

  • Сервер — программно аппаратный комплекс, предназначенный для централизованного хранения и обработки данных, поддержки функционирования основного программного обеспечения портала и т.п. Физически может представлять собой группу компьютеров и иного… …   Официальная терминология

  • Сервер базы данных — Сервер БД выполняет обслуживание и управление базой данных и отвечает за целостность и сохранность данных, а также обеспечивает операции ввода вывода при доступе клиента к информации. Архитектура клиент сервер состоит из клиентов и серверов.… …   Википедия

  • Что такое CDN и как это работает? / Selectel corporate blog / Habr

    Цифры и факты (вместо введения)


    • В 2010 году средний размер веб-страницы составлял 481 кБ. В 2019 — уже 1936.7 кБ (подробная статистика). За последние три года значение этого показателя выросло на 314.7%. Как показывают исследования, тенденция к увеличению размера веб-страниц сохраняется.
    • В настоящее время набирают популярность стриминговые аудио- и видеосервисы. По состоянию на апрель 2019 года число подписчиков популярного сервиса Spotify составило 217 миллионов.
    • По данным опросов 25% пользователей уходят с веб-страницы, если она загружается дольше 4 секунд. 74% пользователей, загружающих сайт с мобильного устройства, предпочитают не ждать, если загрузка длится более 5 секунд. 46% пользователей отказываются иметь дело с веб-сервисом, если он медленно работает.


    О чём свидетельствуют вышеприведенные факты?

    О том, что в Интернете с каждым годом становится все больше «тяжелого» контента.
    А также о том, что в современном мире огромную роль играет скорость работы веб-сайтов и сервисов. Если скорость слишком мала ― это чревато потерей аудитории, а во многих случаях ― ещё и прибыли. Один из надёжных способов решения этой проблемы ― использование сетей доставки контента (Content Delivery Networks, CDN).

    Selectel предлагает услугу CDN с 2014 года, и мы подробно изучили техническую сторону вопроса. В этой статье поговорим об устройстве и особенностях работы современных CDN.

    Основные термины


    Прежде чем начать предметный разговор об особенностях CDN, определимся с основной терминологией.

    CDN (Content Delivery Network) — это географически распределённая сетевая инфраструктура, обеспечивающая быструю доставку контента пользователям веб-сервисов и сайтов. Входящие в состав CDN cерверы географически располагаются таким образом, чтобы сделать время ответа для пользователей сайта/сервиса минимальным.

    Ориджин (origin) — сервер, на котором хранятся исходные файлы или данные, раздаваемые через CDN.

    PoP (point of presence, точка присутствия) — кэширующий сервер в составе CDN, расположенный в определенной географической локации. Для обозначения таких серверов также используется термин edge.

    Динамический контент ― контент, генерируемый на сервере в момент получения запроса (либо изменяемый пользователем, либо загружаемый из базы данных).

    Статический контент ― контент, хранимый на сервере в неизменяемом виде (например, бинарные файлы, аудио- и видеофайлы, JS и CSS).

    Немного истории и теории


    Резкий рост Интернета в середине 1990-х привел к ситуации, что серверы стали с трудом выдерживать нагрузку. С серверами того времени (которые по техническим характеристикам иногда были слабее не самого производительного современного ноутбука) приходилось идти на разные ухищрения: погуглите, например, «‎иерархическое кэширование» и information superhighway ― сейчас эти словосочетания используются разве что в статьях по истории интернет-технологий. Чтобы понять, как развивались технологии раздачи контента, сделаем небольшое теоретическое отступление.

    Обратим внимание: раздача статического и динамического контента связаны с разными типами нагрузки на сервер. В случае с динамическим контентом, генерация которого связана с обращениями к базе данных, важны быстродействие процессора и объём оперативной памяти.

    Для раздачи статического контента, который в большинстве случаев оказывается очень «‎тяжелым»‎ и который нужно загрузить очень быстро, важна в первую очередь скорость сети. Смысл технических решений для ускорения раздачи статики заключается в следующем: обеспечить горизонтальное масштабирование без сложных двусторонних синхронизаций с основным сервером.

    Для снижения нагрузки владельцы веб-сервисов ещё в конце 1990-х годов начали раздавать статику и динамику с разных серверов. Крупные веб-проекты с огромной аудиторией, разбросанной по всему миру, начали размещать серверы со статикой в разных географических точках.

    Тогда же, в конце 1990-х, стали появляться компании, у которых организация раздачи статики стала одним из основных направлений бизнеса. В 1998 году студент Массачусетского технологического института Дэниэл Левин и преподаватель математики Томсон Лейтон основали компанию Akamai. Ныне она является одним из крупнейших (если не самым крупным) CDN-провайдером в мире.

    Уже в 2004 году CDN использовали более 3000 компаний; общий объем расходов на доставку контента составлял до 20 миллионов долларов в месяц.

    Количество CDN во всём мире постоянно растет: соответствующие услуги предоставляют как крупные международные компании (например, Akamai, Amazon, Cloudflare), так и многочисленные региональные провайдеры (подробные обзоры).

    CDN используется не только для раздачи статики в строгом смысле слова: распределение контента по многочисленным серверам в разных точках планеты помогает обеспечивать доступность в периоды пиковых нагрузок.

    В течение последних 10-12 лет широкое распространение в Интернете получил еще один тип контента ― стриминговый (многочисленные сервисы потокового аудио и видео, которые в наши дни имеют огромную популярность и миллионную, если не миллиардную, аудиторию). Раздача сегодня является еще одним распространенным сценарием использования CDN.

    Рассмотрим принципы работы и особенности использования CDN более подробно.

    Как работает CDN


    Представим себе веб-сервис, которым пользуются люди на всей территории России. Основные серверы расположены в Санкт-Петербурге, а пользователи находятся в самых разных географических точках: скажем, в Краснодаре (2 604,2 км от Петербурга), Новосибирске (3 826,1 км), Иркутске (5 661, 7 км) или Владивостоке (9 602, 4 км). Чем дальше пользователь находится от оригинального сервера, тем больше время «‎оригинального»‎ ответа. На заре Рунета, в самом начале 2000-х, жители Южно-Сахалинска или Петропавловска-Камчатского могли дожидаться полной загрузки простой веб-страницы полновесные 5, а то и все 10, минут.

    При использовании CDN всё происходит по-другому: пользователь из Владивостока переадресуется к географически ближайшему кэширующему серверу в составе CDN, благодаря чему доставка статического контента происходит гораздо быстрее.

    Для ускорения раздачи динамики при использовании CDN используются другие механизмы: CDN-провайдер за счет своей сети сокращает сетевой маршрут.

    Ещё один интересный сценарий использования CDN ― так называемый live-streaming: пользователи Интернета со всего мира могут в браузере (а иногда и в специальном приложении) смотреть или слушать трансляцию с мест событий. Устроено это так: один или несколько ориджин-серверов принимают c видеокамеры транслируемый поток, который сразу же ретранслируется на точки присутствия. Ориджин-серверы при этом контент клиентам не раздают. В состав стриминговых CDN входят также балансировщики нагрузки, перенаправляющие запросы к наименее загруженным на текущий момент edge-серверам.

    Как организована раздача контента?


    Как правило, для настройки раздачи статического контента через CDN необходимо выполнить следующие шаги:

    Шаг 1: Вынести статику сайта на отдельный домен, например, static.example.com — это будет origin.

    Шаг 2: Для работы через CDN создать домен вида cdn.example.com.

    Шаг 3: Подключить CDN у провайдера. Для подключения владельцу веб-сервиса необходимо сообщить провайдеру следующее:
    домен, с которого он будет забирать статику — static.example.com;
    домен, с которого будет идти раздача — cdn.example.com.

    Шаг 4: У своего DNS-регистратора настроить CNAME запись с cdn.example.com на домен CDN-провайдера, который CDN провайдер выделяет при подключении.
    Например, в CDN Selectel такой домен имеет вид 85e77c09-bc03-43bf-b8f3-9492ae33390f.selcdn.net, где 85e72c09-bc03-43bf-b8f3-9492ae33390f генерируется автоматически.

    Шаг 5: На своем сайте изменить домен для статики, которую планируется раздавать через CDN, на cdn.example.com.

    Пользователь набирает в строке браузера адрес www.example.com, с которого он получает HTML-страницу. При этом весь статический контент, например, графические изображения, подгружается из CDN (с адреса cdn.example.com).

    Статический контент, предназначенный для раздачи, часто помещается в объектные хранилища (об этом мы писали еще шесть лет назад). Существует множество плагинов и расширений для популярных CMS (WordPress, Joomla, Drupal, 1C Битрикс и других), с помощью которых можно настроить интеграцию с облачными сервисами хранения и раздачу статики через CDN.

    Веб-сервис после подключения CDN будет работать на том же оригинальном сервере. Кэшированные части сайта будут загружены на серверы CDN-сети. Система находит для пользователя ближайший сервер и максимально быстро загружает статику сайта с него.

    Обратим внимание на один важный момент: серверы, входящие в состав CDN, не являются подобием файловых серверов, на которые контент размещается для последующего скачивания. CDN используются не для хранения контента, а для кэширования на основе конкретных алгоритмов.

    Как CDN понимает, где находится ближайший кэширующий сервер?


    Как правило, для подгрузки контента из CDN используются две популярные технологии: GeoDNS и AnyCast.

    С помощью GeoDNS можно привязать к одному доменному имени несколько IP-адресов. В зависимости от географического положения (определяется по IP-адресу, с которого пришел запрос) пользователь перенаправляется на ближайший сервер. Об особенностях работы GeoDNS можно почитать в этой статье (на английском языке).

    При использовании технологии Anycast адреса общие, но маршрутизация происходит на «‎свои» серверы в пределах региона. При обращении к адресу www.example.com пользователь переадресуется на ближайшую точку присутствия. Провайдер пользователя получает несколько анонсов от разных сетей, в которых есть точка присутствия, и маршрутизатор провайдера выбирает из них самый близкий. Ответ аналогичным образом возвращается по наиболее короткому маршруту.

    Как кэшируется контент?


    Самой распространенной является схема по первому обращению: максимальное количество времени на загрузку затрачивает пользователь, обратившийся к оригинальному серверу первым. Все последующие пользователи будут получать данные, кэшированные на ближайшей к ним точке присутствия.

    Здесь очень важна география: например, после обращения пользователя из Рио-де-Жанейро данные будут закэшированы на сервере, находящемся на территории Бразилии, что не решит проблемы со скоростью доступа для пользователей из Парижа или Лондона.

    Для преодоления ограничений, накладываемых этой схемой, используются технологии регионального извлечения: соседние серверы, входящие в состав CDN, забирают контент друг у друга, а не обращаются к оригинальному серверу.

    В большинстве CDN пользователь, отправивший запрос на получение статического контента, переадресуется к ближайшей точке присутствия и получает кэшированную версию этого контента с неё. Если ближайшая точка присутствия не сможет найти файлы, начнётся поиск по соседним точкам присутствия, откуда и будет перенаправлен ответ пользователю. В CDN Akamai эта процедура называется tiered distribution (на русский можно перевести как «многоуровневая раздача»).

    Для чего используются CDN?


    Чаще всего CDN используется для уменьшения времени отклика кэшированного контента, что, как мы уже упоминали выше, уменьшает отток посетителей из-за медленной загрузки ресурса и тем самым сокращает возможные финансовые потери. Также CDN помогает снизить риск потери доступа к контенту из-за падения основного сервера. Контент будет доступен всё время, пока вы восстанавливаете работоспособность основного сервера.

    Использование CDN существенно снижает нагрузку на основной сервер, что помогает решить проблему пиковых нагрузок. Современная CDN способна переживать очень большие нагрузки. В конце 2018 года компания Akamai заявила о рекордном объеме передаваемого через CDN трафика: 72 Тб/c.

    В наше время CDN активно используются также для раздачи стримингового контента.

    О чем важно помнить при работе с CDN?


    Как и любая технология, CDN обладает рядом особенностей.

    Самая первая проблема, с которой могут столкнуться использующие CDN веб-сервисы ― это задержки кэширования. Вполне вероятна следующая ситуация: на основном сервере файл был изменён, а вот на кэширующих серверах он всё ещё будет лежать в неизмененном виде. Это особенно важно, когда через CDN распространяется часто обновляемый контент (фотографии с места событий, новые версии ПО и так далее)

    Чтобы обеспечить доставку «свежего» контента в современных CDN имеется функция очистки кэша, то есть удаление контента из пула кэширования. Кроме того, владельцы сайтов и сервисов могут сами управлять настройками, используя заголовки-валидаторы (см. наши рекомендации на эту тему в опубликованной ранее статье).

    Еще одна сложность связана с блокировками: если по той или иной причине будут заблокированы сервисы, являющиеся вашими «соседями» по IP CDN-провайдера, вместе с вами может оказаться заблокированным и ваш сайт. Но и это проблема решаема: по запросу CDN-провайдеры могут изменить ваш IP-адрес.

    Кому нужны CDN?


    CDN нужны в первую очередь проектам с большой аудиторией в разных регионах или странах. Здесь всё ясно: снижение задержек, быстрая раздача контента и повышение уровня удобства, и, как следствие, больше довольных пользователей.

    CDN может пригодиться также разработчикам мобильных приложений: по статистике, пользователи часто отказываются продолжать работу с приложением из-за проблем со скоростью. В последнее время появились специальные технические решения, ориентированные на раздачу контента на мобильные устройства. Они так и называются ― Mobile CDNs. Соответствующие услуги предлагают многие крупные CDN-провайдеры ― например, Akamai или Amazon.

    Нужны CDN и проектам, ориентированным на распространение игрового, мультимедийного контента и стриминг (об этом уже было сказано выше).

    На что обратить внимание при выборе CDN-провайдера (вместо заключения)


    Число пользователей вашего веб-сервиса растет, аудитория расширяется, и вы задумываетесь о подключении CDN для оптимизации и ускорения раздачи статики и снижения нагрузки на основные серверы.

    На что нужно обратить внимание при выборе CDN-провайдера?

    Во-первых, на количество точек присутствия. Это особенно актуально для проектов с обширной международной аудиторией. Нелишним будет узнать информацию о точках присутствия в наиболее интересных для вас регионах и сопоставить их с потенциальной аудиторией сайта.

    Во-вторых, это наличие стыков с операторами связи. Это тоже немаловажный фактор, от которого зависит скорость и эффективность работы CDN. Например, у CDN-провайдера с точками присутствия в 100 городах, но небольшим количеством стыков задержка может быть больше, чем у провайдера, у которого точки присутствия расположены в 5 городах, но стыков с операторами связи гораздо больше.

    К сожалению, такую информацию в большинстве случаев CDN-провайдеры не публикуют, поэтому проверить всё можно только тестированием.

    В-третьих, на наличие дополнительных услуг и функций. Многие CDN-провайдеры предоставляют такие услуги, как анализ статистики потребления, управление политиками кэширования, управление HTTP-заголовками, предзагрузка очень «тяжёлого» (от 200 МБ и более контента), полная и выборочная очистка кэша.

    Кроме того, при выборе CDN-провайдера нужно проверить, поддерживает ли он необходимые вам технологии и протоколы (HTTP/2, IPv6, сертификаты SSL и другие).

    Там, где живет интернет | ФОТО НОВОСТИ

    Этот репортаж доступен в высоком разрешении.

    Когда заходите на сайт Google, вы попадаете в одну из самых мощных серверных сетей в известной Вселенной. Но как это выглядит изнутри?

    17 октября 2012 Google сделала то, что не делала за всю историю компании. Она показала свои дата-центры, где расположены сотни тысяч серверов, отвечающие за бесперебойную работу сервисов компании. 13 дата-центров  по всему миру являются единым организмом. Это место, где живет интернет.

    25 фото

    Компания Google была зарегистрирована в 1998 году, но ее история началась немного раньше. Первый сервер будущего Google имел емкость целых 40 гигабайт.

    Сегодня компания «немного» подросла. Чтобы каждый мог в деталях и подробностях ознакомиться с работой дата-центров, взглянуть на это величие, Google создал специальную веб-страницу. Снимки сопровождаются различными пояснениями, рассказывающими о технологиях. Фотографии Конни Жу (Connie Zhou).

    1. Дата-центр в Южной Каролине, США. «Если что-то произойдет с нашими данными, у нас всегда есть копии на лентах. Одно из мест, где мы осуществляем резервное копирование, находится здесь, в этой библиотеке. Роботизированные руки (видны в конце прохода), помогают нам с погрузкой и разгрузкой лент, когда к ним необходим доступ»:

    2. Дата центр в Айова, США. «Наши дата-центры „разговаривают“ и общаются друг с другом. Для обмена информацией между серверами мы используем волоконно-оптические сети, позволяющие передавать данные в 200 000 раз быстрее, чем типичная скорость домашнего интернета. Вот эти кабели, в желтых лотках под потолком»:



    3. Вид сверху на дата центр в Айова, США:

    4. Дата центр в Айова, США. Системы охлаждения серверов выглядят грандиозно:

    5. Айова, США. Тарелки сервиса Fiber TV — сотни каналов национального телевидения:

    6. Дата-центр в Орегоне, США:

    7. Дата-центр в Орегоне, США. «Эти разноцветные трубы — система охлаждения дата-центра. В синих трубах находится холодная вода, в красных — возвращающаяся обратно после охлаждения серверов теплая вода».

    8. «Мы раскрасили трубы в яркие цвета, чтобы было веселее. Но каждый цвет еще несет и информацию. Например, ярко-розовые трубы идут от охладителей»:

    9. Дата-центр в Оклахоме, США. «Вот что находится сзади наших серверов. Сотни вентиляторов гонят по тоннелю нагретый воздух в охлаждающее устройство»:

    10. Дата-центр в Оклахоме, США:

    11. Дата-центр в Оклахоме, США. Система охлаждения:

    12. Технические работы в дата-центре в Северной Каролине, США:


    13. Дата-центр в Орегоне, США. «Диагностика перегретых процессоров. За более чем 10 лет, мы создали самую эффективную систему серверов в мире»:

    14. Дата-центр в штате Джорджия, США. Проверка системы охлаждения. Трубы идут внизу:

    15. Центр мониторинга дата-центров, Оклахома, США:

    16. Антенна для сверхскоростного интернета и сервиса Fiber TV. Доступ в домашний интернет может осуществляться на скорости 973 Мбит/с. Также доступен Google Fiber TV (более 160 каналов), внешний жесткий диск емкостью 2 ТБ, 1 ТБ для хранения видеофайлов в «облачном» сервисе Google Drive. Все это доступно пока для жителей Канзас-Сити (штат Канзас) и Канзас-Сити (штат Миссури):

    17. Штат Айова. Пар над градирнями для охлаждения воды из системы охлаждения серверов:

    18. Корпуса дата-центра в Джорджии, США:

    19. Один из 3-х европейских дата-центров. Хамина, Финляндия:

    20. Дата-центр в Финляндии. Голубые огоньки говорят, что все в порядке в серверной:

    21. Дата-центр в Финляндии. Трубы охлаждающей системы:

    22. Дата-центр в Айова, США:

    23. Олени и дата-центр в Айове, США:

    24. Дата-центр в Джорджии, США. «Наши сервера — самые эффективные в мире»:

    25. Наверное, так и выглядит настоящая Матрица.

    Google также предложила пользователям совершить виртуальную экскурсию по дата-центру в Северной Каролине с помощью сервиса Google Street View.

    Leave a comment