Устройство интернета – Основы компьютерных сетей. Тема №4. Сетевые устройства и виды применяемых кабелей

Содержание

компьютер как устройство связи / Habr

Другие статьи цикла:
  • История реле
  • История электронных компьютеров
  • История транзистора
  • История интернета

В первой половине 1970-х экология компьютерных сетей отошла от своего изначального предка ARPANET и разрослась в несколько разных измерений. Пользователи ARPANET обнаружили новое приложение, электронную почту, которая стала основной активностью в сети. Предприниматели выпускали свои варианты ARPANET для обслуживания коммерческих пользователей. Исследователи по всему миру, от Гавайев до Европы разрабатывали новые типы сетей для удовлетворения нужд или исправления ошибок, не учтённых ARPANET.

Почти все участники этого процесса отошли от изначально определённой цели ARPANET – обеспечить общий доступ к вычислительным машинам и программам для разношёрстного спектра исследовательских центров, у каждого из которых были собственные особые ресурсы. Компьютерные сети стали в первую очередь средством объединения людей друг с другом или с удалёнными системами, служившими источником или свалкой человекочитаемой информации, к примеру, с информационными базами данных или принтерами.


Эту возможность предвидели Ликлайдер и Роберт Тэйлор, хотя не этой цели они пытались достичь, запуская первые сетевые эксперименты. У их статьи от 1968 года «Компьютер как устройство связи» отсутствует энергия и вневременное качество пророческой вехи в истории компьютеров, которые можно найти в статьях Вэнивара Буша «Как мы можем мыслить» или Тьюринга «Вычислительные машины и интеллект». Тем не менее, она содержит пророческий фрагмент касаемо ткани социального взаимодействия, сплетаемой компьютерными системами. Ликлайдер и Тэйлор описали недалёкое будущее, в котором:

Вы не будете отправлять письма или телеграммы; вы будете просто определять людей, чьи файлы нужно связать с вашими, и с какими частями файлов их нужно связывать, и, возможно, определять коэффициент срочности. Вы редко будете звонить по телефону, вы попросите сеть связать ваши консоли.

В сети будут доступны функции и сервисы, на которые вы будете оформлять подписку, и другие услуги, которыми вы будете пользоваться по необходимости. В первую группу войдут консультации по инвестициям и налогам, отбор информации из вашей области деятельности, объявления о культурных, спортивных и развлекательных событиях, соответствующих вашим интересам, и т.д.

(Правда, также в их статье было описано, как на планете исчезнет безработица, поскольку в итоге все люди станут программистами, обслуживающими нужды сети, и будут заниматься интерактивной отладкой программ.)

Первый и наиболее важный компонент этого управляемого компьютерами будущего – электронная почта – распространилась на манер вируса по ARPANET в 1970-х, начав захватывать весь мир.

Email


Чтобы понять, как развивалась в ARPANET электронная почта, сначала нужно понять, какое важное изменение захватило вычислительные системы всей сети в начале 1970-х. Когда ARPANET впервые задумывали в середине 1960-х, у оборудования и управляющих программ, стоявших на каждой из точек, практически не было ничего общего. Многие точки концентрировались на специальных, существующих в единственном экземпляре системах, к примеру, Multics в MIT, TX-2 в лаборатории Линкольна, ILLIAC IV, строившийся в Иллинойском университете.

Но уже к 1973 году ландшафт компьютерных систем, подсоединённых к сети, приобрёл значительное единообразие, благодаря бешеному успеху компании Digital Equipment Corporation (DEC) и её проникновению на рынок научных вычислений (это было детище Кена Ольсена и Харлана Андерсона, основанное на их опыте работы с TX-2 в лаборатории Линкольна). DEC разработала мейнфрейм PDP-10, вышедший в 1968 и обеспечивавший надёжную работу разделения времени для небольших организаций, предоставляя целый набор инструментов и языков программирования, встроенных в него для упрощения подстройки системы под конкретные нужды. Именно это и нужно было научным центрам и исследовательским лабораториям того времени.


Посмотрите, сколько тут PDP!

Компания BBN, отвечавшая за поддержку ARPANET, сделала этот комплект ещё более привлекательным, создав операционную систему Tenex, добавившую страничную виртуальную память в PDP-10. Это серьёзно упростило управление и использование системы, поскольку больше не нужно было подгонять набор запущенных программ к доступному объёму памяти. BNN поставляла Tenex бесплатно на другие узлы ARPA, и вскоре эта ОС стала доминирующей в сети.

Но как всё это связано с емейлом? Пользователи систем с разделением времени уже были знакомы с электронными сообщениями, поскольку к концу 1960-х большинство из этих систем предоставляли почтовые ящики того или иного рода. Они обеспечивали некий вид внутренней почты, и письмами могли обмениваться только пользователи одной системы. Первым человеком, воспользовавшимся преимуществами наличия сети для передачи почты с одной машины на другую, стал Рэй Томлинсон, инженер из BBN и один из авторов Tenex. Он уже написал программу SNDMSG для отправки почты другому пользователю той же самой системы Tenex, и программу CPYNET для отправки файлов по сети. Оставалось лишь немного включить воображение, и он смог увидеть, как скомбинировать две эти программы для создания сетевой почты. В предыдущих программах для обозначения получателя требовалось только имя пользователя, поэтому Томлинсон придумал комбинировать имя местного пользователя и название хоста (местного или удалённого), соединяя их символом @, и получая уникальный для всей сети адрес емейл (прежде символ @ использовали редко, в основном для обозначения цен: 4 пирожных @ $2 за штуку).


Рэй Томлинсон в поздние годы, на фоне его характерного знака @

Томлинсон начал тестировать свою новую программу локально в 1971 году, а в 1972 его сетевая версия SNDMSG вошла в новый релиз Tenex, и результате чего почта Tenex смогла вырваться за рамки одного узла и распространиться по всей сети. Обилие машин под управлением Tenex дало доступ к гибридной программе Томлинсона сразу большей части пользователей ARPANET, и емейл немедленно снискал успех. Довольно быстро руководители ARPA включили использование емейла в повседневную жизнь. Стивен Лукасик, директор ARPA, был одним из первых пользователей, как и Ларри Робертс, всё ещё бывший главой отдела информатики в агентстве. Эта привычка неизбежно перешла и к их подчиненным, и вскоре емейл стал одним из базовых фактов жизни и культуры ARPANET.

Почтовая программа Томлинсона породила множество различных имитаций и новых разработок, поскольку пользователи искали способы улучшить её рудиментарную функциональность. Большая часть первых инноваций концентрировалась на исправлении недостатков программы для чтения писем. Когда почта вышла за пределы единственного компьютера, объём получаемых активными пользователями писем начал расти вместе с ростом сети, и традиционный подход к входящим письмам как к простому тексту перестал быть эффективным. Сам Ларри Робертс, не справляясь со шквалом входящих сообщений, написал собственную программу для работы с папкой «входящие» под названием RD. Но к середине 1970-х с большим отрывом по популярности лидировала программа MSG, написанная Джоном Витталом из Южно-Калифорнийского университета. Возможность по нажатию кнопочки автоматически заполнять поля названия и получателя исходящего сообщения на основе входящего мы принимаем за данность. Однако именно программа MSG Витала впервые представила эту удивительную возможность «ответить» на письмо в 1975 году; и она тоже входила в набор программ для Tenex.

Разнообразие подобных попыток потребовало ввести стандарты. И это было первым, но далеко не последним случаем, когда сетевому компьютерному сообществу пришлось разрабатывать стандарты задним числом. В отличие от базовых протоколов ARPANET до появления каких-либо стандартов для емейла в дикой природе уже существовало множество вариантов. Неизбежно появились противоречия и политические трения, сконцентрировавшиеся на главных документах, описывавших стандарт емейла, RFC 680 и 720. В частности, пользователи ОС, отличных от Tenex, раздражённо возмущались тем, что предположения, встречающиеся в предложениях, были привязаны к особенностям Tenex. Конфликт никогда не разгорался слишком сильно – все пользователи ARPANET в 1970-х были всё ещё частью одного, относительно небольшого научного сообщества, да и разногласия были не такими уж крупными. Однако это был пример будущих битв.

Неожиданный успех емейла стал наиболее важным событием в развитии программного слоя сети в 1970-х – наиболее отвлечённого от физических деталей сети слоя. В то же время другие люди решились переопределить основополагающий слой «связи», в котором биты перетекали от одной машины к другой.

ALOHA


В 1968 году в Гавайский университет из Калифорнии прибыл Норма Абрамсон, чтобы заступить на совмещённую должность профессора по электротехнике и информатике. У его университета был основной кампус на Оаху и дополнительный в Хило, а также несколько общественных колледжей и исследовательских центров, разбросанных по островам Оаху, Кауаи, Мауи и Гавайи. Между ними пролегали сотни километров воды и гористой местности. На основном кампусе работал мощный IBM 360/65, однако заказать у AT&T выделенную линию, соединяющую с ним терминал, расположенный в одном из общественных колледжей, было не таким лёгким делом, как на материке.

Абрамсон был экспертом по радарным системам и теории информации, и одно время работал инженером в компании Hughes Aircraft в Лос-Анджелесе. И его новое окружение, со всеми его физическими проблемами, связанными с проводной передачей данных, вдохновило Абрамсона на новую идею – что, если радио будет лучшим способом соединения компьютеров, чем телефонная система, которую, в конце концов, разрабатывали для передачи голоса, а не данных?

Для проверки своей идеи и создания системы, названной им ALOHAnet, Абрамсон получил финансирование у Боба Тэйлора из ARPA. В первоначальном виде это была вообще не компьютерная сеть, а среда для связи удалённых терминалов с единственной системой разделения времени, разработанной для компьютера IBM, находившегося в кампусе Оаху. Как и в ARPANET, у неё был выделенный мини-компьютер для обработки пакетов, полученных и отправленных машиной 360/65 – Menehune, гавайский эквивалент IMP. Однако ALOHAnet не усложняла себе жизнь маршрутизацией пакетов между разными точками, какая использовалась в ARPANET. Вместо этого каждый терминал, желавший отправить сообщение, просто отправлял его в эфир на выделенной частоте.


Полностью развёрнутая ALOHAnet в конце 1970-х, с несколькими компьютерами в сети

Традиционным инженерным способом обрабатывать подобную общую полосу передач был порезать её на участки с разделением времени вещания или частот, и выделить каждому терминалу по участку. Но для обработки сообщений от сотен терминалов по такой схеме пришлось бы ограничить каждый из них малой долей доступной пропускной способности, при том, что реально в режиме работы могли находиться лишь несколько из них. Но вместо этого Абрамсон решил никак не мешать терминалам отправлять сообщения одновременно. Если два и более сообщений накладывались друг на друга, центральный компьютер обнаруживал это благодаря кодам коррекции ошибок, и просто не принимал эти пакеты. Не получив подтверждения в получении пакетов, отправители пробовали отправлять их снова по прошествии случайного количества времени. Абрамсон подсчитал, что такой простой протокол работы сможет поддерживать до нескольких сотен одновременно работающих терминалов, а из-за многочисленных наложений сигналов утилизировано будет 15% пропускной способности полосы. Однако по его вычислениям выходило, что при увеличении сети вся система свалится в хаос шума.

Офис будущего


Концепция «пакетного широковещания» Абрамсона сначала не вызвала шумихи. Но затем она родилась заново — через несколько лет, и уже на материке. Это было связано с новым исследовательским центром в Пало-Альто компании Xerox (PARC), открывшимся в 1970-м прямо рядом со Стэнфордским университетом, в районе, который незадолго до этого прозвали «Кремниевой долиной». Некоторые патенты Xerox по ксерографии вот-вот должны были закончиться, поэтому компания рисковала попасть в ловушку собственного успеха, не адаптируясь из-за нежелания или невозможности к расцвету вычислительной техники и интегральных схем. Джек Голдман, глава исследовательского отдела Xerox, убедил больших боссов, что новая лаборатория – отделённая от влияния штаб-квартиры, устроенная в комфортабельном климате, с хорошими зарплатами – привлечёт талант, необходимый для того, чтобы компания оставалась на переднем крае прогресса, разрабатывая информационную архитектуру будущего.

PARC определённо преуспел в вопросе привлечения лучших талантов из области информатики, и не только из-за условий работы и щедрой зарплаты, но и благодаря присутствию Роберта Тэйлора, в 1966-м запустившего проект ARPANET, будучи главой отдела ARPA по технологии обработки информации. Роберт Меткалф, вспыльчивый и амбициозный молодой инженер и специалист по информатике из Бруклина, был одним из тех, кто попал в PARC благодаря связям с ARPA. Он присоединился к лаборатории в июне 1972 года после того, как аспирантом работал на полставки для ARPA, изобретая интерфейс для соединения MIT с сетью. Устроившись в PARC, он всё равно остался «посредником» ARPANET – ездил по стране, помогал присоединять к сети новые точки, а также готовиться к презентации ARPA на международной конференции по компьютерной связи 1972 года.

Среди проектов, курсировавших в PARC на момент прибытия Меткалфа, был предложенный Тэйлором план подсоединения десятков, или даже сотен мелких компьютеров к сети. Год за годом стоимость и размеры компьютеров падали, подчиняясь неукротимой воле Гордона Мура. Смотрящие в будущее инженеры из PARC предвидели, что в не очень далёком будущем у каждого офисного работника будет свой собственный компьютер. В рамках этой идеи они разработали и создали персональный компьютер Alto, копии которого раздали каждому исследователю в лаборатории. Тэйлор, который за предыдущие пять лет только укрепился в своей вере в полезность компьютерной сети, тоже хотел связать все эти компьютеры вместе.


Alto. Сам компьютер находится снизу, в шкафчике размером с мини-холодильник.

Прибыв в PARC, Меткалф взял на себя задачу подключения принадлежавшего лаборатории клона PDP-10 к ARPANET, и быстро заработал репутацию «сетевика». Поэтому когда Тэйлору понадобилась сеть из Alto, его помощники обратились к Меткалфу. Как и компьютерам в ARPANET, компьютерам Alto в PARC практически нечего было сказать друг другу. Поэтому интересным применением сети снова стала задача по осуществлению общения людей – в данном случае, в виде слов и изображений, печатаемых лазером.

Ключевая идея лазерного принтера появилась не в PARC, а на восточном берегу, в первоначальной лаборатории Xerox в Вебстере, Нью-Йорк. Тамошний физик Гэри Старкуэзер доказал, что когерентный лазерный луч можно использовать для деактивации электрического заряда ксерографического барабана, точно так же, как и рассеянный свет, использовавшийся в фотокопии до того момента. Луч, будучи правильно модулированным, может рисовать изображение произвольной детализации на барабане, которое затем можно переносить на бумагу (поскольку только незаряженные части барабана захватывают тонер). Такая машина под управлением компьютера сможет выдавать любые комбинации изображений и текста, какие только придут в голову человеку, а не просто воспроизводить существующие документы, как фотокопировальный аппарат. Однако дикие идеи Старкуэзера не получили поддержки ни у его коллег, ни у его начальства в Вебстере, поэтому он перевёлся в PARC в 1971-м, где встретился с куда как более заинтересованной аудиторией. Возможность лазерного принтера выводить произвольные изображения поточечно сделала его идеальным партнёром для рабочей станции Alto, с её пиксельной монохромной графикой. При помощи лазерного принтера полмиллиона пикселей на дисплее пользователя можно было напрямую вывести на бумагу с идеальной чёткостью.


Битовое изображение на Alto. Ничего подобного на дисплеях компьютеров раньше никто не видел.

Примерно за год Старкуэзер, заручившись помощью ещё нескольких инженеров из PARC, устранил основные технические проблемы, и построил рабочий прототип лазерного принтера на шасси рабочей лошадки Xerox 7000. Страницы он выдавал с той же скоростью – по штуке в секунду – и с разрешением в 500 точек на дюйм. Генератор символов, встроенный в принтер, печатал текст предустановленными шрифтами. Произвольные изображения (отличные от тех, что можно было создать из шрифтов) пока не поддерживались, поэтому сети не нужно было передавать 25 млн бит в секунду для принтера. Тем не менее, для того, чтобы полностью занять принтер, потребовалась бы невероятная для тех времён пропускная способность сети – когда 50 000 бит в секунду были пределом возможностей ARPANET.


Лазерный принтер PARC второго поколения, Dover (1976)

Сеть Alto Aloha


И как же Меткалф смог заполнить этот разрыв в скорости? Вот мы и вернулись к ALOHAnet – оказалось, что Меткалф лучше кого бы то ни было разбирался в пакетном широковещании. За год до этого, летом, находясь в Вашингтоне вместе со Стивом Крокером по делам ARPA, Меткалф изучал материалы общей осенней компьютерной конференции, и наткнулся там на работу Абрамсона по ALOHAnet. Он сразу же понял гениальность базовой идеи, и то, что её реализация была недостаточно хорошей. Внеся некоторые изменения в алгоритм и его предположения – к примеру, сделав так, чтобы отправители сначала слушали эфир, ожидая очистки канала, перед тем, как пытаться отправлять сообщения, а также экспоненциально увеличивали интервал повторной передачи в случае забитого канала – он мог добиться утилизации пропускной полосы на 90%, а не на 15%, как выходило из расчётов Абрамсона. Меткалф взял небольшой отпуск, съездил на Гавайи, где включил свои идеи по поводу ALOHAnet в переработанный вариант своей докторской, после того, как Гарвард отклонил её первоначальную версию за отсутствием теоретической базы.

Сначала Меткалф назвал свой план по внедрению пакетного широковещания в PARC «сетью ALTO ALOHA». Затем в докладной записке от мая 1973 года он переименовал её в Ether Net [эфирная сеть], с отсылкой к светоносному эфиру, физической идеи XIX века о субстанции, переносящей электромагнитное излучение. «Это будет способствовать распространению сети, — писал он, — и кто знает, какие ещё способы передачи сигнала окажутся лучше кабеля для широковещательной сети; возможно, это будут радиоволны, или телефонные провода, или питание, или кабельное телевидение с частотным уплотнением, или микроволны, или их комбинации».


Набросок из докладной записки Меткалфа 1973 года

С июня 1973 года Меткалф работал с другим инженером из PARC, Дэвидом Боггсом, над воплощением своей теоретической концепции новой высокоскоростной сети в работающую систему. Вместо передачи сигналов по воздуху, как у ALOHA, он ограничивал радиоспектр коаксиальным кабелем, что кардинально увеличивало пропускную способность по сравнению с ограниченной полосой радиочастот у Menehune. Сама передающая среда была полностью пассивной, и не требовала никаких маршрутизаторов для роутинга сообщений. Она была дешёвой, и позволяла с лёгкостью подключить сотни рабочих станций – инженеры PARC просто провели коаксиальный кабель через здание, и добавляли подключения к нему по необходимости – а также была способна пропускать по три миллиона бит в секунду.


Роберт Меткалф и Дэвид Боггс, 1980-е, через несколько лет после того, как Меткалф основал 3Com для продажи технологии Ethernet

К осени 1974 года в Пало-Альто был развёрнут и работал законченный прототип офиса будущего – первая партия компьютеров Alto, с программами для рисования, емейлом и текстовыми процессорами, прототипом принтера от Старкуэзера и сетью Ethernet для объединения всего этого в сеть. Центральный файловый сервер, хранивший данные, которые не поместились бы на локальном диске Alto, был единственным общим ресурсом. Изначально PARC предлагала контроллер Ethernet как дополнительный аксессуар для Alto, но когда систему запустили, стало ясно, что он был необходимой частью; по коаксиалу пошёл неизменный поток сообщений, многие из которых выходили из принтера – технические отчёты, докладные записки или научные работы.

Одновременно с разработками для Alto, ещё один проект из PARC попытался продвинуть в новом направлении идеи по разделению ресурсов. «Онлайновая офисная система PARC» (POLOS), разработанная и внедрённая Биллом Инглишем и другими беглецами из проекта Дуга Энгельбарта «Онлайновая система» (NLS) Стэнфордского исследовательского института, состояла из сети микрокомпьютеров Data General Nova. Но вместо того, чтобы посвещять каждую отдельную машину определённым нуждам пользователя, в POLOS работа передавалась между ними, чтобы служить интересам системы в целом наиболее эффективным образом. Одна машина могла заниматься генерацией изображений для экранов пользователей, другая обрабатывать трафик ARPANET, третья – текстовыми процессорами. Но сложность и затраты на координацию в таком подходе оказались чрезмерными, и схема рухнула под собственным весом.

А тем временем, ничто иное не показывало эмоциональное отторжение Тэйлором подхода к сети с разделением ресурсов лучше, чем его принятие проекта Alto. Алан Кей, Батлер Лэмпсон и другие авторы Alto принесли всю вычислительную мощность, которая может понадобиться пользователю, на его независимый компьютер на столе, которым он не должен был ни с кем делиться. Функцией сети было не обеспечение доступа к разнородному набору компьютерных ресурсов, а передача сообщений между этими независимыми островами, или хранение их на каком-то дальнем берегу – для распечатки или долгосрочного архивирования.

Хотя и емейл, и ALOHA были разработаны под покровительством ARPA, появление Ethernet стало одним из нескольких появившихся в 1970-х признаков того, что компьютерные сети стали слишком большими и разнообразными для того, чтобы на этом поприще могла доминировать одна компания, и эту тенденцию мы отследим в следующей статье.

Что ещё почитать


  • Michael Hiltzik, Dealers of Lightning (1999)
  • James Pelty, The History of Computer Communications, 1968-1988 (2007) [http://www.historyofcomputercommunications.info/]
  • M. Mitchell Waldrop, The Dream Machine (2001)

Как устроен интернет? — Интересно знать

14.04.2019 20:51 528

В современном мире интернет прочно вошёл в жизнь многих людей. С его помощью можно общаться, находясь далеко друг от друга, получать разную информацию, смотреть фильмы и слушать музыку. Многие из вас, ребята, уже знакомы с интернетом.
А вот как устроен интернет?
В сеть интернет вы заходите с помощью компьютера. В каждом компьютере есть специальная сетевая карта, которая отвечает за то, чтобы на компьютере работал интернет.

К сетевой карте в специальный разъём подключается проводок, называемый патчкордом. Этот патчкорд соединяет компьютер со специальным устройством — коммутатором. К коммутатору может быть подлючено много компьютеров. Каждый компьютер подключен к коммутатору в специальный порт. Если вы заходите в интернет по беспроводной сети (Wi-Fi), то тогда к коммутатору подключается ваш роутер.

Коммутатор собирает информацию (данные) с каждого компьютера, соединяет её вместе (в один поток) и передаёт по одному патчкорду далее на следующее устройство, которое называется маршрутизатор. Название коммутатор происходит от слова коммутация, то есть он коммутирует (соединяет, собирает) данные с каждого компьютера, чтобы передать их дальше.

Если вы хотите отправить письмо по электронной почте своим друзьям, то вашему компьютеру нужно знать информацию о том, где находятся их компьютеры. Для этого были придуманы специальные адреса, которые есть у каждого компьютера. Они называются MAC-адрес и IP-адрес (мак-адрес и айпи-адрес). MAC-адрес состоит из цифр и букв. Он находится в сетевой карте каждого компьютера и устанавливается уже на заводе. IP-адрес состоит только из цифр. Компьютер получает его автоматически через специальный сервер, либо он назначается специалистом (сетевым инженером). MAC-адрес и IP-адрес на каждом компьютере всегда разные. Кроме компьютеров, MAC-адрес и IP-адрес есть у каждого маршрутизатора и каждого коммутатора.
 Название маршрутизатор происходит от слова маршрут. В сети интернет находится много маршрутизаторов, которые расположены в разных местах, и стараются передавать данные друг другу по более короткому маршруту.

Это можно сравнить с тем, как вы едете на машине из одного места в другое, выбирая более короткий путь. Получив данные от коммутатора, маршрутизатор передаёт их другим маршрутизаторам, которые находятся ближе к компьютеру ваших друзей. Маршрутизатор всегда знает IP-адрес соседнего (ближайшего) к нему маршрутизатора. Получив данные, самый ближний к компьютеру ваших друзей маршрутизатор, передаёт их к уже упомянутому нами коммутатору (только не тому, который ближе к вашему компьютеру, а к другому, компьютеру ваших друзей). Коммутатор принимает эти данные. Поскольку он знает MAC-адрес каждого компьютера, который к нему подключен, то он и передаёт их в виде вашего сообщения.
Если вы, ребята, заходите на какой-нибудь сайт, то набирая его название, вы попадаете на сервер, где этот сайт находится.
Север — это почти тот же компьютер, очень похожий по своим функциям, только выглядит он иначе (у него нет монитора и клавиатуры).

На серверах хранятся разные сайты и большое количество всякой другой информации. Серверы расположены в стойках, которые находятся в специальных помещениях — дата-центрах, где за ними следят люди и поддерживается нужная температура.

Названия сайтов (их ещё называют доменными именами)придуманы для нас с вами, чтобы их можно было легче запомнить. Компьютер же видит название сайта в виде таких же цифр. Поэтому, когда вы вводите адрес сайта, то попадаете на специальный сервер, который переводит его название в IP-адрес нужного сервера, на котором находится сайт, который вам нужен.


«Твой Интернет». Часть 2. Устройство Интернета (Начало)

Сегодня я расскажу тебе об устройстве Интернета. Но не с научной точки зрения, а с такой, с которой его видят продвинутые пользователи.

«Твой Интернет». Часть 2. Устройство Интернета (Начало)«Твой Интернет». Часть 2. Устройство Интернета (Начало)

Сегодня я расскажу тебе об устройстве Интернета. Но не с научной точки зрения, а с такой, с которой его видят продвинутые пользователи. Зачем? Если ты — продвинутый пользователь, можешь смело пропускать этот пост (ну или прочитать просто для интереса, заодно и узнаешь, продвинутый ты или нет 🙂 ). Чтобы создать реальный сайт, нужно знать, ЧТО создавать. Не зная того, какие бывают сайты, как они существуют и взаимодействуют в Интернете, можно совершить большую ошибку с выбором идеи будущего проекта, и, как следствие, разочароваться в нем в дальнейшем. Ты хочешь разочароваться в своем детище? Вот и я думаю, что нет 🙂 , так что читай.

 

Устройство Интернета

Так как же устроен Интернет, и что это вообще такое? Думаю, многие принимают его как что-то само собой разумеющееся, но если попросить их дать определение, то впадут в ступор. На любое понятие можно смотреть с разных сторон и с каждой видеть его по-своему. Нельзя просто дать определение, например, яблоку, потому, что для одних это фрукт, для других — пища, а для кого-то вообще предмет для натюрморта. Но только если посмотреть на него со всех точек зрения, действительно понимаешь что это. Также дело обстоит и с Интернетом, и чтобы полностью понять, что же такое Всемирная Паутина,  рассмотрим ее с разных сторон.

Физическая сторона устройства Интернета

Все знают, что Интернет — это совокупность сетей, и входящих в них компьютеров. Но задумывался ли ты  над тем, кто является владельцем Интернета, и для чего ему, владельцу, все это нужно. Думаешь никто? Интернет общий и принадлежит всем пользователям сети? А почему же тогда за доступ к нему с тебя берут деньги? Интересный вопрос, не правда ли? 🙂

Когда я был студентом, на одной из лекций по информационным технологиям преподаватель задал нам этот вопрос. Возникло сразу очень много версий, но все они были не достаточно верными. И тогда он сам ответил на свой вопрос, ответил в шуточной форме, но я запомнил этот ответ очень хорошо, и помню до сих пор. Он сказал: «Владельцем Интернета является сообщество жадных провайдеров»©. Мне  кажется, что данный ответ полностью отражает физическую сторону Сети. Причем под словом «провайдеры» здесь понимаются не всякие мелкие компании уровня города, вроде каких-нибудь кабельных сетей, а очень крупные, соединяющие между собой сетями передачи данных города и даже целые страны. Таких компаний в мире на самом деле не так уж и много. И если вдруг в один день они по общему сговору отключат свои каналы, то Интернет в нынешнем понимании просто перестанет существовать. Напугал? 🙂 . Такого, конечно, не случится, поскольку это их заработок. Именно эти компании  и являются, так сказать, владельцами «Интернета с физической стороны». Спросишь, а почему «жадных»? Знал бы ты какова на самом деле себестоимость одного, переданного по глобальной сети, мегабайта… Отвечу фразой из знаменитого кинофильма: «Ничего личного. Просто бизнес» 🙂

На рисунке в начале поста изображена приблизительная физическая карта Интернета. Посмотреть это изображение в высоком разрешении, а также ознакомиться с историей создания Сети можно на сайте Википедии, а именно здесь.

Именная сторона устройства Интернета

Что представлял бы из себя Интернет, если бы у сайтов не было нормальных имен? Например, представь себе, что чтобы зайти на сайт, в адресной строке нужно было бы вводить не имя, а адрес сервера, на котором он находится, например http:// 82.146.47.109/блаблабла/. Звучит дико. Человеку легко запоминать текстовые имена и гораздо сложнее числовые. Так что без этих самых имен Интернет был бы совсем другим, каким-то недоразвитым 🙂 . Общепринятое название этих имен — домены.

Сейчас существует довольно большое количество регистраторов имен (доменов) — компаний, которые за небольшую плату (а иногда и за большую) оформят нравящееся тебе имя (домен), при условии, что оно свободно, и ты станешь его владельцем. Хочу сразу заметить, что это имя (домен) нельзя получить в собственность, а можно только арендовать,  но с правом продления срока аренды сколько угодно раз. Ты спросишь, с чего это вдруг у регистраторов появилось право торговать именами (доменами), ведь это практически тоже самое, что и продавать воздух или воду. На самом деле, регистраторы берут деньги именно за регистрацию имен (доменов), т.е за работу по внесению информации в единую базу данных, так называемый, Реестр доменов. Управляет Реестром всего одна организация, которая хоть и является некоммерческой, может считаться самой могущественной с «Именной стороны устройства Интернета». Называется она Internet Corporation for Assigned Names and Numbers, или ICANN. Прочитать про нее подробнее можно в Википедии, или на официальном сайте.

Доменное имя требуется каждому уважающему себя сайту, и твоему будет нужно тоже. Когда ты дочитаешь эту статью до конца, и определишься в выборе тематики проекта, можешь начинать придумывать для него имя, а заодно сразу же проверяй, не занял ли его кто-нибудь раньше. Как проверить? Например, на сайте Ру-Центра.

Вот ты и узнал, как устроен Интернет с физической и именной сторон. Осталась, третья, самая главная сторона — сайтовая сторона устройства Интернета. О ней я расскажу во второй части этой статьи.  Продолжение следует…

Об авторе

Об автореОб авторе

Wedal (Виталий). Веб-разработчик полного цикла (Full Stack). Создатель и автор сайта Wedal.ru.

Основной профиль – создание сайтов и расширений на CMS Joomla.

Понравилась статья? Сохраните себе на стену:

Facebook

Twitter

Вконтакте

Одноклассники

Google+

Ваша оценка материала очень важна для нас. Просим вас оценить статью или оставить отзыв в комментариях.

35% аудитории рунета вообще не используют компьютер для интернета / Habr


Пользование только мобильным интернетом. Источник: Омнибус ГФК-Русь, вся Россия, население 16+

По статистике GfK, в 2018 году резко увеличилась доля россиян, которые выходят в интернет только с мобильных устройств и вообще не пользуются для этого персональными компьютерами. За год «чисто мобильная» аудитория выросла с 18% до 35%.

Среди самых молодых пользователей у 41% компьютеры отсутствуют или не используются для интернета. Ситуация не слишком отличается для людей средних лет: 30%. Такими темпами смартфоны скоро могут стать основным устройством для выхода в интернет. Некоторые эксперты говорят, что это уже произошло.

Мобильная аудитория в России уже сейчас обходит десктопную: «Мобильный интернет — это и есть интернет, а десктоп для разработчиков уже стал частным случаем», — заявил в комментарии «Коммерсанту» ведущий аналитик Российской ассоциации электронных коммуникаций Карен Казарян. Но эксперт заметил, что полностью мобильным интернет в России не будет ещё долго, поскольку высок уровень владения ПК, в отличие от развивающихся стран.

Впрочем, хоронить проводной интернет рано, поскольку он незаменим для просмотра ТВ и видео в высоком разрешении — такой вывод сделали аналитики Deloitte в 2017 году, когда начала просматриваться тенденция перехода на мобильные устройства. Мобильный доступ также недостаточно быстр и надёжен для телемедицины и образовательных сервисов. С другой стороны, переход на сети 5G с гигабитной скоростью увеличит эффективность работы мобильных сетей.

На конец 2018 года 59% принявших участие в опросе россиян сказали, что пользуются интернетом на смартфоне. Их количество быстро растёт и в аппроксимации составляет уже 73 млн человек. А вот популярность планшетов, кажется, пошла на спад.


Проникновение мобильного интернета составляет 61% (смартфоны+планшеты). Источник: Омнибус ГФК-Русь, вся Россия, население 16+

В отчёте «Проникновение Интернета в России: итоги 2018 года» (pdf) приводятся и базовые показатели российского сегмента. За последний год аудитория рунета увеличилась на 3 млн человек, а проникновение достигло 75,4%, т. е. 90 млн.


Проникновение интернета в России. Источник: Омнибус ГФК-Русь, вся Россия, население 16+

В отдельных возрастных группах проникновение близко к максимуму (99% у россиян 16-29 лет), поэтому у некоторых русскоязычных сайтов аудитория практически прекратила расти. Но это не значит, что дальнейшей рост в принципе невозможен. Например, гендиректор Mail.ru Group Борис Добродеев рассчитывает на рост аудитории в том числе за счёт роста вовлечённости: «При этом можно прогнозировать рост других платформ взаимодействия с пользователями: Smart TV, выход в офлайн и омниканальность. Профиль пользователя рунета будет все больше обогащаться за счет интеграции в новые платформы», — сказал он.


Проникновение интернета в возрастных группах. Источник: Омнибус ГФК-Русь, вся Россия, население 16+

«Стремительный рост сегмента “mobile only” меняет все лицо интернета. Интернет уже в ближайшем будущем может стать прежде всего мобильным, и только во вторую очередь десктопным. Для интернет-сегмента это означает смену приоритетов при развитии digital продуктов, коммуникаций, рекламы. Производителям, ритейлерам и контент-провайдерам уже сейчас стоит убедиться, что их текущие продукты готовы для мобильных пользователей», — прокомментировал ситуацию Сергей Кетов, руководитель отдела медиа-исследований GfK Rus.

Гендиректор Telecom Daily Денис Кусков отметил, что в России до сих пор фиксированным интернетом не охвачено примерно 40% домохозяйств: это и есть потенциальная аудитория исключительно мобильного интернета. Фиксированным интернетом могут не пользоваться арендаторы квартир, а также молодёжь, привыкшая к портативной электронике.

Представитель мобильного оператора МТС Алексей Меркутов заявил, что мобильные устройства почти не уступают стационарным при решении повседневных типовых задач: пользовании мессенджерами, работе с электронной почтой, социальными сетями.

Всероссийский омнибус GfK — это регулярные опросы населения России в возрасте от 16 лет и старше по репрезентативной общенациональной выборке.

IoT и проблемы безопасности / Unet corporate blog / Habr

Интернет вещей (Internet of Things, IoT), как и любая быстроразвивающаяся технология, испытывает ряд «болезней роста», среди которых наиболее серьезной является проблема безопасности. Чем больше «умных» устройств подключается к сети, тем выше риски, связанные с несанкционированным доступом в IoT-систему и использованием ее возможностей злоумышленниками. Сегодня усилия многих компаний и организаций в сфере IT направлены на поиск решений, которые позволят минимизировать угрозы, тормозящие полноценное внедрение IoT.



«Умные», но уязвимые


Развитие концепции Интернета вещей и ее внедрение в различные сферы предусматривает наличие десятков миллиардов автономных устройств. По данным портала Statista в 2017 году их уже насчитывается более 20 млрд, а к 2025 году ожидается не менее 75 млрд. Все они подключены к Сети и передают через нее соответствующие их функционалу данные. И данные, и функционал являются мишенью для злоумышленников, а значит, должны быть защищены.

Для IoT-устройств безопасность заключается, прежде всего, в целостности кода, проверке подлинности пользователей (устройств), установлении правами владения (включая генерируемые ими данные), а также возможностью отражения виртуальных и физических атак. Но по факту, большинство из работающих сегодня IoT-устройств элементами защиты не снабжены, имеют доступные извне интерфейсы управления, дефолтных пароли, т.е., имеют все признаки веб-уязвимости.

Все еще помнят события годичной давности, когда ботнет Mirai путем подбора комбинаций дефолтных логинов и паролей взломал большое количество камер и роутеров, которые были в дальнейшем использованы для мощнейшей DDoS-атаки на провайдерские сети UK Postal Office, Deutsche Telekom, TalkTalk, KCOM и Eircom. При этом «бутфорс» IoT-устройств осуществлялся при помощи Telnet, а роутеры взламывались через порт 7547 с использованием протоколов TR-064 и TR-069.

Но самой резонансной, пожалуй, была атака, положившая DNS-оператора DYN, а вместе с ним практически «пол-Интернета» США. Для атаки ботнетом был использован самый легкий путь через установленные по умолчанию логины и пароли устройств.

Указанные события наглядно продемонстрировали бреши в IoT-системах и уязвимость многих «умных» устройств. Понятно, что сбои чьих-либо «умных» часов или фитнес-трекеров особого вреда, кроме расстройства их хозяев, не принесут. Но вот взлом IoT-устройств, которые входят в системы и сервисы M2M, в частности, интегрированы в критическую инфраструктуру, чреват непредсказуемыми последствиями. В этом случае степень их безопасности должна соответствовать важности той или иной инфраструктуры: транспортной, энергетической или другой, от которых зависит жизнедеятельность людей и работа экономики. Также и на бытовом уровне — сбои и атаки на ту же систему «умный» дом могут привести к локальным коммунальным или иным аварийным и опасным ситуациям.

Безусловно, угрозы для инфраструктуры существовали и в «доинтернетовские» времена — например, из-за тех же стихийных бедствий или ошибок проектантов. Однако с появлением в ней подключенных к Сети устройств добавилась еще одна, и, наверное, на порядок серьезней — кибератака.

Сертификация устройств


Существующая проблема безопасности IoT-устройств возникла не из-за технической глупости или безалаберности их разработчиков. Здесь «торчат уши» трезвого расчета: быстрота выхода на рынок дает преимущество перед конкурентами, пускай и ненадолго, и даже за счет низкого порога защищенности.

Большинство производителей не заморачиваются тем, чтобы тратить время и деньги на разработки и тестирования кодов и систем безопасности своих «умных» изделий.

Одним из способов заставить их пересмотреть свое отношение к безопасности выпускаемых ими IoT-продуктов может стать сертификация. Идея не нова, но все же заслуживает на внимание, по крайней мере, это хоть какой-то путь решения проблемы. Процедура сертификации IoT-устройств не должна быть забюрократизированной и предоставлять покупателю гарантию, что оно имеет определенную степень защиты от хакерских атак. Для начала о необходимости наличия сертификата безопасности может быть указано при осуществлении государственных и корпоративных закупок.

Сегодня вопросами сертификации занимаются и несколько частных компаний. В частности, компания Online Trust Alliance (OTA) вышла с инициативой решения проблемы безопасности IoT на уровне государств и производителей, выпустив IoT Trust Framework — перечень критериев для разработчиков, производителей устройств и поставщиков услуг, который направлен на улучшение безопасности, конфиденциальности и жизненного цикла их IoT-продуктов. В первую очередь, он ориентирован на подключенные домашние, офисные и носимые устройства и является неким рекомендательным кодексом поведения и основой для нескольких программ сертификации и оценки рисков.

В текущем году независимым подразделением компании Verizon — ICSA Labs была запущена программа тестирования безопасности и сертификации IoT-устройств. Как утверждают ее разработчики, она является одной из первых в своем роде, и тестирует такие составляющие, как уведомление/протоколирование, криптография, аутентификация, связь, физическая безопасность и безопасность платформы. Устройства, которые прошли сертификацию, будут отмечены специальным знаком одобрения ICSA Labs, указывающим на то, что они были тестированы, а обнаруженные уязвимости были устранены. Также прошедшие сертификацию устройства будут находиться под наблюдением и периодически тестироваться на протяжении всего их жизненного цикла для сохранения их безопасности.

В свою очередь программа тестирования и сертификации компании UL Cybersecurity Assurance (CAP) направлена на обеспечение безопасности продуктов и систем. Сертификация CAP удостоверяет, что продукт или система обеспечивают разумный уровень защиты от рисков, которые могут привести к непреднамеренному или несанкционированному доступу, изменению или сбою. Кроме того, CAP также подтверждает, что будущие патчи, обновления или новые версии ПО для сертифицированного продукта или системы не приведут к снижению уровня защиты, существующего на момент оценки.

Впрочем, многие эксперты по безопасности IoT считают что наибольшая польза от таких программ сертификации будет при тестировании не только конкретного устройства, а всей экосистемы: используемой им инфраструктуры, приложений и т.д. Ведь протестированное и безопасное IoT-устройство может выйти из строя и в процессе взаимодействия внутри системы.

Имея безусловные плюсы для развития IoT, сертификационные программы имеют и обратную сторону. Один лишь факт прохождения устройством теста и наличие сертификата не может быть 100%-й гарантией его безопасности, поскольку, он, очень вероятно, все еще имеет определенные недоработки. Излишняя вера в сертификат безопасности может сыграть злую шутку с пользователями, у которых имеются индивидуальные потребности и различные варианты применения устройств, а значит, и собственные риски и угрозы. Ну и, конечно же, не исключена вероятность злоупотреблений. Наверняка найдутся производители, которые будут платить за «квазисертификацию», преследуя чисто коммерческие цели.

По всему выходит, что для глобального решения проблемы безопасности с помощью сертификации необходимо некое объединяющее решение, общий для всех производителей стимул выпускать защищенные устройства, а потребителям — не покупать те, безопасность которых ничем не подтверждается. Каким ему быть — законодательным, экономическим или карательным — еще предстоит решить. В конечном итоге, результатом должна стать безопасность глобальной системы Интернета вещей.

Блокчейн-технология


Безопасность Интернета вещей стала одной из первых сфер использования блокчейн-технологии. Благодаря технологии распределенного реестра появилась возможность обеспечивать высокий уровень безопасности IoT-устройств в сети и устранить существующие ограничения и риски для IoT, связанные с централизацией.

Она позволяет быстро и безопасно сохранять протоколы обмена и результаты взаимодействия различных IoT-устройств в децентрализованной системе. Именно распределенная архитектура блокчейна гарантирует достаточно высокую безопасность всей IoT-системы. Но если часть из устройств сети все же будет подвержена взлому, в целом, это не скажется на общей работе системы. Упомянутое использование ботнетами «умных» устройств, работающих в IoT-системах, стало возможным вследствие их слабой защищенности. Распределенный тип доверительных отношений позволяет избавиться от взломанного устройства без ощутимого ущерба для всей модели взаимодействия между «здоровыми» объектами.

В контексте безопасности сегодня блокчейн может использоваться в ряде сфер, в которых Интернет вещей развивается наиболее интенсивно. Например, это управление аутентификацией, проверка работоспособности разных сервисов, обеспечение неделимости информации и другие. В начале года ряд ведущих компаний, среди которых Cisco, BNY Mellon, Bosch, Foxconn и ряд других образовали консорциум, который будет находить решения по использованию блокчейна для увеличения безопасности и улучшения взаимодействия IoT-продуктов. Главная задача, которую поставили перед собой его члены — разработка на основе блокчейн-технологии распределенной базы данных и протокола обмена информацией между IoT-устройствами.

Отметим, что в январе 2017 года DHS США начало использовать технологию блокчейн для защиты, передачи и хранения данных, которые собираются ведомством с камер видеонаблюдения и различных датчиков контроля. Технологию также тестирует и DARPA — подразделение Минобороны США, курирующее вопросы разработки новых технологий для армии. Кроме того, одно из агентств, ведущее исследования под крышей Пентагона, подписало контракт стоимостью несколько миллионов долларов с софтвер-компанией Galois, занимающейся разработками в сфере безопасности на базе блокчейна.

Сегодня уже очевидно, что реализовать все возможности, которые может предоставить пользователям концепция IoT без решения проблем с безопасностью и конфиденциальностью будет сложно. Указанные выше способы защиты IoT, конечно же, не являются исчерпывающими, над решением проблемы работают множество групп, компаний и энтузиастов. Но прежде всего высокий уровень безопасности устройств Интернета вещей должен быть основной задачей их производителей. Надежная защита должна изначально входить как часть функций изделия и стать новым конкурентным преимуществом, как для производителей, так и поставщиков комплексных IoT-решений.

Физика Ethernet для самых маленьких / Habr

  • Что такое домен коллизий?
  • Сколько пар используется для Ethernet и почему?
  • По каким парам идет прием, а по каким передача?
  • Что ограничивает длину сегмента сети?
  • Почему кадр не может быть меньше определенной величины?

Если не знаешь ответов на эти вопросы, а читать стандарты и серьезную литературу по теме лень — прошу под кат.

Кто-то считает, что это очевидные вещи, другие скажут, что скучная и ненужная теория. Тем не менее на собеседованиях периодически можно услышать подобные вопросы. Мое мнение: о том, о чем ниже пойдет речь, нужно знать всем, кому приходится брать в руки «обжимку» 8P8C (этот разъем обычно ошибочно называют RJ-45). На академическую глубину не претендую, воздержусь от формул и таблиц, так же за бортом оставим линейное кодирование. Речь пойдет в основном о медных проводах, не об оптике, т.к. они шире распространены в быту.

Технология Ethernet описывает сразу два нижних уровня модели OSI. Физический и канальный. Дальше будем говорить только о физическом, т.е. о том, как передаются биты между двумя соседними устройствами.

Технология Ethernet — часть богатого наследия исследовательского центра Xerox PARC. Ранние версии Ethernet использовали в качестве среды передачи коаксиальный кабель, но со временем он был полностью вытеснен оптоволокном и витой парой. Однако важно понимать, что применение коаксиального кабеля во многом определило принципы работы Ethernet. Дело в том, что коаксиальный кабель — разделяемая среда передачи. Важная особенность разделяемой среды: ее могут использовать одновременно несколько интерфейсов, но передавать в каждый момент времени должен только один. С помощью коаксиального кабеля можно соединит не только 2 компьютера между собой, но и более двух, без применения активного оборудования. Такая топология называется шина. Однако если хотябы два узла на одной шине начнут одновременно передавать информацию, то их сигналы наложатся друг на друга и приемники других узлов ничего не разберут. Такая ситуация называется коллизией, а часть сети, узлы в которой конкурируют за общую среду передачи — доменом коллизий. Для того чтоб распознать коллизию, передающий узел постоянно наблюдает за сигналов в среде и если собственный передаваемый сигнал отличается от наблюдаемого — фиксируется коллизия. В этом случае все узлы перестают передавать и возобновляют передачу через случайный промежуток времени.

Диаметр коллизионного домена и минимальный размер кадра


Теперь давайте представим, что будет, если в сети, изображенной на рисунке, узлы A и С одновременно начнут передачу, но успеют ее закончить раньше, чем примут сигнал друг друга. Это возможно, при достаточно коротком передаваемом сообщении и достаточно длинном кабеле, ведь как нам известно из школьной программы, скорость распространения любых сигналов в лучшем случае составляет C=3*108 м/с. Т.к. каждый из передающих узлов примет встречный сигнал только после того, как уже закончит передавать свое сообщение — факт того, что произошла коллизия не будет установлен ни одним из них, а значит повторной передачи кадров не будет. Зато узел B на входе получит сумму сигналов и не сможет корректно принять ни один из них. Для того, чтоб такой ситуации не произошло необходимо ограничить размер домена коллизий и минимальный размер кадра. Не трудно догадаться, что эти величины прямо пропорциональны друг другу. В случае же если объем передаваемой информации не дотягивает до минимального кадра, то его увеличивают за счет специального поля pad, название которого можно перевести как заполнитель.

Таким образом чем больше потенциальный размер сегмента сети, тем больше накладных расходов уходит на передачу порций данных маленького размера. Разработчикам технологии Ethernet пришлось искать золотую середину между двумя этими параметрами, и минимальным размером кадра была установлена величина 64 байта.

Витая пара и дуплексный режим рабты

Витая пара в качестве среды передачи отличается от коаксиального кабеля тем, что может соединять только два узла и использует разделенные среды для передачи информации в разных направлениях. Одна пара используется для передачи (1,2 контакты, как правило оранжевый и бело-оранжевый провода) и одна пара для приема (3,6 контакты, как правило зеленый и бело-зеленый провода). На активном сетевом оборудовании наоборот. Не трудно заметить, что пропущена центральная пара контактов: 4, 5. Эту пару специально оставили свободной, если в ту же розетку вставить RJ11, то он займет как раз свободные контакты. Таким образом можно использовать один кабели и одну розетку, для LAN и, например, телефона. Пары в кабеле выбраны таким образом, чтоб свести к минимуму взаимное влияние сигналов друг на друга и улучшить качество связи. Провода одной пару свиты между собой для того, чтоб влияние внешних помех на оба провода в паре было примерно одинаковым.
Для соединения двух однотипных устройств, к примеру двух компьютеров, используется так называемый кроссовер-кабель(crossover), в котором одна пара соединяет контакты 1,2 одной стороны и 3,6 другой, а вторая наоборот: 3,6 контакты одной стороны и 1,2 другой. Это нужно для того, чтоб соединить приемник с передатчиком, если использовать прямой кабель, то получится приемник-приемник, передатчик-передатчик. Хотя сейчас это имеет значение только если работать с каким-то архаичным оборудованием, т.к. почти всё современное оборудование поддерживает Auto-MDIX — технология позволяющая интерфейсу автоматически определять на какой паре прием, а на какой передача.

Возникает вопрос: откуда берется ограничение на длину сегмента у Ethernet по витой паре, если нет разделяемой среды? Всё дело в том, первые сети построенные на витой паре использовали концентраторы. Концентратор (иначе говоря многовходовый повторитель) — устройство имеющее несколько портов Ethernet и транслирующее полученный пакет во все порты кроме того, с которого этот пакет пришел. Таким образом если концентратор начинал принимать сигналы сразу с двух портов, то он не знал, что транслировать в остальные порты, это была коллизия. То же касалось и первых Ethernet-сетей использующих оптику (10Base-FL).

Зачем же тогда использовать 4х-парный кабель, если из 4х пар используются только две? Резонный вопрос, и вот несколько причин для того, чтобы делать это:

  • 4х-парный кабель механически более надежен чем 2х-парный.
  • 4х-парный кабель не придется менять при переходе на Gigabit Ethernet или 100BaseT4, использующие уже все 4 пары
  • Если перебита одна пара, можно вместо нее использовать свободную и не перекладывать кабель
  • Возможность использовать технологию Power over ethernet

Не смотря на это на практике часто используют 2х-парный кабель, подключают сразу 2 компьютера по одному 4х-парному, либо используют свободные пары для подключения телефона.

Gigabit Ethernet

В отличии от своих предшественников Gigabit Ethernet всегда использует для передачи одновременно все 4 пары. Причем сразу в двух направлениях. Кроме того информация кодируется не двумя уровнями как обычно (0 и 1), а четырьмя (00,01,10,11). Т.е. уровень напряжения в каждый конкретный момент кодирует не один, а сразу два бита. Это сделано для того, чтоб снизить частоту модуляции с 250 МГц до 125 МГц. Кроме того добавлен пятый уровень, для создания избыточности кода. Он делает возможной коррекцию ошибок на приеме. Такой вид кодирования называется пятиуровневым импульсно-амплитудным кодированием (PAM-5). Кроме того, для того, чтоб использовать все пары одновременно для приема и передачи сетевой адаптер вычитает из общего сигнала собственный переданный сигнал, чтоб получить сигнал переданный другой стороной. Таким образом реализуется полнодуплексный режим по одному каналу.

Дальше — больше

10 Gigabit Ethernet уже во всю используется провайдерами, но в SOHO сегменте не применяется, т.к. судя по всему там вполне хватает Gigabit Ethernet. 10GBE качестве среды распространения использует одно- и многомодовое волокно, с или без уплотнением по длине волны, медные кабели с разъемом InfiniBand а так же витую пару в стандарте 10GBASE-T или IEEE 802.3an-2006.

40-гигабитный Ethernet (или 40GbE) и 100-гигабитный Ethernet (или 100GbE). Разработка этих стандартов была закончена в июле 2010 года. В настоящий момент ведущие производители сетевого оборудования, такие как Cisco, Juniper Networks и Huawei уже заняты разработкой и выпуском первых маршрутизаторов поддерживающих эти технологии.

В заключении стоит упомянуть о перспективной технологии Terabit Ethernet. Боб Меткалф, создатель предположил, что технология будет разработана к 2015 году, и так же сказал:

Чтобы реализовать Ethernet 1 ТБит/с, необходимо преодолеть множество ограничений, включая 1550-нанометровые лазеры и модуляцию с частотой 15 ГГц. Для будущей сети нужны новые схемы модуляции, а также новое оптоволокно, новые лазеры, в общем, все новое

UPD: Спасибо хабраюзеру Nickel3000, что подсказал, про то что разъем, который я всю жизнь называл RJ45 на самом деле 8P8C.
UPD2:: Спасибо пользователю Wott, что объяснил, почему используются контакты 1,2,3 и 6.

Мобильный интернет — устройства, технологии, тонкости

У меня на сайте есть две статьи, которые пользуются популярностью — это статья о мобильном интернете и 3g модемах и статья о 4g модемах.

Поглядев на них, я понял, что материал пора актуализировать — вторая статья написана в то время, когда Yota работала по технологии Wimax, а 4g еще только появился, первая и того раньше.

Новая статья не только о модемах, а о мобильном интернете в общем и целом. Рассчитана она в первую очередь на тех, кто в этой теме только начал разбираться, то есть «матерые мобильные интернетчики» здесь вряд ли найдут что-то неизведанное.

Я хочу разжевать некоторые основополагающие тонкости, связанные с мобильным интернетом, «разложить все по полочкам», так сказать. Начнем.

Мобильный интернет - устройства, технологии, тонкости

Что нужно, чтобы пользоваться мобильным интернетом?

  1. договор (и SIM-карта) с некоторым сотовым оператором и подключенный тариф (тарифная опция, пакет), подразумевающий наличие некоторого количества трафика или доступ в сеть без ограничений;
  2. устройство, которое будет с этим оператором работать и позволит непосредственно «лазить в интернете», и (или) даст возможность подключить к сети другие устройства;
  3. происходить все должно в зоне действия сети выбранного оператора.

Вроде просто, однако на деле — хватает тонкостей, давайте разбираться по порядку.

Где будет работать мобильный интернет?

Будет работать в зоне действия сети выбранного вами оператора. При этом, чем лучше уровень сигнала — тем лучше будет работать. Уровень сигнала — не единственное, что определяет возможную скорость.

Как будет работать мобильный интернет?

Существует ряд технологий передачи данных через мобильные сети — скорость зависит от того, какая технология используется в данный момент. Каждая определенная технология должна поддерживаться и устройством, и базовой станцией оператора, с которой оно работает. Про уровень сигнала тоже не забываем.

Скорость будет зависеть от того:

  • какой тип сети у оператора в том месте, где вы находитесь;
  • какие технологии передачи данных поддерживает ваше устройство;
  • какой уровень сигнала в том месте, где вы находитесь (я отдельно писал про мобильный интернет при слабом уровне сигнала).

Скорость зависит и от текущей нагрузки на сеть (актуально в первую очередь для городов) и от погоды (это, напротив, особенно заметно за городом, когда расстояние до базовой станции большое).

Какие типы сетей и технологии передачи данных существуют на данный момент?

Сети второго поколения — 2g (GSM). Включают две технологии передачи данных:

GPRS — самый медленный вариант. Если речь идет о смартфоне или планшете, то при работе с GPRS, рядом с индикатором уровня сигнала загорается символ «G». «Потолок» этой технологии в идеальных условиях — всего 171,2 кбит/c. А условия редко бывают идеальными. Много с GPRS не наделаешь — электронная почта, серфинг (лучше с отключенной загрузкой изображений — иначе будете ждать загрузки каждой страницы ооочень долго), мессенджеры. Про YouTube, прослушивание музыки онлайн и прочие прелести современного интернета смело можете забыть.

EDGE — уже лучше. Работая с этой технологией, смартфон или планшет продемонстрируют букву «E» рядом с индикатором уровня сигнала. Теоретический «потолок» для EDGE — 474 кбит/с. В реальных условиях скорость будет, конечно, ниже, но все-таки — килобит на 150 — 200 можно рассчитывать, а это уже позволит серфить (имея ангельское терпение), играть в какие-нибудь игры (многим MMO не нужен широкий канал), и т. п., но с мультимедийным контентом, по-прежнему, будет тяжко.

Сети третьего поколения — 3g (WCDMA):

Сюда входит собственно 3g (UMTS), и при работе в таких сетях смартфон или планшет будет демонстрировать символы «3g» около индикатора уровня сигнала. Теоретическая максимальная скорость передачи данных — 2048 кбит/с. Это уже можно назвать вполне адекватной скоростью доступа в сеть. Можно и в Skype поговорить и видео на YouTube посмотреть.

HSDPA — более продвинутый вариант. Теоретически возможная скорость аж 84.4 мбит/с. В «полевых» условиях мне удавалось увидеть цифры в районе 5 — 15 мегабит. Смартфон, при работе с HSDPA, продемонстрирует вам символ «H» или «H+».

Сети четвертого поколения — 4g (LTE)

И пока единственная в этой категории технология собственно 4g, или, если использовать «официальное», а не маркетинговое название — LTE (хотя — не только LTE. Если интересно — смотрите википедию). В теории 4g поддерживает скорость до 173 мегабит в секунду на прием и 58 на отдачу. На практике мне удавалось «намерять» на прием 40 мегабит (хотя в сети я часто вижу разговоры о более высоких скоростях).

Про устройства

Для доступа в сеть можно использовать различные устройства. Это может быть:

Модем. Подключается к компьютеру через USB, некоторые планшеты также поддерживают подключение модема — тоже через USB с использованием кабеля OTG (если есть полноценный USB-порт, то и без всякого OTG). Позволяет получить доступ в сеть на том устройстве, к которому подключен. Если интернет надо раздать, то тут есть несколько вариантов. Подключить модем к роутеру (см. следующий пункт). Раздать можно с компьютера, к которому подключен модем, но это требует достаточно специфических настроек, особенно если раздавать планируется через Wi-Fi. Можно в случае необходимости раздавать и через Bluetooth. Теоретически, планшет, к которому подключен модем, также может раздать интернет (могут потребоваться дополнительные программы, если в настройках нет опции «переносная точка доступа»).

Если модем куплен в салоне того или иного оператора и несет на борту его опознавательные знаки, то, с вероятностью 99.9%, модем «залочен», то есть установлено программное ограничение, из-за которого модем работает только в сети своего оператора. Побороть эту напасть можно — модем можно «разлочить». Универсального рецепта здесь нет, так что что вводим в гугл модель модема, прибавляем слово «разлочить», и читаем найденное (скорее всего это будут всякие форумы).

Обратившись не в салон связи, а в обычный компьютерный магазин, вы сможете купить модем, который будет работать с сетью любого оператора. Учтите, что стоить он будет дороже (может быть даже намного) — операторы, не редко, реализуют модемы, что называется «себе в убыток» а зарабатывают на продаже трафика.

Роутер + модем. Подключаем модем к роутеру, настраиваем роутер — он раздает интернет — через Wi-Fi, по проводам и т. п. Из тонких моментов — на роутере должен быть USB-порт, кроме того, необходимо сначала уточнить, работает ли тот или иной конкретный роутер с тем или иным конкретным модемом. Искать список поддерживаемых модемов надо на сайте производителя роутера, там же можно скачать и свежую прошивку, в которой может быть реализована поддержка новых моделей модемов.

Специальный мобильный роутер. Такие продаются в салонах связи, и представляют из себя устройство, уже совмещающее в себе и модем и роутер. Еще, не редко, бывает аккумулятор — чтобы можно было использовать в «полевых» условиях. Как и модемы, могут быть «залочены» на одного оператора. Как и в случае с модемами, в компьютерных магазинах можно найти устройства, не привязанные ни к какому конкретному оператору.

Сотовый телефон. Зачастую так же может обеспечить доступ в интернет посредством подключения к компьютеру или планшету проводом, или через Bluetooth.

Смартфон или планшет. Большинство смартфонов и планшеты (разумеется те, которые поддерживают 3g или 4g и имеют слот для SIM-карты) умеют выступать как в роли модема, при подключении к компьютеру через провод или Bluetooth, так и в роли роутера, раздавая интернет по Wi-Fi. Раз уж выше коснулись этой темы — упомяну, недорогие смартфоны, продающиеся в салонах связи под брендами определенных операторов, тоже не редко бывают «залоченными», в двухсимочных зачастую «залочена» только одна сим-карта.

Будет ли 3g-модем работать в 4g-сети и наоборот?

Вопрос справедлив не только для модемов, но и для любых других устройств.

Сети операторов редко поддерживают только одну какую-либо технологию. Зачастую они поддерживаются все, начиная с 2g и заканчивая 4g. В глубинке встречаются базовые станции и без 4g, а иногда и без 3g. То есть, за редкими исключениями (рассмотрим ниже) если вы видите некую сотовую вышку, то она, скорее всего «2g или выше».

Различные устройства, чаще всего, тоже поддерживают всё, хотя еще вполне можно купить в магазине смартфон или модем, который «умеет» только 2g и 3g.

При прочих равных, проблем быть не должно. Если вы с 4g-модемом (смартфоном, планшетом) попадете туда, где у оператора 3g покрытие, он просто будет работать в 3g. И даже в 2g он работать будет, если вы попадете туда, где есть только такое покрытие.

Если вы с 3g модемом (смартфоном, планшетом) попадете туда, где у оператора есть 4g покрытие, устройство все равно будет работать, но опять-таки только в 3g. Наконец, если вы возьмете какой-нибудь пожилой телефон, который даже 3g не умеет, то он все равно будет работать — просто в 2g.

Из того, что описано выше, существуют исключения. Например, сеть Tele2 в Москве и области реализована только в 3g и 4g. Или вот модемы Yota — работают только в 4g. И даже если вы вставите модемную SIM-карту Yota в «не ётовский» модем, который «умеет» 3g, ничего работать не будет — так уж у них все устроено.

Разберем подробнее ситуацию с Tele2 в Москве: если вставить SIM-карту Tele2 в какой-нибудь аппарат, который может работать только в 2g сетях, то работать у вас ничего не будет.

Более сложный пример — почти у всех представленных сейчас на рынке двухсимочных аппаратов только одна SIM-карта может работать в 3g \ 4g, вторая при этом будет работать только в 2g. Это значит, что, используя Tele2 в московском регионе, вы должны отдавать привилегию использования 3g \ 4g именно этой SIM-карте. В этих условиях вы можете адекватно пользоваться интернетом только через Tele2. Если вы хотите интернет через SIM-карту другого оператора, вам придется именно ее переключить в режим 3g \ 4g, при этом симка Tele2 попадет в режим «только 2g» и банально перестанет работать — напоминаю, потому что 2g сети у Tele2 в Москве нет.

Смартфонов, у которых обе сим-карты могут одновременно работать в 3g \ 4g пока единицы (гуглите и обрящите, если вам такой нужен).

Про SIM-карты и разные устройства (будет ли SIM-карта от модема работать в смартфоне и наоборот)

Просматривая поисковые запросы, через которые посетители приходят ко мне на сайт, я часто вижу нечто вроде «можно ли вставить SIM-карту от смартфона в модем» или наоборот «от модема в смартфон». На момент написания прошлых статей на оба вопроса можно было ответить утвердительно, сейчас ситуация изменилась.

Технически можно без всяких проблем вставить симку из смартфона в модем — и там и там используются совершенно одинаковые SIM-карты. Даже если в смартфоне у вас микро-сим, а в модеме симка полноразмерная, ее все равно можно вставить, просто прижав к контактам в нужном положении, так как контактная площадка и там, и там одного размера. Вы наверняка обращали внимание, что SIM-карты сейчас продаются универсальные — изначально она полноразмерная, а используя заранее седланные надрезы, ее легко можно превратить в микро- и в нано-SIM. Оставшийся после этого кусочек пластика можно использовать как переходник. Определились, с технической точки зрения проблем нет.

Есть ограничения другого характера — вместе с появлением тарифов, предлагающих безлимитный интернет для смартфона \ планшета, появилось и ограничение со стороны операторов, которые не заинтересованы в том, чтобы SIM-карты с такими тарифами использовались в модемах и роутерах. Как правило это прописано в самом тарифе — нечто вроде «SIM-карта предназначена для использования в смартфоне \ планшете, при использовании в модеме доступ в интернет будет ограничен».

Есть и модемные тарифы, использование которых в смартфонах ограничено оператором. А если и не ограничено, то на некоторых из них голосовые вызовы вообще невозможны, на других на «голос» установлены высокие цены. Будьте внимательны!

Окончательный ответ на вопросы «можно ли вставить SIM-карту от смартфона в модем» или «SIM-кроту от модема в смартфон» такой: зависит от вашего оператора и тарифного плана. Есть сомнения — позвоните оператору и спросите.

Про раздачу интернета со смартфона или планшета

Если у вас есть интернет на смартфоне или планшете, с помощью провода, Wi-Fi или Bluetooth можно предоставить доступ в сеть и другим устройствам — скажем, ноутбуку. Это очень удобно в дороге. Я именно так пользуюсь интернетом на даче по выходным, а дома использую интернет со смартфона как «резервный канал» — если проводной интернет отключился, пара тапов для запуска точки доступа на смартфоне — и я снова в сети.

Разумеется, в этом процессе есть свои тонкости. Чисто с технической точки зрения, если только у вас есть интернет на смартфоне, вы можете раздавать его, как и сколько угодно. На практике — все точно так же, как с предыдущим рассмотренным вопросом. На многих тарифах с безлимитным интернетом для смартфона \ планшета (да и на некоторых других тоже) раздача интернета ограничена оператором, и, зачастую, предоставляется за отдельную плату. Более подробно этот момент я рассматривал в статье про «смартфонные безлимиты».

Вот вроде и все. Надеюсь, статья оказалась вам полезной 😉

Поделиться ссылкой:

Leave a comment