Как стать автором
Обновить

Комментарии 25

Чего-то какие-то сумашедшие цены за трафик. Большинство же за трафик ничего не платит. У нас в России те же 100Мбит бесплатно, а выделенный 1Гбит 27000р.

Пусть в России хостятся раз такое дело. :)

это немного разный трафик

В прошлом году один стартап онлайн платежей заплатил Амазону за передачу данных 22 тыс евро за месяц. При этом цена для них была где-то 0.05 $ за гигабайт. Считайте. Ну и чисто ради интереса, можете посчитать сколько по времени будете на гигабите передавать этот объём...

А вообще, статья с наездом на Амазон, мол цены гнёт, потому что знает, что от него никуда не уйдут. Но на самом деле, антимонопольный комитет должен присмотреться как раз таки к стае недохостеров, которые объединились против и демпингуют.

А сидят все на Амазоне не потому что не могут съехать, а потому что ничего лучше и удобнее на рынке нет. Было бы невыгодно - бизнес уже бы всё подсчитал и перенёс всё в другое облако/к другому хостеру.

В USA и NL есть хостеры где ты платишь толко за железо, и раздавай с гигабитного линка сколько сможешь, без дополнительной оплаты за трафик.
У меня есть в USA один сервак с которого раздается 280 Мегабит.
И это сотны долларов в месяц, а не тысячи.


Раздавать много трафика через облачных провайдеров безумного дорого, если у вас такой трафик, то дешевле взять обычный сервер и платить ЗП админу который его будет обслуживать, благо его можно быть не на фултайм а заказать просто такую услугу за 50-100$ в месяц.

Ну и мне стало интересно, что это за сегмент рынка где сотни терабайт данных хранить приходится?
И что за компаниям между собой приходится гонять такие обьемы данных?

Данные транспортировать в контейнерах, это тоже прям удивительный сегмент для меня.
Тк пару терабайт перегнать даже между разными ДЦ вообще не проблема по сети. Ну и 10Т тоже быстрее точно перелить чем везти в контейнере.

Везти ценные данный в контейнере для безопасности??
Ну хз. Я бы лучше передал их внутри ssh тунеля.

Тк пару терабайт перегнать даже между разными ДЦ вообще не проблема по сети. Ну и 10Т тоже быстрее точно перелить чем везти в контейнере.
Этот сервис не на терабайты, а на петабайты ориентирован. Передать по сети будет очень долго и дорого, так как трафик при таких объемах тоже совсем не бесплатный.

Ну и мне стало интересно, что это за сегмент рынка где сотни терабайт данных хранить приходится?

Список довольно большой

  • Наука

  • Торговля (онлайн в основном)

  • Банки

  • Промышленность

  • Авиация

  • Службы доставки

  • и много кто еще

Ну и 10Т тоже быстрее точно перелить чем везти в контейнере.

А 10PB? А 100PB?

Так рассказ про устройства на 80ТВ. 300$ аренда одного устройства + дорога в два конца.

Мне вот тоже стало любопытно зачем такая странность. На первый взгляд тупо перелить проще.

80Тб перелить по сети — это неделя, если речь идёт о гигабитном канале, а если сто мегабит или меньше? Легко представить себе ситуацию, когда канала вообще нет (съёмки фильма посреди пустыни в Неваде, 80Тб за неделю заполнится), а отправить коробку с жесткими дисками можно по миру за сутки. На фоне всех остальных затрат на генерацию этих 80Тб и стоимости времени 300$ и дорога — это вообще ни о чём.

Ну и мне стало интересно, что это за сегмент рынка где сотни терабайт данных хранить приходится?
И что за компаниям между собой приходится гонять такие обьемы данных?

Любой, у кого месячный (недельный/необходимый) размер backup составляет такой объем. Мы когда перешагнули 100 Тб, перешли на on-prem: несколько выделенных линков до Amazon + свое хранилище на 200Tb оказались дешевле.

На мой личный взгляд (и смотря на то, что вижу вокруг себя), основные расходы - это люди (прямая - свои работники, косвенная - услуги подрядчиков), а вовсе не железо, услуги в облаках или трафик. Причём, предполагаю, но никак не могу обосновать статистикой, соотношение - как один к четырём или пяти (то есть расходы на услуги людей в несколько раз больше расходов на железо, облака и трафик). Те компании, у которых это не так - водимо имеют большое конкурентное преимущество.

Конкуренты Амазона возмущаются, что у Амазона слишком дорогие цены и он не хочет подключаться к их тусовке и ронять цены? Хм, а если Амазон вдруг уронит цены до уровня конкурентов или ещё ниже — то будут возмущаться, что он демпингует и выдавливает конкурентов, пользуясь своим монопольным положением? В общем, если ты благодаря своим реально удобным и качественным сервисам достиг большой доли на рынке, который сам же и создал — то на тебя будут наезжать за любое поведение, хоть ты завышаешь цены, хоть занижаешь, хоть держишь постоянными. И это даже не смотря на то, что Амазон постепенно теряет долю облачного рынка и занимает там от 30% до 50% в зависимости от того, как считают остальных провайдеров.

Они возмущаются тем, что вытащить данные из AWS намного дороже, чем продолжать это терпеть. Плюс, намного дороже работать другим компаниям с компанией в AWS.

Заметьте, возмущаются не клиенты, а от их имени какие-то компании. Для начала — хотят ли вообще люди вытащить свои данные из Амазона? А даже если и хотят — является ли это главным препятствием для миграции? Скорее всего нет — переделка инфраструктуры под другое облако выйдет куда дороже (и у cloud agnostic инструментов есть свои косты, особенно, если всё уже сделано без них).


Даже расчёты про 100Тб — ну что такое 2-3 тысячи долларов для компании, у которой есть данных на сотню тб? Это недельная зарплата разработчика. А сколько недель разработчика (или скорее лет разработчиков) потребуется на миграцию?

А клиентам возмущаться некогда. Они заняты своим бизнесом, в т.ч. расчетом рентабельности и эффективности затрат. И как только будет выгоднее съехать - переедут незамедлительно.
Ведь не все платят пару сотен в месяц. Некоторые платят миллионы - в этом случае даже 10% экономия весьма существенна.
Есть же и FinOps engineers - там где я работаю они отчитываются о весьма существенной экономии каждый квартал.

Очень мило считать цену за 100Тб траффика и сравнивать разницу. Вот только какой процент пользователей использует такой объем? Да что уж, кто хотя бы 1Тб использует?

Реалии в том, что для подавляющего большинства клиентов стоимость траффика стоит далеко не на 1 месте. Поэтому разница в несколько десятков $ в месяц не окупит вложений в миграцию к другому CDN

устройства Snowball Edge Storage Optimized (24 vCPU, 32 ГБ RAM)
А зачем файловому хранилищу такие процессорные мощности и столько памяти?

Может быть они внутри ZFS используют?

один ксеон силвер и 4 димма. 12Тб гелиевые диски и рейд десять

цены конечно немалые, но тут важно еще и качество, бесперебойность и прочие параметры, некоторые готовы платить больше, за стабильность, например

А что это за бизнесы у которых петабайты данных?
Накидайте какие есть варианты, а то у меня только какие то экзотические варианты, а в статье звучит так как будто это мейнстрим.

Геномы расшифровывают?
Белки кодируют?
Предсказания погоды и землетрясений?

Любой биллинг уровня федеральной компании это десятки терабайт.

Если про хранение, где счёт идёт на сотни терабайт и больше - OLAP базы, DWH, бигдата.

Трафик? Любая компания со стримингом чего-либо.

Прошу прощения за дилетантский вопрос ), а эти данные навсегда остаются? Т.е. постоянно добавляется новое хранилище или они перезаписываются?

Обычно добавляются — многие данные нужно по закону хранить десятилетиями, ну типа как архив всяких бухгалтерских документов, так же и электронные данные, плюс архивы обычно не перезаписывают на всякий случай. И т.д.

Для биллинга настроена обрезка на срок исковой давности (3 года) и/или на срок, спущенный регулятором. Но часть данных хранится и дольше.

OLAP, DWH, БигДата обычно зависят от целей и задач. Могут быть только с добавлением. Тут от пожеланий клиента, кошелька и задач зависит.

Сбор телеметрии с сотен тысяч датчиков с высокой частотой, например.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.