Как стать автором
Обновить

Администрирование

Сначала показывать
Порог рейтинга

Учим zabbix-agent «есть» на ходу и не давиться пользовательскими параметрами (UserParameter)

Системное администрирование *IT-инфраструктура **nix *Серверное администрирование *
Из песочницы

Привет, HABR!

Все те кто пользуются системой мониторинга Zabbix, с большой вероятностью, уже использовали UserParameter. Это, безусловно, очень полезный инструмент позволяющий значительно расширить базовые возможности Zabbix и поставить на мониторинг что-то такое эдакое. Но, к сожалению, у данного подхода есть свои минусы:

1. Распространение файлов конфигураций UserParameter

2. Необходимость перезапуска zabbix-agent после добавления UserParameter

3. Не нулевой шанс, что zabbix-agent не запустится после добавления некорректного файла конфигурации UserParameter

Проблему под пунктом 1 затрагивать не будем и перейдем к оставшимся двум, т.к. решив проблему 2 и 3 пунктов, та что под №1 станет немного менее проблемной потому-что мы не будем бояться сломать запуск zabbix-agent при распространении файлов UserParameter. 

Читать далее
Всего голосов 2: ↑2 и ↓0 +2
Просмотры 503
Комментарии 3

Новости

vStack изнутри: как устроена гиперконвергентная платформа

Блог компании ITGLOBAL.COM IT-инфраструктура *Облачные вычисления *Облачные сервисы

Гиперконвергентные решения, доступные на современном рынке, можно условно разделить на два типа: «полноценные» и интегрированные. Их главное отличие заключается в железе, которое можно использовать при построении инфраструктуры. У настоящей гиперконвергенции (Nutanix HCI и VMware HCI) нет привязки к производителям оборудования: она запросто подружится с недорогими commodity серверами. А интегрированные решения работают только на железе конкретных вендоров.

Наша платформа vStack — это тоже полноценная гиперконвергенция. Под катом я подробно расскажу, как в ней реализованы функции вычисления (SDC), хранения (SDS) и сети (SDN) и какие возможности это дает владельцам инфраструктуры.

Читать далее
Всего голосов 3: ↑3 и ↓0 +3
Просмотры 640
Комментарии 1

Как облачный провайдер помогает выстроить комплексную защиту от киберугроз

Блог компании CloudMTS Информационная безопасность *Сетевые технологии *Облачные сервисы

Во многих компаниях, использующих облако, не хватает сотрудников, которые умеют отслеживать угрозы. Даже если специалисты по безопасности есть, векторы атак на инфраструктуру, размещенную в публичных облаках, настолько отличаются от угроз для локальной инфраструктуры, что невозможно точь-в-точь скопировать стратегию защиты.

Требования к информационной безопасности выросли настолько, что российские провайдеры сами фактически стали поставщиками ИБ-решений. Поделимся опытом: как адаптироваться к новым угрозам и обеспечить безопасность компании с помощью портфеля готовых сервисов облачного провайдера. 

Читать далее
Всего голосов 4: ↑4 и ↓0 +4
Просмотры 367
Комментарии 0

Как масштабировать сервис в 20 раз и свернуть обратно за один день

Блог компании Flowwow IT-инфраструктура *DevOps *IT-компании

Может ли команда разработки быть спокойной 8 марта, если вы в сервисе №1 по доставке цветов? Наша история.

Меня зовут Дима, я работаю техническим директором в Flowwow. Мы развиваем маркетплейс локальных магазинов, которые продают красивые букеты и подарки. В нашей R&D команде сейчас 30 разработчиков, и мы используем обширный стек технологий — условно, от Ansible до Kotlin. 

У нас есть несколько ключевых дат, в которые количество продаж взлетает на порядок — День матери, 14 февраля и 8 марта. Мы научились проходить эти периоды почти безболезненно и с технической стороны, и со стороны бизнесовой: «уровень негатива» пользователей в пики находится на уровне любого обычного дня, а техническая команда не поднимает упавшую платформу.

Читать далее
Всего голосов 6: ↑5 и ↓1 +4
Просмотры 1.2K
Комментарии 1

Open source, собственная инфраструктура и экспертиза: как мы сделали аналог зарубежных межсетевых экранов

Блог компании Selectel Информационная безопасность *Open source *IT-инфраструктура *Сетевые технологии *

Современную инфраструктуру любого масштаба сложно представить без межсетевого экрана. Он позволяет сегментировать сети и избавиться от избыточной сетевой доступности, что повышает уровень безопасности. На рынке существуют программно-аппаратные и программные МЭ, которые позволяют реализовать обширный функционал безопасности сети. Но не все на данный момент подходят клиентам в России.

Чтобы учесть потребности бизнеса, мы в Selectel решили создать собственный межсетевой экран, который не зависит от крупных вендоров. Взяли open source, собственную инфраструктуру и компетенции специалистов компании. Под катом рассказываем, как мы реализовали выгодный по цене и функционалу МЭ на выделенных серверах Selectel.
Читать дальше →
Всего голосов 27: ↑22 и ↓5 +17
Просмотры 2K
Комментарии 12

Универсальный Helm-чарт v2.0

Блог компании Nixys Системное администрирование *IT-инфраструктура *DevOps *Kubernetes *

Прошло чуть больше 2 месяцев с момента релиза первой версии универсального чарта, и мы рады представить чарт версии 2.0. В этой статье расскажу что нового, и рассмотрим на примере, как это работает.

Читать далее
Всего голосов 6: ↑6 и ↓0 +6
Просмотры 912
Комментарии 3

От Bitrix до Golang, к монолиту и обратно: как мы растили СберМегаМаркет и к чему пришли

Блог компании СберМегаМаркет IT-инфраструктура *Разработка под e-commerce *Управление e-commerce *Микросервисы *
Из песочницы

Привет, мы команда СберМегаМаркета, и это обзорная статья о нашей площадке, пробный камень для блога Хабре. За нашими плечами спешный переезд с PHP на GO, ребрендинг и решение таких задач, с которыми большинство разработчиков не сталкивается. Например, мы сделали высоконагруженную платформу для управления заказами на 1С. А вам слабо?

Мы пришли поделиться опытом, и для начала расскажем, как превратились из локального маркетплейса в высоконагруженный e-commerce сервис, и что интересного входит в IT-инфраструктуру современного маркетплейса. 

Читать далее
Всего голосов 5: ↑5 и ↓0 +5
Просмотры 1.7K
Комментарии 3

Как настроить и запустить систему отслеживания измененных данных PostgreSQL

Блог компании FirstVDS Системное администрирование *PostgreSQL *
Перевод

PostgreSQL предлагает метод логического декодирования и делает возможным сбор данных об изменениях на основе логирования. Вы сможете настроить и запустить CDC в несколько шагов.

Архитектура современных веб-приложений состоит из нескольких программных компонентов, таких как информационные панели (дашборды), аналитические системы, базы данных, озёра данных (Data Lakes), кэшевые хранилища, функции поиска и т.д.

База данных обычно является основной частью любого приложения. Обновление данных в режиме реального времени позволяет поддерживать разрозненные системы данных в непрерывной синхронизации и быстро реагировать на появление новой информации. Как же поддерживать экосистему приложений в синхронном состоянии? Как эти компоненты получают информацию об изменениях в базе данных? Термин отслеживание изменённых данных, или сокращённо CDC, — относится к любому решению, которое идентифицирует новые или изменённые данные.

Статья посвящена отслеживанию изменённых данных (CDC) в PostgreSQL и способам достижения этой цели.
Отслеживание изменённых данных (CDC) — это метод интеграции данных для обнаружения, захвата и передачи изменений, внесённых в источники данных базы данных.
Как правило, интеграция данных на основе CDC состоит из следующих шагов:

  1. Захват изменённых данных в исходной базе данных.
  2. Преобразование изменённых данных в формат, который могут принять ваши потребители (консьюмеры).
  3. Публикация данных для консьюмеров или целевой базы данных.

PostgreSQL предлагает два встроенных способа сделать CDC возможным:

  • Из журналов транзакций, PostgreSQL WALs (они же Write Ahead Logs).
  • С помощью триггеров базы данных.

Давайте кратко обсудим плюсы и минусы использования журналов транзакций (WALs) и триггеров для отслеживания изменения данных.
Читать дальше →
Всего голосов 10: ↑10 и ↓0 +10
Просмотры 1.1K
Комментарии 3

Как автодеплой ускорил разработку нашей системы управления производственными процессами

Блог компании Северсталь Анализ и проектирование систем *IT-инфраструктура *Управление разработкой *DevOps *

Помните, недавно мы рассказывали, как несколько лет создавали нашу систему управления производственными процессами (MES)? Мы бы ее еще дольше создавали (и тому были объективные причины, включая переоценку своих сил подрядчиками), если бы не он. Автодеплой нам в помощь! 
Я, Куликов Алексей, являюсь техническим архитектором MES-системы, хочу рассказать о том, как мы пришли к развертыванию MES-приложения при помощи автоматизированных решений и как это оптимизировало нашу работу.

DEPLOY!
Всего голосов 1: ↑0 и ↓1 -1
Просмотры 668
Комментарии 0

Автогенерация ETL-кода

Блог компании Сбер Программирование *SQL *Data Engineering *

С развитием информационных технологий у их пользователей все сильнее и сильнее появляется желание автоматизации рутинных операций, в том числе и автоматической генерации кода. Где это уже возможно?

Я расскажу об автоматической генерации ETL-кода, которая реализована в Сбере на примере одной из использующихся платформ. Поток трансформаций данных в нашем решении называется графом. Этот граф является ориентированным ациклическим графом (DAG, directed acyclic graph). Автоматическую генерацию графов оказалось возможно реализовать благодаря наличию специального инструмента spec-to-graph, который как раз для этого и предназначен. Он позволяет формировать трансформации графа согласно написанному коду, служащему шаблоном. В этом шаблоне указывается, какие трансформации с какими параметрами следует использовать и в каком порядке нужно их соединить. Мы используем подход по генерации графов из базовых субграфов (стандартизированных маленьких графов). Т.е. мы разбиваем ETL-процесс на элементарные операции, каждую из которых реализует некоторый базовый субграф. А из субграфов формируется итоговый граф, осуществляющий загрузку данных. Данные мы грузим из Hive в Hive, дополнительно используя промежуточные индексные структуры в HBase.

Читать далее
Всего голосов 2: ↑1 и ↓1 0
Просмотры 899
Комментарии 5

Как гуманитарии используют знания айтишников: Data-журналистика

Блог компании Нетология Data Mining *Карьера в IT-индустрии Управление медиа *Data Engineering *

Как мы выяснили в прошлой статье, разделение на гуманитариев и технарей — это больше стереотип, чем научный подход. Сегодня поговорим о профессии, в которой соединяются оба направления. Дата-журналисты создают истории на основе больших данных. Разберёмся, какими навыками они обладают и сколько зарабатывают.

Читать далее
Всего голосов 6: ↑1 и ↓5 -4
Просмотры 750
Комментарии 1

Реальные примеры применения Kafka в автопроме

Блог компании Southbridge Программирование *Администрирование баз данных *Apache *
Перевод

Apache Kafka широко используется в самых разных сферах автопрома. В этой статье мы рассмотрим реальные примеры развёртывания в разных контекстах, включая подключенные транспортные средства, умное производство и инновационные услуги перевозок, и в разных компаниях, включая автопроизводителей, вроде Audi, BMW, Porsche и Tesla, и провайдеров сервисов мобильности — Uber, Lyft и Here Technologies.

Читать далее
Всего голосов 10: ↑8 и ↓2 +6
Просмотры 2.1K
Комментарии 2

Учимся жить с Kafka без Zookeeper

Блог компании OTUS Высокая производительность *Системное администрирование *DevOps *Распределённые системы *

При всех достоинствах Kafka как распределенного хранилища потока сообщений, боль вызывало раздельное хранение метаданных (топологии разделов, конфигурации кластера и прочего) и необходимость запуска в кластере рядом с Kafka еще и Apache Zookeeper. Побочным эффектом такого соседства (кроме дополнительных забот об администрировании и мониторинге) является долгое время восстановления после сбоя при больших размерах кластера, значительном количестве разделов или сложной топологии групп. Но ситуация улучшается и отличная новость появилась полторы недели назад в KIP-833, что в ближайшей версии Kafka 3.3 новый протокол согласования метаданных (KRaft), работающий внутри Kafka без Zookeeper, будет признан Production-Ready и далее постепенно зависимость от Zookeeper будет помечена как deprecated и удалена. В этой статье мы поговорим об особенностях протокола KRaft и разберемся как настроить новый кластер Kafka без необходимости установки Zookeeper.

Читать далее
Всего голосов 18: ↑18 и ↓0 +18
Просмотры 2.3K
Комментарии 2

Как эффективно оптимизировать нагрузку на кластер ClickHouse без сложных решений. Опыт исследовательской компании

Блог компании Mediascope Администрирование баз данных *Big Data *Машинное обучение *Хранилища данных *

Данными Mediascope ежедневно пользуется большинство участников медиарекламного рынка и каждый день наши клиенты совершают множество запросов как к самим данным, так и к нашим сервисам расчета и анализа медиапоказателей. Поэтому нам нередко приходится решать самые разные задачи, связанные с оптимизацией нагрузки на инфраструктуру. В этой статье вы найдете интересный кейс управления нагрузкой на кластер ClickHouse (CH), который решили внутри Mediascope. Команда нашего отдела разработки систем расчета и доставки прошла большой путь: от неуместного применения МL до простого, но рабочего решения.

Читать далее
Всего голосов 5: ↑5 и ↓0 +5
Просмотры 1.2K
Комментарии 0

Gitlab за решеткой: синхронизация репозиториев за VPN средствами bash

Программирование *Git *DevOps *
Tutorial

Закусывая гудроном остатки радиоактивной водки, с интересом наблюдаю за всеобщей истерией. Добралась она и до нас, когда ключевой заказчик решил завернуть свои системы за VPN, в том числе и Gitlab, где мы должны хранить исходники и обновлять их перед релизами. Делать это вручную не хочется, поэтому решил автоматизировать процесс, а заодно написать данную статью, по сути – рабочую инструкцию для коллег, ну и для вас, уважаемые читатели.

В статье рассматривается ситуация, когда необходимо синхронизировать два репозитория, находящихся на изолированных друг от друга серверах Gitlab, и есть машина, с которой есть доступ до обоих серверов. Синхронизация осуществляется скриптом на bash, который проверяет наличие обновлений и производит pull-push при их наличии, а также оповещает о событии в Telegram.

Читать далее
Рейтинг 0
Просмотры 1.8K
Комментарии 13

Как быстро создать обучающий датасет для задач обнаружения объектов YOLO с помощью Label Studio

Data Mining *Big Data *Машинное обучение *Data Engineering *
Tutorial

Обнаружение объектов — одна из подзадач компьютерного зрения для идентификации определенных объектов. Например, люди, здания, растений, дорожных знаков или транспортные средства на изображениях и видео.

Для создания таких моделей существует множество различных типов алгоритмов, таких, как Scale-invariant feature transform (SIFT)DetectronRefineDet или You Only Look Once (YOLO). Их часто используют в самых разных отраслях, начиная с автономного вождения и охранных систем, заканчивая автоматизацией на производстве и распознаванием лиц.

Как и с любой моделью машинного обучения, всё начинается с создания обучающего набора данных. Сделать это можно разными способами: можно заказать разметку данных, а можно всё сделать самому.

Конечно, второй вариант займет намного больше времени и сил, но с помощью правильно подобранного ПО можно неплохо упростить задачу. Сейчас я подробно расскажут, как быстро создать обучающий датасет для задач детекции объектов YOLO с помощью Label Studio.

Посмотрим, что у тебя там...
Рейтинг 0
Просмотры 729
Комментарии 0

Осваиваем китайский BI. Как построить дашборд в FineBI всего за 1 час

Big Data *Хранение данных *Хранилища данных *
Recovery mode
Tutorial

За последние несколько месяцев многие из нас вынужденно расширили представления об азиатской ИТ-отрасли. Оказалось, что, к примеру, в Китае выпускают не только смартфоны, умные роботы-пылесосы и телевизоры, но и разнообразные программные продукты, которых нам после ухода европейских и американских вендоров не хватает. Открытием стало и то, что многие ИТ-решения вполне конкурентоспособны, их интерфейс более чем дружелюбен. К тому же для работы в них знания иероглифов не нужно – вполне достаточно английского.
Наша компания специализируется на бизнес-аналитике, поэтому мы изучили то, что предлагает Китай в этом сегменте и остановили свой выбор (по крайней мере пока) на платформе для self service BI-анализа – FineBI.

Чтобы показать, как работает этот инструмент, расскажу, как построить с его помощью дэшборд. Для этого понадобится всего лишь час времени – даже если раньше с этим решением никогда не сталкивались.

Читать далее
Всего голосов 3: ↑3 и ↓0 +3
Просмотры 1.4K
Комментарии 2

Облегчаем жизнь PostgreSQL таблице под нагрузкой

Блог компании Karuna PostgreSQL *Администрирование баз данных *
Tutorial

У любого современного продукта — если он успешен — есть тот момент жизни, когда он из гадкого стартапа вдруг становится вполне себе прекрасным “энтерпрайз монолит платформ систем легаси”. Без тестов, без мониторинга, с highload и, конечно же, уймой родовых травм, вызванных быстрым развитием.

На критическую бизнес логику тесты будут написаны сами, без них никуда. Мониторинг и хайлоад — это курица и яйцо. После того, как у вас появится кто-то один из этой пары, на горизонте появится и второй. А вот все те, казалось бы, “удачные” и “быстрые” решения, заложенные при рождении, придётся исправлять. И если кодовую базу можно спокойно переписать (ну или хотя бы закидать костылями), то вот база данных — это одна сплошная горячая точка. Запросы и миграции, которые легко проходили на момент становления вашего продукта, легко могут сейчас положить прод, потому что ваша база теперь под постоянной нагрузкой, а ещё она неприлично раздулась. 

Привет! Меня зовут Константин, и в Каруне я работаю backend-разработчиком. Данная статья — компиляция ряда сложностей, с которыми мы столкнулись, и методик для их решения. Вся проблема громоздких таблиц в том, что они, как визит к стоматологу — неожиданно, дорого, больно и ужасно вариативно. 

Читать далее
Всего голосов 21: ↑18 и ↓3 +15
Просмотры 3.3K
Комментарии 6

Okteto Cloud – ещё один способ организации локальной разработки в Kubernetes

Блог компании Флант DevOps *Облачные сервисы Kubernetes *

В этой статье мы рассмотрим подход, при котором разработка приложений ведется непосредственно в кластере Kubernetes, а отдельные операции сборки и деплоя оказываются не нужны. Такую возможность предоставляет сервис Okteto Cloud и одноименная Open Source-утилита от его разработчиков. Идея проекта — сэкономить много времени и сосредоточиться на программировании, не забивая голову подготовкой и настройкой окружения. 

Читать далее
Всего голосов 31: ↑30 и ↓1 +29
Просмотры 1.6K
Комментарии 1

20 фактов кибербеза

Информационная безопасность *IT-инфраструктура *Статистика в IT

Delivery, «Яндекс.Еда», «Гемотест»: кто еще под колпаком?

«Никогда такого не было, и вот опять» — примерно так мы думаем, когда читаем новости об очередной утечке данных или хакерской атаке. Вы тоже заметили, как они участились в последнее время? Мы с коллегами решили собрать для вас 20 фактов о киберугрозах, на которые стоит обратить особое внимание. 

Время и деньги 

1. Общий ущерб от преступлений с использованием компьютерных технологий в 2021 году в России превысил 150 млрд рублей, подсчитали в RTM Group. Они опирались на возбужденные уголовные дела, связанные с использованием таких технологий.

2. К концу 2016 года каждые 40 секунд какая-то компания становилась жертвой программ-вымогателей. К 2021-му это время сократилось до 11 секунд, писал Cybercrime Magazine. По прогнозам Cybersecurity Ventures, к 2031 году таким атакам бизнес и конечные потребители будут подвергаться уже каждую пару секунд.

3. По оценкам представителя сервиса Data Leakage & Breach Intelligence, только с февраля нынешнего года в Сеть могли утечь данные 8 млн клиентов различных сервисов доставки еды. Самая крупная утечка были у компаний «Яндекс.Еда» (затронула 6,8 млн пользователей) и «Два берега» (780 тыс.). Однако здесь еще не был учтен недавний случай с Delivery Club: масштабы утечки могут стать рекордными на рынке. 

4. За прошлый год количество киберпреступлений выросло на 1,4% по сравнению с 2020-м, сообщало МВД России.

5. По данным крупнейшего в мире производителя аппаратного и программного обеспечения IBM, большинству компаний требуется 197 дней, чтобы обнаружить преступление, и до 69 дней, чтобы его локализовать.

Читать далее
Всего голосов 5: ↑3 и ↓2 +1
Просмотры 1.3K
Комментарии 0