Послухайте, Consul чудовий, коли він працює, але давайте будемо реалістами - запуск його у виробництво зазвичай означає, що ви няньчитеся з кластерами etcd, налагоджуєте збої gossip о 2 годині ночі і пишете ще один модуль Terraform просто для того, щоб додати нове середовище.
Більшість команд сьогодні не хочуть, щоб працювала ще одна розподілена система. Їм потрібен пошук сервісів, меш і конфігурація, яка просто працює - без доктора філософії в галузі розподілених систем або спеціальної команди розробників платформи. Хороша новина: за останні пару років ландшафт повністю змінився. Кілька компаній нарешті створили те, чого всі насправді хотіли: готові заміни (або кращі підходи), які виконують найскладнішу роботу за вас.
Нижче наведені альтернативи, на які зараз переходять команди, що швидко розвиваються. Ніяких академічних проектів, ніяких “закрутити свій власний” - тільки те, що дозволяє вам повернутися до створення продукту.

1. AppFirst
AppFirst підходить під іншим кутом, повністю видаляючи більшу частину інфраструктурного коду. Розробники описують, що потрібно їхньому додатку - процесор, пам'ять, тип бази даних, мережеві правила - і платформа надає фактичні хмарні ресурси через AWS, Azure або GCP, не передаючи Terraform або YAML-файли. Вона автоматично генерує безпечні VPC, підмережі, групи безпеки та хуки спостереження.
Суть полягає в тому, щоб дозволити інженерам володіти розгортаннями від початку до кінця, дотримуючись при цьому нормативних вимог і не витрачаючи зайвих коштів. Варіанти включають в себе хостинг SaaS для площини управління або самостійні інсталяції, і це працює однаково, незалежно від базового хмарного провайдера.
Основні моменти
- Декларативне забезпечення, орієнтоване на додатки
- Автоматично створена безпечна мережа
- Вбудована система реєстрації та оповіщення
- Розподіл витрат за додатками та середовищами
- SaaS або саморозміщена площина управління
Плюси
- Обслуговування Terraform не потрібне
- Узгоджене налаштування в різних хмарах
- Миттєві середовища для функціональних гілок
- Спостережуваність включена за замовчуванням
Мінуси
- Блокується в їхньому шарі абстракції
- Менша видимість необроблених хмарних ресурсів
- Все ще рано в порівнянні зі зрілими інструментами IaC
- Залежність від постачальника при внесенні змін
Контактна інформація
- Веб-сайт: www.appfirst.dev

2. і т.д.
etcd - це розподілене сховище ключів-значень, створене для зберігання критично важливих даних у кластерних середовищах. Інженери використовують його, коли їм потрібно щось надійно узгоджене, що може пережити розриви мережі та збої в роботі машин без втрати даних. Він використовує алгоритм консенсусу Raft і надає простий HTTP API, тому люди взаємодіють з ним за допомогою таких інструментів, як curl.
Проект навмисно залишається досить мінімальним - ієрархічні ключі, відстеження змін, додаткові TTL і підтримка SSL покривають більшість випадків використання. Багато великих систем все ще покладаються на нього як на резервне сховище для координації завдань.
Основні моменти
- Простий HTTP API, дружній до curl
- Ієрархічна структура ключів, подібна до каталогу
- Watch API реагує на зміну значення
- Консенсус щодо розподілу плотів
- Додаткові TTL на клавішах
- Підтримка клієнтських сертифікатів SSL
Плюси
- Надійна модель узгодженості
- Дуже легка вага
- Перевірено роками у виробництві
- Легко вбудовувати в інші системи
Мінуси
- Немає вбудованих функцій виявлення сервісів або mesh-функцій
- Потребує ручного керування кластером
- Обмежені можливості контролю доступу
- Продуктивність сильно падає, якщо кластер стає нездоровим
Контактна інформація
- Веб-сайт: etcd.io
- Twitter: x.com/etcdio
3. Apache ZooKeeper
Apache ZooKeeper починався як координаційна служба, яка обробляє брудні частини розподілених додатків - конфігурацію, іменування, обрання лідера, блокування та членство в групах. Люди розгортають його як невеликий кластер серверів, які зберігають дані в пам'яті і записують все на диск для довговічності. Клієнти підключаються і використовують бібліотеки Java або C, щоб отримати те, що їм потрібно.
Більшість інсталяцій розглядають його як центральну утиліту, а не як щось, до чого розробники звертаються щодня. Після його запуску програми просто читають і спостерігають за змінами у вузлах. Проект існує вічно і досі отримує регулярні оновлення від спільноти Apache.
Основні моменти
- Дерево даних у пам'яті з постійним записом
- Надійні гарантії стабільності
- Механізм спостереження для сповіщень про зміни
- Вбудована підтримка замків і виборів лідера
- Клієнтські бібліотеки Java та C
Плюси
- Надзвичайно стабільний після багатьох років виробничого використання
- Проста модель даних, про яку легко міркувати
- Хороша документація та приклади
- Добре підходить для малих і середніх координаційних навантажень
Мінуси
- Операції стають складнішими в міру зростання кластерів
- Відсутня вбудована підтримка мультицентрів даних
- Об'єм пам'яті для великих наборів даних
- Клієнтські з'єднання можуть перевантажувати невеликі кластери
Контактна інформація
- Веб-сайт: zookeeper.apache.org

4. Істіо.
Istio функціонує як рівень міжмережевої сітки, що відповідає за маршрутизацію, моніторинг та захист трафіку в середовищах з мікросервісами або розподіленими додатками. Інженери розгортають його разом з Kubernetes, щоб вставити проксі-сервери, які керують зв'язком між сервісами, залучаючи такі деталі, як Envoy, для глибшого контролю на рівні додатків. Система поширюється між кластерами або навіть різними хмарами, пов'язуючи робочі навантаження за допомогою узгоджених політик, і працює на основі відкритої екосистеми, де люди створюють розширення або об'єднують їх у простіші пакети.
Оператори можуть обирати між самостійним запуском, швидким встановленням на Kubernetes або передачею керованих сервісів від постачальників. Така гнучкість походить від того, що вона була розроблена як проект CNCF, розпочатий у 2016 році кількома великими гравцями, що дозволяє їй бути прив'язаною до ширшого світу хмарних технологій, як і сама Kubernetes. На практиці він нашаровується, не змушуючи вносити зміни в код додатків.
Основні моменти
- Керування трафіком на основі проксі з підтримкою Envoy
- mTLS для автентифікації та шифрування послуг
- Вбудована телеметрія для відстеження продуктивності
- Застосування політики в багатокластерних налаштуваннях
- Прокладання тунелів з нульовим рівнем довіри на рівні 4
- Розширення за рахунок інтеграції з громадами
Плюси
- Природно поєднується з середовищами Kubernetes
- Забезпечує безпеку та спостережливість "з коробки
- Працює з гібридними та мультихмарними хмарами без особливих зусиль
- Відкрита екосистема для індивідуальних налаштувань
Мінуси
- Налаштування передбачає з'єднання декількох компонентів між собою
- Використання ресурсів зростає завдяки функціям рівня 7
- Налагодження проксі-серверів може бути складним у великих сітках
- Спирається на глибокі знання Kubernetes
Контактна інформація
- Веб-сайт: istio.io
- LinkedIn: www.linkedin.com/company/istio
- Twitter: x.com/IstioMesh

5. Лінкерд
Linkerd вбудовується в Kubernetes як легка сервісна сітка, яка використовує крихітні проксі-сервери для шифрування викликів сервісів та збору метрик. Все це працює на коді Rust, що допомагає йому залишатися безпечним і швидким без звичайних пасток, таких як витік пам'яті. Користувачі додають його поступово, починаючи з площини керування та розгортаючи частини площини даних за потреби, і він підключається до ресурсів кластера через кастомні об'єкти, не потопаючи в конфігураційних файлах.
Після активації він автоматично застосовує взаємне TLS для внутрішнього трафіку та одразу ж збирає статистику затримок та помилок, не потребуючи додаткових налаштувань. Завдяки такому підходу Kubernetes відчуває себе рідним, і, як випускник CNCF з відкритим вихідним кодом, він спирається на солідну базу учасників, уникаючи при цьому роздуття, яке виникає у важких сітках.
Основні моменти
- Надлегкі іржаві проксі-сервери з низькими накладними витратами
- Автоматичний mTLS і безпека з нульовим налаштуванням
- Миттєві показники запитів та затримок
- Балансування навантаження за допомогою повторних спроб і тайм-аутів
- Поетапне розгортання на Kubernetes
- Інструменти діагностики для швидкого усунення несправностей
Плюси
- Починає з малого і масштабується без драматизму
- Безпека за дизайном завдяки Rust
- Швидко забезпечує чітку видимість
- Легко накладати на існуючі кластери
Мінуси
- Залишається лише для Kubernetes, без підтримки VM
- Менше розширених варіантів маршрутизації, ніж у конкурентів
- Інструменти спільнот відстають від великих проектів
- Синьо-зелені розгортання потребують деяких налаштувань YAML
Контактна інформація
- Веб-сайт: linkerd.io
- LinkedIn: www.linkedin.com/company/linkerd
- Twitter: x.com/linkerd/

6. VMware NSX
VMware NSX віртуалізує мережу всередині приватних хмар, віддаляючи стек від фізичного обладнання, щоб зробити його програмованим і автоматизованим. У розподілених середовищах вона використовує мікросегментацію для ізоляції робочих навантажень і шифрування для блокування потоків, і всім цим можна керувати з однієї консолі, яка охоплює сайти або хмари. Адміністратори використовують VMware Cloud Foundation для створення віртуальних приватних хмар із квотами та правилами, прискорюючи процес надання ресурсів без постійного контролю.
Інструмент підключається до Kubernetes для контейнерного трафіку, додаючи спостережуваність і власну мережу, яка добре поєднується з vSphere. Розгортання відбувається в екосистемі VCF, де API та шаблони автоматизують політики безпеки в гібридних середовищах, але він не є самостійним продуктом.
Основні моменти
- Мікросегментація для ізоляції робочого навантаження
- Централізована політика для багатосайтових установок
- Власна мережа контейнерів Kubernetes
- Шифрування та федеративний контроль
- Забезпечення на основі API для VPC
- Вбудована функція спостереження за трафіком
Плюси
- Спрощує безпеку у віртуалізованих хмарах
- Автоматизує багатокористувацькі операції
- Тісно інтегрується зі стеком VMware
- Добре обробляє політики аварійного відновлення
Мінуси
- Заблоковано в середовищах VMware
- Крутіша крива за межами VCF
- Немає окремої опції для швидких тестів
- Спостережуваність більше фокусується на інфрачервоному діапазоні, ніж на додатках
Контактна інформація
- Веб-сайт: www.vmware.com
- LinkedIn: www.linkedin.com/company/vmware
- Facebook: www.facebook.com/vmware
- Twitter: x.com/vmware

7. F5
F5 Aspen Mesh базується на Istio для управління трафіком мікросервісів у мережах провайдерів, маршрутизації пакетів з політиками та забезпечення прозорості на рівні послуг. Він підтримує перехід від старих віртуальних функцій до хмарних в установках 5G, використовуючи дворівневий IP для сумісності та такі інструменти, як менеджери сертифікатів, для управління ідентифікацією між кластерами. Оператори розгортають його в локальних, приватних або гібридних хмарах, ізолюючи орендарів або об'єднуючи кілька сайтів для забезпечення відмовостійкості.
Компонент під назвою Packet Inspector фіксує деталі трафіку для кожного користувача або послуги, допомагаючи в перевірці відповідності або відстеженні білінгу, не розкриваючи повну топологію. Як розширення Istio, він успадковує основну логіку mesh, але додає телекомунікаційні функції, такі як перегляд на рівні абонента.
Основні моменти
- Контроль та забезпечення дотримання правил дорожнього руху на основі ІСТІО
- Підтримка двох стеків IPv4/IPv6
- Видимість для кожного орендаря та приховування топології
- Управління сертифікатами з FQDN та SPIFFE
- Мультикластер для високої доступності
- Захоплення пакетів для усунення несправностей
Плюси
- Полегшує міграцію мікросервісів з 4G на 5G
- Сильний у відстежуваності комплаєнсу
- Ізоляція орендарів у декількох хмарах
- За замовчуванням використовуються надійні конфігурації безпеки
Мінуси
- Орієнтовані на постачальників послуг, менш загальні
- Залежить від складності Istio під
- Інструменти візуалізації додають додаткові рівні для навчання
- Перехідні функції підходять для конкретних галузей
Контактна інформація
- Веб-сайт: www.f5.com
- Телефон: 1-888-882-7535
- Електронна пошта: F5TechnologyAllianceProgram@f5.com
- Адреса: 801 5th Ave Seattle, WA 98104
- LinkedIn: www.linkedin.com/company/f5
- Facebook: www.facebook.com/f5incorporated
- Twitter: x.com/f5
- Instagram: www.instagram.com/f5.global

8. Тигра
Tigera фокусується на мережевій безпеці та спостережливості, пристосованих до кластерів Kubernetes, спираючись на свою роль супроводжувача Calico з відкритим вихідним кодом. Платформа використовує eBPF для високопродуктивної мережі, а також вхідні та вихідні шлюзи для стандартизації потоку трафіку. Політики дозволяють здійснювати тонкий контроль, наприклад, обмежувати вихідні з'єднання за IP-адресами, доменами або CIDR, одночасно підтримуючи мікросегментацію для ізоляції просторів імен і робочих навантажень. У багатокластерних сценаріях Cluster Mesh керує підключенням і виявленням без залучення повної сервісної сітки, а центральна інформаційна панель застосовує єдині правила для різних версій Kubernetes.
Вибір варіантів розгортання варіюється від Calico з відкритим вихідним кодом для базової безпеки до моделі SaaS від Calico Cloud для спостережливості в окремих кластерах або самостійного хостингу Calico Enterprise для більш широкого управління. Інструменти спостережливості відображають топологію мережі, відстежують зв'язки між робочими навантаженнями і витягують метрики трафіку для налагодження, а також мають додаткові функції, такі як інформаційні панелі подій та інтеграції з SIEM для обробки інцидентів. Усе це допомагає підтримувати узгодженість у конфігураціях з великою кількістю контейнерів.
Основні моменти
- Мережа на основі eBPF для підвищення продуктивності
- Шлюзи на вході та виході для контролю дорожнього руху
- Мережеві політики з обмеженнями на IP-адреси та домени
- Cluster Mesh для виявлення декількох кластерів
- Подання топології та метрики трафіку
- Централізоване застосування політик у всіх дистрибутивах
Плюси
- Міцна інтеграція з Kubernetes
- Ядро з відкритим вихідним кодом для користувацьких розширень
- Обробляє багатошарові кластери без додаткових шарів
- Детальна видимість мережевих потоків
Мінуси
- Тісні зв'язки з екосистемою Каліко
- Контроль евакуації потребує ретельного налаштування
- Варіанти SaaS обмежують самоуправління
- Фокус зміщується в бік безпеки, а не глибини маршрутизації
Контактна інформація
- Веб-сайт: www.tigera.io
- Телефон: +1 415-612-9546
- Електронна пошта: contact@tigera.io
- Адреса: 2890 Zanker Rd Suite 205 San Jose, CA 95134
- LinkedIn: www.linkedin.com/company/tigera
- Twitter: x.com/tigeraio

9. Довіреність посланця
Envoy Proxy - це створений на C++ проксі-сервіс для хмарних додатків, який розпочав своє життя в Lyft, щоб вирішити проблеми з мережею в мікросервісах. Він працює як універсальна площина даних у сітках сервісів, розташовуючись поруч із додатками для обробки трафіку без прив'язки до конкретних мов чи фреймворків, а його позапроцесний дизайн дозволяє економно використовувати пам'ять. Коли трафік проходить через конфігурацію Envoy, він згладжує спостережуваність у всіх напрямках, що полегшує виявлення проблем у заплутаних розподілених сервісах.
Проксі підтримує вбудовані HTTP/2 і gRPC, безперешкодно проксінгує з HTTP/1.1, а також трюки балансування навантаження, такі як повторні спроби, розриви ланцюга, обмеження швидкості і маршрутизація з урахуванням зон. Конфігурація відбувається динамічно за допомогою API, і вона глибоко занурюється в статистику трафіку L7, розподілену трасування і навіть заглядає в специфічні для протоколу речі, такі як MongoDB або DynamoDB дроти.
Основні моменти
- Позапроцесорний сервер з низьким енергоспоживанням
- Підтримка HTTP/2 та gRPC проксі
- Повторні спроби, розрив ланцюга та обмеження швидкості
- Динамічні API для зміни конфігурації
- Спостережуваність трафіку та відстеження L7
- Моніторинг на рівні протоколу для баз даних
Плюси
- Діагностика платформи для змішаних середовищ
- Висока продуктивність на великих сітках
- Легко вбудовуються в існуючі проксі-сервери
- Узгодженість метрик у всіх сервісах
Мінуси
- Потрібні сітчасті обгортки для повної координації
- База C++ означає перезбірки для твіків
- Спостережуваність потребує зовнішньої агрегації
- Налаштування покладається на YAML для складних правил
Контактна інформація
- Веб-сайт: www.envoyproxy.io

10. Кума.
Kuma працює як площина керування з відкритим вихідним кодом, що базується на Envoy, керуючи підключенням до сервісів у Kubernetes, віртуальних машинах та гібридних сумішах. Вона об'єднує політики для трафіку L4 і L7 для забезпечення безпеки, виявлення, маршрутизації та надійності, з вбудованою підтримкою вхідних шлюзів і багатозонних з'єднань, що охоплюють хмари або кластери. Конфігурація дозволяє використовувати декілька сіток в одному кластері, скорочуючи кількість окремих площин контролю, і включає CRD для управління на основі Kubernetes.
Запуск включає швидкі команди CLI для розгортання площини керування, після чого через порт-форвард відкривається графічний інтерфейс для візуалізації, який підтримується REST API та інструментом kumactl. Політики застосовуються з мінімальним клопотом, вбудовуючи проксі-сервери Envoy без необхідності глибоких знань, а також масштабуються горизонтально в автономному або зонованому режимах для спрощення роботи.
Основні моменти
- Політика на основі посланників для трафіку L4/L7
- Підтримка декількох сіток в окремих кластерах
- Шлюзи відкриття та входу для місцевих мешканців
- GUI, CLI та REST для управління
- Багатозональне підключення через хмари
- Горизонтальне масштабування в гібридних установках
Плюси
- Рівномірно працює на K8 та VM
- Швидке розгортання політики без пекла налаштувань
- Вбудований графічний інтерфейс полегшує перегляд кластерів
- Зменшує розповзання площини керування
Мінуси
- Залежність від envoy додає накладних витрат на проксі
- Багатозонні конфігурації зон заздалегідь
- GUI port-forward обмежує віддалений доступ
- Політичний підрахунок залишається зосередженим на політиці
Контактна інформація
- Веб-сайт: kuma.io
- Twitter: x.com/KumaMesh

11. Solo.io
Solo.io надає Gloo Gateway і Gloo Mesh для роботи з хмарними підключеннями, причому шлюз керує API і трафіком ШІ, а mesh бере на себе оркестровку сервісів. Ці компоненти з'єднують сервіси в налаштуваннях Kubernetes, підвищуючи рівень безпеки та спостережливості, щоб відстежувати та контролювати потоки без надмірного ускладнення стеку. Gloo Mesh підключається до Istio для виконання функцій mesh, а шлюз використовує навколишні підходи, щоб зменшити навантаження на ресурси в розподілених архітектурах.
Інструменти зосереджені на безпечній передачі даних між робочими навантаженнями, з елементами керування для маршрутизації та моніторингу, які відповідають хмарним моделям. Розгортання відбувається в контейнерному середовищі з підключенням Istio, де це необхідно для більш глибоких функцій mesh, але при цьому ядро залишається простим для API або внутрішніх службових посилань.
Основні моменти
- API та ШІ-шлюз для входу на трафік
- Істіо-інтегрована сітка для послуг
- Контроль безпеки та спостережливості
- Зовнішня сітка для економії ресурсів
- Орієнтоване на підключення до Kubernetes
- Маршрутизація та моніторинг робочих навантажень
Плюси
- Об'єднує шлюз і сітку в одному вікні
- Параметри навколишнього середовища полегшують масштабування
- Тісні зв'язки з користувачами Istio
- Покриває API до внутрішніх потоків
Мінуси
- Залежність Istio для повної сітки
- Шлюз перекошений у бік крайового трафіку
- Атмосфера все ще дозріває подекуди
- Спостережуваність потребує об'єднання інструментів
Контактна інформація
- Веб-сайт: www.solo.io
- LinkedIn: www.linkedin.com/company/solo.io
- Twitter: x.com/soloio_inc

12. HAProxy
HAProxy починався як швидкий балансувальник навантаження з відкритим вихідним кодом і все ще обробляє величезну частину інтернет-трафіку в своїй версії для спільноти. Корпоративна версія має додаткові модулі для WAF, виявлення ботів і централізованого управління за допомогою Fusion, зберігаючи при цьому той самий основний движок, який обробляє TCP, HTTP і QUIC. Оператори встановлюють її перед веб-рівнями або API-шлюзами, коли їм потрібна субмілісекундна затримка і суворий контроль над з'єднаннями.
Розгортання варіюється від окремих двійкових дропів до контролерів входу в Kubernetes, а платний рівень додає такі речі, як активно-активне обхідне копіювання та офіційну підтримку. Він залишається популярним, оскільки синтаксис конфігурації простий, а продуктивність рідко розчаровує.
Основні моменти
- Балансування навантаження TCP і HTTP за допомогою ACL
- Додатки для управління корпоративним WAF та ботами
- Підтримка QUIC та HTTP/3
- Приладова панель Fusion для управління декількома пристроями
- Перевірка здоров'я та черга з'єднань
Плюси
- Надзвичайно швидка робота та низьке використання пам'яті
- Синтаксис конфігурації більшість операторів вже знає
- Видання для громад покриває більшість потреб
- Варіант входу в Solid Kubernetes
Мінуси
- Корпоративні функції заблоковані за захисною стіною
- Правила WAF менш обширні, ніж спеціальні інструменти
- Площина управління термоядерним синтезом додає ще одну деталь
- Немає вбудованого виявлення служб
Контактна інформація
- Веб-сайт: www.haproxy.com
- Телефон: +1 (844) 222-4340
- Адреса: 1001 Watertown St Suite 201B Newton MA 02465 United States
- LinkedIn: www.linkedin.com/company/haproxy-technologies
- Facebook: www.facebook.com/haproxy.technologies
- Twitter: x.com/haproxy

13. Сіра матерія
Greymatter накладає агентську площину управління на робочі навантаження для керування з'єднаннями з нульовою довірою та сервісними мережами. Він автоматизує впровадження політик, шифрування та життєві цикли проксі-серверів у хмарі або на периферії, використовуючи дані з потоків трафіку та журналів аудиту. Оператори визначають правила, які система застосовує без ручних налаштувань, самостійно обробляючи сертифікати та шлюзи.
Платформа працює на дистрибутивах Kubernetes або "голих" хмарах, таких як AWS і Azure, підтримуючи відключені або високозахищені ділянки. Інтеграція з інструментами SIEM передає події безпеки назовні та вбудовується в конвеєри для перевірки коду перед розгортанням. Працівники регульованих сфер використовують його, щоб тримати з'єднання заблокованими під час переміщення служб.
Основні моменти
- Автономна політика та шифрування
- Самокеровані проксі-сервери та шлюзи
- Спостережливість та аудит на всьому флоті
- Мультихмарне та периферійне підключення
- Сертифікована автоматизація для робочих навантажень NPE
- CI/CD хуки для DevSecOps
Плюси
- Автоматизує ручне різання сітки за допомогою автоматизації
- Підходить для гібридних установок без переробки
- Аудиторські сліди живлять існуючі інструменти
- Працює з відключеними середовищами
Мінуси
- Зв'язки з Kubernetes для повного функціоналу
- Глибина політики потребує завчасного планування
- Спостережуваність випливає з інтеграції
- Шар агента додає невеликі накладні витрати
Контактна інформація
- Веб-сайт: greymatter.io
- Адреса: 4201 Wilson Blvd, 3rd Floor Arlington, VA 22203
- Facebook: www.facebook.com/greymatterio
- Twitter: x.com/greymatterio
- Instagram: www.linkedin.com/company/greymatterio

14. Конг Меш
Kong Mesh налаштовується як сервісна сітка, яка охоплює кластери та віртуальні машини Kubernetes, впроваджуючи проксі-сервери для керування взаємодією сервісів між собою. Оператори налаштовують її для правил дорожнього руху, перевірки ідентичності та моніторингу стану прямо з площини керування, яка може бути розміщена на Konnect для хостингу або працювати автономно на існуючій інфраструктурі. Конфігурація підтримує розподіл робочих навантажень на зони або орендарів, підтримуючи єдині політики без використання спеціальних сценаріїв.
На практиці це означає, що виявлення та mTLS накладаються на всі необхідні додатки, незалежно від того, чи вони контейнерні, чи працюють на "голому" металі. Це означає, що розробники зосереджуються на коді, в той час як mesh обробляє перенаправлення в разі збоїв або розподілу навантаження. Графічний інтерфейс Konnect збирає все на одній інформаційній панелі, але користувачі можуть використовувати CLI або YAML, якщо це їхня швидкість.
Основні моменти
- Вбудовані mTLS та виявлення сервісів
- Керування дорожнім рухом за допомогою проксі-серверів для колясок
- Підтримка кількох зон і кількох користувачів
- Працює на Kubernetes або віртуальних машинах
- Коннектний графічний інтерфейс для централізованого перегляду
- Контроль доступу на підприємстві та метрики
Плюси
- Ідеально підходить для гібридних середовищ
- Забезпечує узгодженість політик у різних зонах
- Немає потреби в окремих інструментах виявлення
- Графічний інтерфейс зменшує кількість запитів до CLI
Мінуси
- Ін'єкція проксі додає деяку затримку
- Багатозонна проводка потребує початкового налаштування
- Покладається на Konnect для повного хостингу
- Корпоративні біти потребують ліцензування
Контактна інформація
- Веб-сайт: developer.konghq.com
- LinkedIn: www.linkedin.com/company/konghq
- Twitter: x.com/kong
Висновок
Зрештою, відмова від Consul зазвичай зводиться до одного питання: чи хочете ви продовжувати використовувати ще одну розподілену систему, чи ви нарешті хочете щось, що перестане красти ваші вихідні?
Зараз існує безліч варіантів. Спільним для них є те, що жоден з них не змушує вас ставати експертом з Raft лише для того, щоб розгорнути функцію.
Виберіть той, який відповідає тому безладу, від якого ви насправді намагаєтеся втекти. Якщо найбільшим болем для вас є няньчитись з etcd та пліткувати про збої, схиліться до легших проксі або керованих площин управління. Якщо ви вже по коліна в Kubernetes і просто хочете mTLS і спостережуваність без драматизму, то mesh натовп має вас на увазі. А якщо ви чесно втомилися від написання будь-якого інфра-коду взагалі, зараз існують платформи, які з радістю візьмуть цей тягар з вашої тарілки.
Що б ви не обрали, ера “ми повинні запускати Consul, тому що ми завжди так робили” закінчилася. Вводьте коди, спіть ночами, дозвольте комусь іншому потурбуватися про відкриття сервісів. Ви це заслужили.


