Джерело: Shutterstock
Великі дані, компанія, що спеціалізується на високоефективних платформах даних для AI та масштабної обробки даних, зробила кілька значних оголошень, пов'язаних з об'єднанням обробки даних та зберігання даних у реальному часі.
Компанія додала універсальні можливості зберігання до своєї флагманської великої пропозиції даних даних. Він стверджує, що це робить його першою “повністю об'єднаною” платформою даних для навантажень штучного інтелекту.
Оновлення має на меті усунути потребу в декількох окремих системах зберігання, що дозволяє підприємствам консолідувати свою інфраструктуру та спростити управління даними. Компанія заявила, що нові можливості обслуговують усі види навантаження, без будь-яких компромісів у галузі ефективності, витрат чи масштабованості.
«Наше бачення величезної платформи даних завжди полягало в тому, щоб організації могли обробляти, аналізувати та діяти за даними в режимі реального часу, надати їм можливість без особливих зусиль масштабувати, зменшити свої інфраструктурні витрати та швидше інновації, об'єднуючи інфраструктуру даних AI в межах одного, Потужна платформа », – сказав Аарон Чаассон, віце -президент з маркетингу продуктів та рішень за величезними даними. З сьогоднішнім оголошенням ми усуваємо силоси даних, які колись перешкоджали ініціативам AI та аналітики, що надають клієнтам швидше, точніше рішення та розблокуючи зростання, керовані даними ».
Відповідно до величезних даних, оновлення дозволяє йому відповідати визначенню Гарнтера про багатопротокольні платформи для зберігання, які “розроблені для підтримки декількох протоколів доступу до зберігання та вирішення зростаючих потреб підприємств”.
Основні особливості оновлення включають підтримку таких середовищ, як VMware, Hyper-V та інші гіпервізори. Платформа також оптимізована для Kubernetes та контейнерних додатків. Компанії часто використовують як віртуалізовані, так і контейнерні системи, що може ускладнити управління різними системами зберігання. Велика платформа даних спростила це, поєднуючи обидва типи систем в одну єдину систему зберігання.
Нові функції також включають завантаження з SAN, який дозволяє підприємствам розгортати та керувати серверами, не покладаючись на місцеві диски. Це покращує надмірність, спрощує забезпечення та покращує відновлення після аварій.
Нова функція зберігання блоків буде доступна наступного місяця як частина величезної платформи даних.
Незважаючи на те, що величезний рух до єдиного зберігання є перспективним, його можливості зберігання блоків все ще розвиваються. Наприклад, платформа підтримує лише NVME-OVER-ETHERNET. У нього не вистачає традиційної підтримки волокон та підтримки ISCSI. Крім того, він не пропонує віддалений прямий доступ до пам'яті (RDMA). Однак величезні дані мають дорожні накопичення деяких з цих функцій для майбутніх випусків.
В іншому основному оголошенні величезні дані, що представляють величезний брокер подій-двигун потокового потоку в режимі реального часу, який об'єднує транзакційні та аналітичні дані. Платформа використовує агентів AI для динамічного дії на вхідні дані для доставки інтелекту та автоматизації в режимі реального часу.
Сьогодні підприємства стикаються з численними проблемами з традиційними системами потокової передачі подій. Ці старі архітектури часто оснащені жорсткими конструкціями та окремими силосами даних, що ускладнює ефективність обробки та аналізу даних. Це може призвести до неефективності, таких як розповсюдження інфраструктури та повільну обробку даних.
Великі дані стверджують, що двигун забезпечує понад 10 разів ефективність застарілих реалізацій Kafka. Це означає, що можливість обробляти понад 500 мільйонів повідомлень за секунду та забезпечити необмежену лінійну масштабованість.
Як уніфікована платформа AI Data, Ast Broker Event Broker призначений для спрощення управління даними, здійснюючи трансакційні, аналітичні, AI та потокові навантаження в режимі реального часу під єдиною архітектурою. Це означає, що замість того, щоб дані переміщуються між зовнішніми серверами та уповільнити, їх можна передати безпосередньо в даний момент.
(Yurchanka Siarhei/Shutterstock)
Коментуючи дебют величезного брокера подій, Джефф Денворт, співзасновник величезних даних, підкреслив його трансформаційний вплив на обробку даних у режимі реального часу. “Запуск великого брокера подій відзначає фундаментальну зміну на ринку обробки даних у режимі реального часу”,-сказав Денворт.
“Об’єднавши потокову передачу подій, аналітику та AI на єдину платформу, величезне вилучення десятиліть неефективності трубопроводу даних та складності потокової передачі подій, розширення можливостей організацій виявляти шахрайство в мілісекундах, співвідносять сигнали розвідки в усьому світі, діяти в миттєві засоби та миттєво Надайте досвід клієнтів з підтримкою AI. Це майбутнє інтелекту в режимі реального часу, побудованого для епохи ШІ ».
Нові функції дозволяють платформі виконувати функції без серверів, що допомагає автоматизувати обробку даних та забезпечує розуміння в режимі реального часу. Крім того, можливості GPU-прямих дозволяють швидко переказувати дані між зберіганням та графічними процесорами, оптимізуючи продуктивність для вимогливих додатків.
Брокер величезного події планується бути доступним у березні.