Для архивных данных необходимо надежное хранилище с функциями эластичного масштабирования, при этом относительно недорогое в плане потребления ресурсов. В качестве примера технологической поддержки подобного решения можно привести распределенную файловую систему HDFS, а также построенную на эффективной работе с ней экосистему Apache Hadoop с одноименным продуктом во главе.
Если говорить об оперативных данных, то здесь необходимо обеспечить высокую производительность работы с ними (и тут на помощь приходят, например, IMDG/IMDB-решения), надежное хранение (SQL/NoSQL в зависимости от характеристик данных и предъявляемых к ним требований), эффективную передачу (потоки данных с эффективными брокерами сообщений).
Очевидно, что архитектуры предыдущих поколений (та же SOA) не могут обеспечить подобный гранулированный подход. Необходимо поддерживать организационную и технологическую распределенность ИТ-ландшафта, в котором можно четко определить end-to-end продукты и адресно работать с ними.
Получается, что мы приходим к понятию бизнес-актуальности данных. В приведенном примере данные могут считаться актуальными, когда они характеризуют текущий счет, операции по нему, на основании чего можно, например, работать с клиентскими предпочтениями. На основании бизнес-актуальности можно сформировать понятие оперативного и архивного хранения данных.
развитие современных практик работы с данными (особенно с большими данными) уходит от монолитных озер данных (Data Lake) в сторону продуктового подхода, подчиняется шаблону «Сетки данных» (Data Mesh). Вкратце напомним читателю основные принципы применения указанного шаблона:
развитие современных практик работы с данными (особенно с большими данными) уходит от монолитных озер данных (Data Lake) в сторону продуктового подхода, подчиняется шаблону «Сетки данных» (Data Mesh). Вкратце напомним читателю основные принципы применен