- Obszary rozwiązań
- Produkty
- Usługi
- Firma
- Wiedza
- Kontakt
Sprawne zaprojektowanie, uruchomienie i monitorowanie procesów
przetwarzania danych w hurtowni danych
Efektywne zaprojektowanie modelu hurtowni danych, metadanych dla procesów ETL oraz metadanych dla zarządzania jakością danych (DQM).
Automatyczne generowanie modeli danych oraz procesów przetwarzania danych w hurtowni danych (DWH).
Silnik przetwarzania danych zapewniający realizację ustandaryzowanych procesów w zakresie ekstrakcji, transformacji, ładowania, agregacji danych oraz weryfikacji jakości danych.
Ujednolicone środowisko do monitorowania procesów przetwarzania danych w hurtowni danych.
Zestaw narzędzi ETLA pozwala na sprawne zaprojektowanie, uruchomienie i monitorowanie procesów przetwarzania danych w hurtowni danych.
Logiczny model danych hurtowni projektowany jest z wykorzystaniem szablonu dokumentu Logical Data Model [MS Excel]. W dokumencie MS Excel przechowywane są wszystkie definicje tabel faktów i tabel wymiarów dla docelowej hurtowni danych, wraz z opisem poszczególnych atrybutów (kolumn), typów danych, reguł transformacji oraz ładowania danych.
Data Model Generator [T-SQL] to dedykowane procedury umożliwiające automatyczne wypełnienie metadanych środowiska uruchomieniowego biETLA bazując na danych zaprojektowanych na poziomie logicznego modelu danych (Logical Data Model).
Reguły jakości danych dla procesów przetwarzania danych w hurtowni definiowane są z wykorzystaniem szablonu dokumentu Data Quality Rules [MS Excel]. W dokumencie MS Excel gromadzone są reguły poszczególnych testów, w tym rodzaj testu, parametry testu, poziom istotności testu oraz parametry uruchomieniowe.
Data Quality Rules Generator [T-SQL] to dedykowane procedury umożliwiające automatyczne wypełnienie metadanych środowiska uruchomieniowego biETLA bazując na danych zaprojektowanych na poziomie dokumentu Data Quality Rules.
Dzięki optymalnej współpracy z narzędziem do analizy jakości danych DQM możesz optymalnie wykorzystać cenne zasoby informacyjne przedsiębiorstwa oraz minimalizować ryzyko niespójności i nieprawidłowości w danych źródłowych.