Project name:

SAP DATA HUB ON AWS

Project description:

SAP Data Hub ti consente di integrare i dati, orchestrare l’elaborazione dei dati e gestire i metadati tra le tue origini dati aziendali e i tuoi data lake. Ti consente di creare pipeline di dati potenti, nonché di gestire, condividere e distribuire dati.
Funzionalità come Meta Data Explorer, Data profiling, catalogue search, Data modeling (Pipelines) consente ai clienti di assumere il controllo di set di dati su varie fonti di dati come HDFS, Oracle, DB2, MYSQL, MSSQL, SAP ABAP, servizi dati SAP, Azure Data Lake (ADL), GCP – Big Query, S3 ecc.

Attualmente ci sono quasi 290 operatori predefiniti da incorporare in un data pipeline che includono: Data Modeling, Data workflow, Kafka, Tensor flow, R, Python,spark submit, HANA client, Write File (HDFS/S3), più il supporto per creare operatori personalizzate (ad esempio utilizzando il proprio codice Python) e salvarli come immagine docker, riutilizzarli in diverse pipeline e ridimensionarli in modo massiccio sui cluster di Kubernetes.

Di cosa abbiamo bisogno come piattaforma di base per la distribuzione di SAP Datahub in AWS?

Containers: che cos’è un Containers? I contenitori sono un modo per eseguire più applicazioni isolate sullo stesso hardware (proprio come le VM), ma lo fa utilizzando la memoria virtuale sull’host e utilizzando il sistema operativo host sottostante per fornire servizi di base a tutti i contenitori.

Container Runtime: per eseguire i contenitori su un sistema operativo, abbiamo bisogno di un runtime del container che abiliti i containers e fornendo funzionalità come la gestione delle immagini (vale a dire le immagini del software eseguite in un container). Un buon esempio di Container Runtime è Docker. Nel contesto SAP Datahub, ogni componente di SAP datahub come HANA DB interno, motori come DQP, Flow graph (pipeline), testo, grafici, console, registro distribuito ecc., vengono eseguiti come containers, e uno o più contenitori simili che funzionano insieme costituiscono un servizio o una funzionalità, quindi abbiamo anche bisogno di un ambiente per orchestrare il tutto, questa piattaforma è Kubernetes.

Container Registry: è il posto in cui docker memorizza tutte le immagini, SAP Memorizza le immagini del docker nel repository pubblico SAP, quando installiamo datahub nel cloud AWS queste immagini vengono estratte da SAP Repository pubblici. AWS fornisce Amazon Elastic Container Registry (ECR) per questo scopo.

Questa soluzione è stata implementata da SDG Group in collaborazione Con Cutaway con l’implementazione di questa su Amazon Web Services.
Scopri di più