Datenreplikation in der Praxis
Andreas Kandlbinder ist einer unserer Spezialisten in Sachen Data Warehouse, ETL und Datenintegration. Er berichtet über einige Anwendungsfälle seiner Kunden, in denen die Datenreplikation zum Einsatz kommt.
Andreas Kandlbinder ist einer unserer Spezialisten in Sachen Data Warehouse, ETL und Datenintegration. Er berichtet über einige Anwendungsfälle seiner Kunden, in denen die Datenreplikation zum Einsatz kommt.
Projekt: Umstellung auf Unicode als Standardzeichensatz in einer Data Warehouse Umgebung. Sehen Sie Michael Tiefenbacher, DWH-Experte bei der mip, im Interview mit Gerhard Paulus, ebenfalls DWH- Experte und maßgeblich verantwortlich für die Durchführung dieser Migration. Video ab!
Wir haben schon immer nach optimalen Lösungen gesucht, um Informationen intelligent und platzsparend abzulegen. Gleichzeitig wollen wir sie aber auch schnell wieder verfügbar machen. Das hat jahrelang mehr oder weniger gut funktioniert. Seit geraumer Zeit kommen aber auf die IT-Abteilungen neue Herausforderungen zu: es müssen quasi per sofort mehr und flexibler Informationen bereitgestellt werden.
Architektur ist in ETL-Umgebungen extrem wichtig, um eine leistungsfähige und erweiterbare Verarbeitungsumgebung für die Data Warehouse-Prozesse zu schaffen. Die Gedanken und die Zeit, die man in die Architektur vorab investiert, zahlen sich – meiner Erfahrung nach – mehrfach aus. Dies gilt sowohl für die globale ETL-Architektur als auch im Kleinen bei einzelnen ETL-Jobs.
Daten sind heute das Gold eines Unternehmens. Ihr möglichst effizientes Management ist die Herausforderung. Dabei unterstützt ein Data Warehouse (DWH), doch das ist keine Erfindung der Neuzeit. Es beschäftigt Unternehmen schon seit vielen Jahren, wenn es darum geht, Wissen als wertvolle Basis für Geschäftsentscheidungen aus ihren Daten zu generieren.
Was ist die GS1 GDSN DQX (Data Quality Excellence)-Verpflichtung eigentlich? Wie bekomme ich qualitätsgesicherte Produktstammdaten?
Unser nächstes deutsches Boot Camp steht vor der Tür. Vom 03. bis zum 05. Juli gehen wir in Frankfurt auf alle Themen der Data Vault 2.0 Implementierung ein. Wer das Boot Camp erfolgreich abschließt, bekommt ein Zertifikat, das hilft, die Karriere zu verbessern. Wenn du Interesse hast, findest du weitere Informationen auf der Website.
Join us for an exclusive online Boot Camp on July 3-5. This session is specially designed for Project Managers, IT Implementers, Data Architects, and anyone who wants to master the art of using Data Vault. The training is an original concept of the Inventor of Data Vault, Dan Linstedt. By enrolling in this course, you will gain valuable insights and learn best practices for Data Vault implementation. Participate and earn a certificate that will enhance your professional profile.
Our next Introduction to Data Vault 2.0 is in July. This class explains all the pillars of Data Vault 2.0 to a general audience, including managed self-service Business Intelligence, agile delivery of functionality, and agile requirements management. By taking this class, business analysts and managers can increase their comprehension of Data Vault 2.0, leading to better management and support of such projects. If you want to learn more about this class, follow the link below!
Hadoop and Hive are two powerful open-source programs developed for processing and analyzing large amounts of data. With Hadoop, data can efficiently be managed in distributed file systems, while Hive is a data warehouse infrastructure built on top of Hadoop. What advantages the programs bring with them and how they communicate with each other is the topic of our new blog post and our next webinar on June 13. Register here: https://scalefr.ee/Z0sCmC
Unser nächstes Data Vault 2.0 Boot Camp findet in Stuttgart statt. Vom 22.05. - 24.05.23 wollen wir die Säulen von Data Vault 2.0 diskutieren. Außerdem entwickeln wir für die Implementierung Best Practices, damit der richtigen Anwendung von Data Vault 2.0 nichts im Wege steht. Auch für eine Unterkunft und ein schönes Abendprogramm ist gesorgt. Weitere Informationen und die Anmeldung zu dem Boot Camp finden Sie unter dem Link!
Die triaxial messenden ICP®-Beschleunigungssensoren Modelle 354B04 und 354B05 von PCB Piezotronics bieten standardmäßig TEDS – Transducer Electronic Data Sheet – mit Daten zur Empfindlichkeit, Kalibrierdatum sowie Seriennummer.
Azure Data Factory und Logic Apps sind Technologien, mit denen Dynamics 365 nahtlos mit Drittsystemen verbunden werden kann. Relevante Daten werden in das Zielsystem übertragen und stehen für eine effiziente und gezielte weitere Verarbeitung parat. Ob Azure Data Factory oder Logic Apps – die Wahl hängt von den Anforderungen und der notwendigen Performance ab. Auch bereits vorgefertigte Konnektoren finden Verwendung. Der aktuelle Blogbeitrag unserer audius Experten zeigt die Vorteile der Tech
Sie fragen sich – kostenlos? Wie geht das? Bei Bestellung von eWON-Komponenten über die SEGNO Industrie Automation GmbH wird der eWON Data Mailbox Treiber von uns kostenlos mitgeliefert. Sie haben bereits eWON Flexy Komponenten im Einsatz? Kein Problem. Sprechen Sie uns an wir finden einen Weg ihre bestehenden Flexys im Treiber zu lizensieren.
Wechseln Sie zum Original-Produkt mit Sicherheit für die Zukunft Wussten Sie, dass die Siemens SICAM 230 Umgebung die Zenon Plattform von COPA-DATA beinhaltet? Das Siemens Warten-Leitsystem SICAM 230 ist im Kern die Produktvariante von Zenon und nutzt dabei zentrale Software-Funktionalitäten.
Datenerfassung mit eWON – SEGNO eWON Data Mailbox Treiber Erfassen Sie Ihre Daten der Maschinen die sie mit Ihren eWON Routern angebunden haben. Fernservice und Fernwartung Der Fernservice bzw. Fernwartung von Computer gestützten Systemen (wie z.B.: SCADA Systeme WinCC, iFIX, InTouch, Zenon, etc…) speicherprogrammierbaren Steuerungssystemen und komplexen Anlagen gewinnen beim Support von Hard- und Software zunehmend an Bedeutung.
Ein kompletter ERP-Wechsel ist anspruchsvoll und mit Risiken verbunden. Schon viele Unternehmen sind durch eine falsch eingeführte ERP-Software in wirtschaftliche Probleme geraten. Lesen Sie jetzt in unserem gemeinsamen Artikel mit Integrata Cegos, wie im Zuge des ERP-Projekts „Smart Data“ die zusätzliche Hürde einer neuen IT-Landschaft erklommen wurde und wie dabei NetSuite als zentraler Taktgeber die Finance-, Einkaufs-, Auftragsabwicklungs-, Projektmanagement- und CRM-Prozesse antreibt...
Wenn große Datenmengen zur Integration in ein Data Warehouse aus verschiedenen Quellen extrahiert und aufbereitet werden, sind verschiedene ETL-Prozesse (Extraktion, Transformation, Laden) notwendig.
Welchen Stellenwert hat ein DWH heute?
„Wir sind weiter auf Erfolgskurs und haben die nächste Stufe gezündet.“, so Ralf Siefen, Geschäftsführer der Data Center Group (DCG), stolz über die Leistung der gesamten Gruppe. Fast alle der rund 200 DCG-MitarbeiterInnen nahmen am vergangenen Freitag am alljährlichen Kick-off Event in der Betzdorfer Stadthalle teil. Die Veranstaltung hat bereits langjährige Tradition, musste jedoch coronabedingt für 3 Jahre in den digitalen Raum umziehen.
Interview mit dem HPC-Experten Daniel Menzel (Menzel IT GmbH): Sonja Philipp (Data Center Group): Daniel, danke, dass du hier bist. Wer bist du, was machst du, und was macht Menzel IT? Daniel Menzel (Menzel IT GmbH): Mein Name ist Daniel Menzel, ich bin Gründer und Geschäftsführer der Menzel IT GmbH. Wir sind ein Unternehmen aus Berlin, welches sich auf Hochleistungs-Infrastrukturen, HPC genannt, und private Cloud Computing Cluster spezialisiert hat.
Sie benötigen Signal, Data oder Power für Ihre Leiterplatten? Kein Problem mit den HARTING har-flex® Leiterplatten-Steckverbindern. Hier stehen Ihnen mit verschiedenen Bauformen, Polzahlen und sogar einer miniaturisierten Bauform eine Vielzahl an Möglichkeiten zur Verfügung. Sie sind mit SMT und THR Hold-downs verfügbar. Hold-downs erhöhen die Robustheit der Steckverbinder und entlasten die Kontakte. Mit der Anforderungsstufe 1 ermöglicht har-flex® eine zuverlässige elektrische Verbindung für mi
Laura und Luca sind seit Anfang 2022 Teil unseres Teams. Wir haben die beiden gefragt, wie sie ihr erstes Jahr bei uns als Data Science Consultants erlebt haben. Im Video berichten sie über ihre persönlichen Highlights bei Comma Soft und was sie aus der Wissenschaft in die Beratung geführt hat.
Polymetis Apps has launched a new app. For everyone who was wondering when the API Key Manager will also be available for Confluence: You can now find its equivalent – API Key Manager for Confluence – in the Marketplace. The app creates restricted, time-limited API keys for Confluence Cloud, allowing you better control of how your instance's data can be accessed. You can also revoke them when not needed anymore and do not have to wait for their automatic expiration.
Bevor Unternehmensdaten analysiert werden können, müssen sie aus dem ERP-System in die jeweilige Auswertungssoftware transferiert werden. Eine komfortable Exportfunktionalität zur schnellen Datenbereitstellung von Informationen aus Business Central ist der BC Suite Data Provider der prisma informatik. Der Einsatz des Moduls bietet sich insbesondere dann an, wenn klassische Webdienste sich nicht für den erforderlichen Datenexport eignen. Erfahren Sie alles über den Data Provider unter dem Link.