An den Anfang der Seite scrollen
2019-07-17T09:10:21.2638203+02:00 BAUDATENBANK.AT - Österreichische Baudatenbank

Grundfos „Living Lab“ – das Wohnlabor


Grundfos „Living Lab“ – das Wohnlabor
In einem Projekt zum Thema Energiemonitoring und Smart Metering haben Grundfos, Microsoft und Beckhoff das Studentenwohnheim „Grundfos Kollegiet“ im dänischen Århus mit intelligenten SPS-Systemen ausgestattet. Dabei werden Energiedaten an ein Energiemonitoring-System und an die Microsoft Azure™ Cloud übermittelt. Das Wohnheim im Hafenquartier der Stadt wurde nach höchsten Energieeffizienzstandards errichtet und mit modernster Gebäudetechnik und Automation ausgestattet. Durch das Energiemonitoring wird eine Datenbasis für die Optimierung des Gebäudebetriebs geschaffen, und durch die Einbindung der Bewohner des sogenannten „Living Lab“ werden weitere Energieeinsparpotenziale hinsichtlich des Benutzerverhaltens ausgeschöpft, ohne den individuellen Wohnkomfort zu beeinträchtigen.

Eine erste Version der Projektumsetzung erfolgte bereits im Jahr 2012 auf Basis einer eigenen Server-Infrastruktur inklusive Datenbanksystem innerhalb des Gebäudes. Durch kleiner werdende Zykluszeiten und wachsende Datenmengen, die für eine lückenlose Datenerfassung und genauere Analyse aller Zusammenhänge nötig waren, sowie die Notwendigkeit zur Bereitstellung von historischen Energiedaten wurde die Administration dieser IT-Infrastruktur jedoch zunehmend kosten- und personalintensiv. Auch der ortsunabhängige und abgesicherte Zugriff auf die gesammelten Daten durch die verschiedenen Anwendergruppen musste durch teils aufwendige IT-Mechanismen geregelt und bereitgestellt werden. Um diesen Anforderungen auch zukünftig gerecht werden zu können, wurde im Jahr 2015 eine Umgestaltung des Projekts in Form einer Auslagerung der Server-Infrastrukturen in ein Cloud-System diskutiert und von den beteiligten Projektpartnern umgesetzt. Die hochskalierbare Steuerungstechnik von Beckhoff stellte dabei ihre große Flexibilität unter Beweis, denn ein Retrofit der lokalen Gebäudeautomationsplattform mit der gewünschten Cloud-Anbindung war unkompliziert möglich. Über die einfach konfigurierbaren TwinCAT-IoT-Produkte, die eine schnelle Projektimplementierung ohne Programmierung ermöglichen, werden die Energiedaten dem Cloud-System seitdem von den SPS-Steuerungen und I/O-Subsystemen zur Verfügung gestellt.

Die Microsoft Azure™ Cloud stellt hierbei alle notwendigen Mechanismen zur Verfügung, um eine skalierbare und performante IT-Infrastruktur zur Abspeicherung und weiteren Verarbeitung der Energiedaten zu schaffen. Der Zugriff auf die Daten des Energiemonitoring-Systems im „Living Lab“ lässt sich für unterschiedliche Benutzergruppen definieren und freigeben. Die Daten werden sowohl den Gebäudebewohnern und dem Gebäudemanagement als auch dem Unternehmensbereich „Research & Technology“ von Grundfos zur Verfügung gestellt. Durch verschiedene Studien zur Datenauswertung im Zusammenhang mit den Bewohnern und dem Gebäudemanagementsystem sollen die Energiedaten neue Erkenntnisse über die Anwendungsmöglichkeiten von Grundfos Bestandsprodukten liefern, aber auch für die Implementierung neuer Produktangebote und Geschäftsmodelle herangezogen werden. An diesen Studien ist die Universität von Århus beteiligt, welche den Zusammenhang zwischen Benutzerverhalten und Energieverbrauch unter aktiver Mitwirkung der Bewohner analysiert.


Das Energiemonitoring-System wird für die Speicherung und Analyse aller Energieverbrauchsdaten sowie das Alarmmanagement genutzt: Auf die zwölf Stockwerke des Gebäudes sind insgesamt 156 Wohneinheiten und 3000 Sensoren verteilt, die alle 3 Sekunden die Energiedaten erfassen und an das überlagerte System übermitteln. Die Sensoren sind hierbei an Beckhoff BC9191 Buskoppler und CX9020 Embedded-PCs angebunden. Ein zentraler Beckhoff Industrie-PC sammelt die Sensordaten mit Hilfe des TwinCAT IoT Data Agent über OPC UA ein und fungiert als Gateway zur Microsoft Azure™ Cloud, hierbei im Speziellen zum Azure IoT Hub. Bei der Kommunikation des Gateway-IPCs mit dem Microsoft Azure™ IoT Hub ermöglicht der TwinCAT IoT Data Agent eine effektive Entkoppelung von den unterlagerten SPS-Systemen und der Cloud-Umgebung. Durch die Publisher/Subscriber-Kommunikationsmechanismen und die Kommunikation über den Azure IoT Hub als zentralen Nachrichten-Broker müssen alle an der Kommunikation beteiligten Geräte oder Dienste untereinander keine gegenseitige Adressbekanntgabe durchführen, sondern sie kommunizieren entkoppelt voneinander über den zentralen Broker, welcher die korrekte Adressierung der Nachrichten übernimmt. Die Datenkommunikation ist hierbei aus Sicht einer vor dem Gateway-PC platzierten Firewall eine rein ausgehende, verschlüsselte Kommunikationsverbindung, sowohl für versendete als auch empfangene Nachrichten, wodurch die Firewall für jegliche eingehende Datenkommunikation abgeriegelt werden kann. Durch diesen Mechanismus wird unerwünschter Datenzugriff von außen effektiv verhindert. Der Schutz persönlicher Daten der Bewohner oder geistigen Eigentums der Unternehmen sowie der Schutz des Gebäudebetriebs vor versehentlicher oder vorsätzlicher Manipulation sind so gewährleistet.

Die Sensordaten lassen sich im Data Agent über eine grafische Konfigurationssoftware einfach und komfortabel für den Versand an den Azure IoT Hub konfigurieren. Über verschiedene Konfigurationsparameter lässt sich ebenfalls definieren, wann die Datenübertragung initiiert werden soll: zyklisch, bei bestimmten Wertänderungen oder bestimmten Aktionen. Über interne Buffering-Mechanismen wird für eine lückenlose Datenerfassung außerdem eine nachträgliche Übermittlung von Sensordaten nach einem Netzausfall sichergestellt: Bei einem Verbindungsausfall speichert der TwinCAT IoT Data Agent einen Zeitstempel ab; sobald die Verbindung wieder zur Verfügung steht, ruft der Data Agent die fehlenden Daten aus seinem internen Datenspeicher ab, um sie dann an den Azure IoT Hub zu senden.

Der Azure IoT Hub ist als zentraler, sicherer, Nachrichten-basierter Connectivity-Dienst zuständig für die Entgegennahme und Weiterleitung der Energiedaten an alle weiteren beteiligten Cloud-Dienste von Microsoft Azure™. Eine weitergehende Auswertung der Energiemessdaten ist mit Hilfe der Microsoft IoT Suite möglich, welche die Geräte verwaltet und Rohdaten sammelt, die dann über SQL Azure Data Warehouse und PowerBI aufbereitet werden. Azure Stream Analytics and Azure Machine Learning werden zur Erkennung von Anomalien eingesetzt. Dabei erkennen spezielle Algorithmen dieser Dienste, ob die von den Sensoren erfassten Werte über einen vorgegebenen Zeitraum außerhalb des normalen Wertebereichs liegen oder gegebenenfalls auch nicht erfasst werden konnten. Im Falle solcher Störereignisse werden Alarmmeldungen per E-Mail ausgegeben.


Desweiteren können die verschiedenen Anwendergruppen, z. B. die Studenten als Bewohner der Wohneinheiten, über eine spezielle Programmierschnittstelle auf die erfassten Energiedaten in der Cloud zugreifen, um ihnen die Entwicklung eigener Apps oder Auswertungsalgorithmen im Rahmen ihrer studentischen Projektarbeiten oder als Vorlesungsziele zu ermöglichen. Diese Programmierschnittstelle, welche auch eine Funktion zur Abfrage von historischen Energiedaten beinhaltet, basiert auf den Diensten des Azure Service Fabric. Die Datensicherheit und der Datenschutz werden durch die Azure Dienste „Active Directory“ und „Application Insights“ gewährleistet, welche als Grundlage zur Authentifizierung der einzelnen Anwendergruppen herangezogen werden.

Wie dieses Projekt eindrucksvoll demonstriert, lassen sich mit dem Data Agent auch bereits existierende, ältere Steuerungssysteme auf einfache Art und Weise mit der Cloud verbinden, wodurch auch Systeme in Retrofit-Szenarien mit modernen Technologien erweitert werden können – und dies ohne Anpassungen im eigentlichen TwinCAT-Automatisierungsprojekt, denn vorhandene Systeme können weiter genutzt und bestehende Investitionen geschützt werden. Die Nutzung Cloud-basierter Services ermöglicht auch zukünftig die flexible Anpassung an einen veränderten Bedarf an die IT-Infrastrukturen ohne eigene Hardware- oder Softwareinvestitionen und damit die Reduzierung der Gesamtkosten für den Betreiber.

Mehr Informationen finden Sie unter folgenden Links: