Dieses Repository enthält das Python-Paket fundamend
, das XML-basierte MIGs und AHBs als Python-Objekte einliest.
Seit 2024 bietet der BDEW (endlich) maschinenlesbare MIG- und AHB-Spezifikationen an, wo zuvor nur PDF oder Word-Dateien veröffentlicht wurden. Das ist ein wichtiger Schritt für eine echte Digitalisierung der Marktkommunikation im deutschen Energiemarkt.
Die nun maschinenlesbaren Informationen über den Aufbau von EDIFACT-Nachrichten sind XML-basiert.
Dieses Repository enthält ein kleines Python-Paket, das die XML-Dateien einliest und als vollständig typisierte Python-Objekte zur Verfügung stellt, damit sich niemand mit XML herumschlagen muss (also am Ende des Tages Model Binding). Das ist alles.
Hochfrequenz stellt mit migmose und kohlrahbi auch Tools bereit, um maschinenlesbare MIGs bzw. AHBs aus .docx
-Dateien zu scrapen.
Das Paket ist auf PyPI verfügbar und kann mit pip installiert werden:
pip install fundamend
from pathlib import Path
from fundamend import MigReader, MessageImplementationGuide
# Angenommen, mig_utilts.xml enthält:
# <?xml version="1.0" encoding="UTF-8"?>
# <M_UTILTS Versionsnummer="1.1c"
# Veroeffentlichungsdatum="24.10.2023"
# Author="BDEW">
# ...
# </M_UTILTS>
reader = MigReader(Path("pfad/zur/mig_utils.xml"))
mig = reader.read()
assert isinstance(mig, MessageImplementationGuide)
assert mig.format == "UTILTS"
from pathlib import Path
from fundamend import AhbReader, Anwendungshandbuch
# Angenommen, ahb_utilts.xml enthält:
# <?xml version="1.0" encoding="UTF-8"?>
# <AHB Versionsnummer="1.1d"
# Veroeffentlichungsdatum="02.04.2024"
# Author="BDEW">
# <AWF Pruefidentifikator="25001" Beschreibung="Berechnungsformel" Kommunikation_von="NB an MSB / LF">
# ...
# </AWF>
# </AHB>
reader = AhbReader(Path("pfad/zur/ahb_utils.xml"))
ahb = reader.read()
assert isinstance(ahb, Anwendungshandbuch)
assert {awf.pruefidentifikator for awf in ahb.anwendungsfaelle} == {
"25001",
"25002",
"25003",
"25004",
"25005",
"25006",
"25007",
"25008",
"25009",
}
Die vollständigen Beispiele finden sich in den unittests:
- Beispiel AHB UTILTS
- Beispiel MIG UTILTS
Die Datenmodelle, die von AhbReader
und MigReader
zurückgegeben werden, sind pydantic Objekte.
Mit Pydantic können die Ergebnisse auch leicht bspw. als JSON exportiert werden (was auch über ein CLI-Tool im nächsten Abschnitt) noch einfacher möglich ist.
from pathlib import Path
from pydantic import RootModel
from fundamend import Anwendungshandbuch, AhbReader
ahb = AhbReader(Path("UTILTS_AHB_1.1d_Konsultationsfassung_2024_04_02.xml")).read()
ahb_json = RootModel[Anwendungshandbuch](ahb).model_dump(mode="json")
Das Ergebnis sieht dann so aus:
{
"veroeffentlichungsdatum": "2024-04-02",
"autor": "BDEW",
"versionsnummer": "1.1d",
"anwendungsfaelle": [
{
"pruefidentifikator": "25001",
"beschreibung": "Berechnungsformel",
"kommunikation_von": "NB an MSB / LF",
"format": "UTILTS",
"segments": [
{
"id": "UNH",
"name": "Nachrichten-Kopfsegment",
"number": "00001",
"ahb_status": "Muss",
"data_elements": [
{
"id": "D_0062",
"name": "Nachrichten-Referenznummer",
"codes": []
},
Die Daten aus den XML-Dateien (Stand 2025-02-10 nur AHBs) lassen sich auch in Datenbanken persistieren.
Die dazu verwendeten SQLModel-Klassen lassen sich mit fundamend[sqlmodel]
installieren.
Instanzen der Pydantic-Klassen lassen sich in SQL-Models überführen und umgekehrt:
from fundamend.models.anwendungshandbuch import Anwendungshandbuch as PydanticAnwendunghandbuch
from fundamend.sqlmodels.anwendungshandbuch import Anwendungshandbuch as SqlAnwendungshandbuch
my_sql_model = SqlAnwendungshandbuch.from_model(pydantic_ahb)
pydantic_ahb = my_sql_model.to_model()
In den XML-Rohdaten sind die Informationen aus den AHBs theoretisch beliebig tief verschachtelt, weil jede Segmentgruppe ihrerseits wieder Segmentgruppen enthalten kann.
Diese Rekursion ist so auch in den SQL-Model-Klassen und der Datenbank abgebildet.
Dieses Paket liefert eine Hilfsfunktion, die die AHBs wieder "flach" zieht, sodass die Datenstruktur mit den flachen AHBs aus bspw. den PDF-Dateien vergleichbar ist, ohne jedoch die Strukturinformationen zu verlieren.
Dazu wird eine rekursive Common Table Expression (CTE) verwendet, um eine zusätzliche Hilfstabelle ahb_hierarchy_materialized
zu befüllen.
Die Möglichkeiten einer solchen AHB-Datenbank mit Strukturinformationen (die es in der Form in den PDF-AHBs nicht gibt) schafft viele denkbare Anwendungen. Was wenn man die Datenbank als Grundlage nähme, um eine Frontend für AHBs zu bauen, das bequemer nutzbar ist als PDFs mit mehr als 1000 Seiten in denen man nur schlecht suchen kann? Das gibt es: ahbesser aka AHB-Tabellen. Was wenn man die Datenbank als Grundlage nähme, um ein Frontend zu bauen, das AHBs in verschiedenen Versionen vergleicht und einen lesbaren Diff erzeugt der anders als die Änderungshistorie der PDFs sogar vollständig ist? Das gibt es: ahlbatross.
# pip install fundamend[sqlmodel]
from pathlib import Path
from fundamend.sqlmodels.ahbview import create_db_and_populate_with_ahb_view
from fundamend.sqlmodels.anwendungshandbuch import AhbHierarchyMaterialized
from sqlmodel import Session, create_engine, select
ahb_paths = [
Path("UTILTS_AHB_1.1c_Lesefassung_2023_12_12_ZPbXedn.xml"),
# add more AHB XML files here
]
sqlite_file = create_db_and_populate_with_ahb_view(ahb_paths) # copy the file to somewhere else if necessary
engine = create_engine(f"sqlite:///{sqlite_file}")
with Session(bind=engine) as session:
stmt = select(AhbHierarchyMaterialized).where(AhbHierarchyMaterialized.pruefidentifikator == "25001").order_by(
AhbHierarchyMaterialized.sort_path
)
results = session.exec(stmt).all()
oder in plain SQL:
-- sqlite dialect
SELECT path,
type,
segmentgroup_name,
segmentgroup_ahb_status,
segment_id,
segment_name,
segment_ahb_status,
dataelementgroup_id,
dataelementgroup_name,
dataelement_id,
dataelement_name,
dataelement_ahb_status,
code_value,
code_name,
code_ahb_status
FROM ahb_hierarchy_materialized
WHERE pruefidentifikator = '25001'
ORDER BY sort_path;
Ergebnisse des `SELECT`
... 125 andere Zeilen ...
path | type | segmentgroup_name | segmentgroup_ahb_status | segment_id | segment_name | segment_ahb_status | dataelementgroup_id | dataelementgroup_name | dataelement_id | dataelement_name | dataelement_ahb_status | code_value |
---|---|---|---|---|---|---|---|---|---|---|---|---|
Vorgang > Bestandteil des Rechenschritts | segment_group | Bestandteil des Rechenschritts | Muss [2006] | null | null | null | null | null | null | null | null | null |
Vorgang > Bestandteil des Rechenschritts > Bestandteil des Rechenschritts | segment | Bestandteil des Rechenschritts | Muss [2006] | SEQ | Bestandteil des Rechenschritts | Muss | null | null | null | null | null | null |
Vorgang > Bestandteil des Rechenschritts > Bestandteil des Rechenschritts > Handlung, Code | dataelement | Bestandteil des Rechenschritts | Muss [2006] | SEQ | Bestandteil des Rechenschritts | Muss | null | null | D_1229 | Handlung, Code | null | null |
Vorgang > Bestandteil des Rechenschritts > Bestandteil des Rechenschritts > Handlung, Code > Bestandteil des Rechenschritts | code | Bestandteil des Rechenschritts | Muss [2006] | SEQ | Bestandteil des Rechenschritts | Muss | null | null | D_1229 | Handlung, Code | null | Z37 |
Vorgang > Bestandteil des Rechenschritts > Bestandteil des Rechenschritts > Information über eine Folge | dataelementgroup | Bestandteil des Rechenschritts | Muss [2006] | SEQ | Bestandteil des Rechenschritts | Muss | C_C286 | Information über eine Folge | null | null | null | null |
Vorgang > Bestandteil des Rechenschritts > Bestandteil des Rechenschritts > Information über eine Folge > Rechenschrittidentifikator | dataelement | Bestandteil des Rechenschritts | Muss [2006] | SEQ | Bestandteil des Rechenschritts | Muss | C_C286 | Information über eine Folge | D_1050 | Rechenschrittidentifikator | X [913] | null |
Vorgang > Bestandteil des Rechenschritts > Referenz auf eine Zeitraum-ID | segment | Bestandteil des Rechenschritts | Muss [2006] | RFF | Referenz auf eine Zeitraum-ID | Muss | null | null | null | null | null | null |
Vorgang > Bestandteil des Rechenschritts > Referenz auf eine Zeitraum-ID > Referenz | dataelementgroup | Bestandteil des Rechenschritts | Muss [2006] | RFF | Referenz auf eine Zeitraum-ID | Muss | C_C506 | Referenz | null | null | null | null |
Vorgang > Bestandteil des Rechenschritts > Referenz auf eine Zeitraum-ID > Referenz > Referenz, Qualifier | dataelement | Bestandteil des Rechenschritts | Muss [2006] | RFF | Referenz auf eine Zeitraum-ID | Muss | C_C506 | Referenz | D_1153 | Referenz, Qualifier | null | null |
Vorgang > Bestandteil des Rechenschritts > Referenz auf eine Zeitraum-ID > Referenz > Referenz, Qualifier > Referenz auf Zeitraum-ID | code | Bestandteil des Rechenschritts | Muss [2006] | RFF | Referenz auf eine Zeitraum-ID | Muss | C_C506 | Referenz | D_1153 | Referenz, Qualifier | null | Z46 |
Vorgang > Bestandteil des Rechenschritts > Referenz auf eine Zeitraum-ID > Referenz > Referenz auf Zeitraum-ID | dataelement | Bestandteil des Rechenschritts | Muss [2006] | RFF | Referenz auf eine Zeitraum-ID | Muss | C_C506 | Referenz | D_1154 | Referenz auf Zeitraum-ID | X [914] ∧ [937] [59] | null |
...
Finde heraus, welche Zeilen in einem Prüfidentifikator zwischen zwei Versionen hinzukommen
with fv2504 as (SELECT *
FROM ahb_hierarchy_materialized
WHERE pruefidentifikator = '55014'
and edifact_format_version = 'FV2504'
ORDER BY sort_path ASC),
fv2410 as (SELECT *
FROM ahb_hierarchy_materialized
WHERE pruefidentifikator = '55014'
and edifact_format_version = 'FV2410'
ORDER BY sort_path ASC)
SELECT fv2504.path
FROM fv2504
LEFT JOIN fv2410 on fv2504.id_path = fv2410.id_path
WHERE fv2410.id is null -- alle zeilen, die so im fv2410 ahb nicht vorhanden waren
ORDER BY fv2504.sort_path;
Mit
pip install fundamend[cli]
Kann ein CLI-Tool in der entsprechenden venv installiert werden, das einzelne MIG- und AHB-XML-Dateien in entsprechende JSONs konvertiert:
(myvenv): xml2json --xml-path path/to/mig.xml
erzeugt path/to/mig.json
. Und
(myvenv): xml2json --xml-path path/to/my/directory
konvertiert alle XML-Dateien im entsprechenden Verzeichnis.
Das fundamend Datenmodell ist auch als JSON Schema verfügbar: json_schemas
.
Der Code ist MIT-lizenziert und kann daher frei verwendet werden. Wir freuen uns über Pull Requests an den main-Branch dieses Repositories.
Die Hochfrequenz Unternehmensberatung GmbH ist eine Beratung für Energieversorger im deutschsprachigen Raum. Wir arbeiten größtenteils remote, haben aber auch Büros in Berlin, Bremen, Leipzig, Köln und Grünwald und attraktive Stellenangebote.