Framework / Governance-Modell

GTAF Reference

Governance & Trust Architecture Framework

DOI-Badge für GTAF ReferenceGitHub-Repository für GTAF Reference

GTAF ist das Governance-Modell von TNT für delegiertes Handeln in AI- und automatisierten Systemen. Es adressiert eine praktische Lücke, mit der viele Organisationen heute konfrontiert sind: Policy verlangt Oversight, aber belastbare Operating Models für legitime Delegation fehlen oft noch.

Statt Governance als Fließtext zu behandeln, modelliert GTAF Grenzen, Decision Layers, Verantwortung und Gültigkeit als explizite Artefakte. Dadurch wird das Modell für reale Implementierung nutzbar und bleibt nicht bei Konzeptsprache stehen.

Diese Screenshots zeigen die aktuelle öffentliche GTAF-Referenz. Sie dokumentieren, wie das Modell bereits öffentlich ausformuliert ist, aber der eigentliche Kern bleibt die Governance-Struktur und Artefaktlogik selbst.

Öffentliche normative Referenz

Ein Governance-Framework für AI-Systeme, die handeln, delegieren oder folgenschwere Effekte auslösen können. GTAF überführt Scope, Autorität, Verantwortung und Gültigkeit in strukturierte operative Artefakte.

Was TNT gebaut hat

GTAF ist das Governance-Framework von TNT Intelligence für AI-Systeme, die handeln, delegieren oder folgenschwere externe Effekte auslösen können.

Sein zentraler Beitrag ist einfach, aber materiell anders als die meiste AI-Governance-Rhetorik: Es überführt Scope, Autorität, Verantwortung, Gültigkeit und Intervention in explizite operative Artefakte, statt sie über Fließtext, implizite Konventionen oder nachträgliche Reviews zu verteilen.

System Boundary

Definiert, was innerhalb des Scopes liegt, was außerhalb liegt und unter welchen Bedingungen eine delegierte Fähigkeit überhaupt relevant ist.

Decision Record

Beschreibt, welche Aktion delegiert werden darf, unter welchen Bedingungen, Einschränkungen und erwarteten Effekten.

Responsibility Binding

Macht Outcome Ownership und Eskalationsverantwortung explizit, statt anzunehmen, dass Autorität dem System irgendwie automatisch anhaftet.

Delegation Readiness Check

Legt fest, ob Delegation im aktuellen Scope, in der aktuellen Version und innerhalb des gültigen Zeitfensters tatsächlich erlaubt ist.

Warum das im Kontext des AI Act relevant ist

GTAF kann als Operationalisierungsschicht für viele praktische Fragen gelesen werden, vor denen Organisationen im Kontext des EU AI Act stehen.

Es ist keine Rechtsberatung und ersetzt keine juristische Interpretation. Was es aber liefert, ist eine Operating Structure, um Governance-Anforderungen in explizites Systemdesign und konkrete Entscheidungsartefakte zu übersetzen.

AI-Act-ThemaWie GTAF bei der Operationalisierung hilft
Risikoklassifizierung und Intended Use

GTAF erzwingt explizite Festlegung von Use Case, Action Surface, Impact Boundary und Gültigkeitsbedingungen.

Governance und Oversight

Responsibility Bindings, Decision Layers und Intervention Paths machen Autorität und Eskalation lesbar.

Dokumentation und Traceability

Strukturierte Artefakte und Referenzen schaffen eine belastbarere Grundlage für technische Dokumentation und Auditierbarkeit.

Lifecycle Control

Validity Windows, Revalidation Logic und kontrollierter Change verhindern, dass Delegation versehentlich dauerhaft wird.

Minimales Operating Model

GTAF lässt sich am einfachsten als Kette verstehen, die von der Scope-Definition bis zum Permission State intakt bleiben muss:

Der Permission State haftet nicht automatisch an einem Agenten. Er ist das Ergebnis einer expliziten Artefaktkette, die nur innerhalb eines begrenzten Betriebskontexts gültig bleibt.

Delegation ist keine Eigenschaft des Modells. Sie ist eine Eigenschaft eines explizit begrenzten und aktuell gültigen Betriebskontexts.

Minimales Artefakt-Beispiel

Eine vereinfachte Artefaktkette kann etwa so aussehen:

YAML
system_boundary:
id: sb.invoice.review.eu
scope: "invoice review up to EUR 5000"

decision_record:
id: dr.invoice.auto-approve
action: "invoice.approve"
constraints:
  supplier_status: "approved"
  max_amount_eur: 5000

responsibility_binding:
owner: "finance.operations"
escalation: "head-of-finance"

delegation_readiness_check:
status: PERMITTED
valid_until: "2026-12-31T23:59:59Z"
Ein vereinfachtes Beispiel dafür, wie GTAF Scope, Delegation, Ownership und Gültigkeit als getrennte Artefakte ausdrückt statt als implizite Konfiguration.

Genau darin liegt der entscheidende Schritt: GTAF sagt nicht "der Agent ist vertrauenswürdig", sondern dass eine konkrete delegierte Aktion innerhalb einer definierten Grenze und eines klaren Zeitfensters erlaubt oder nicht erlaubt ist.

Wie TNT helfen kann

GTAF ist für Organisationen relevant, die mehr brauchen als AI-Policy in Textform. Typische Zusammenarbeitswege sind:

  • AI-Use-Cases in Decision Layers, Scope Boundaries und accountable Operating Models strukturieren

  • Oversight- und Governance-Anforderungen in explizite technische Artefakte übersetzen

  • prüfen, ob ein geplantes AI-System überhaupt sicher delegiert werden kann und unter welchen Bedingungen

  • den Übergang von Governance-Design zu Runtime-Enforcement und Implementierung vorbereiten

Wo das zuerst praktisch wird

Enterprise-AI-Governance-Programme

Wenn Organisationen bereits Policy-Sprache haben, aber noch keinen operativen Weg, festzulegen, wer was unter welchen Bedingungen und für wie lange delegieren darf.

Folgenreiche interne Automation

Wenn AI-Systeme in Freigabepfade, operative Toolchains, interne Unterstützung oder Business-Workflows rücken, in denen Scope und Accountability nicht implizit bleiben dürfen.

Weiter in Publications

Deterministischer Runtime-Enforcement-Kern

GTAF Runtime

Der Enforcement-Kern, der ausgewertete Governance-Outputs in ausführbare Allow-/Deny-Entscheidungen überführt. Die öffentliche Implementierung zeigt den Vertrag, aber das Runtime-Modell reicht über eine einzelne Sprache hinaus.

Enforcement sehen

Integrationsschicht rund um den Runtime-Kern

GTAF SDK

Die Adoptionsschicht, die realen Systemen hilft, Artefakte zu laden, Execution Context zu formen und die Runtime sauber aufzurufen. Die öffentliche Implementierung ist ein konkreter Pfad, aber das Integrationsmodell ist nicht sprachspezifisch.

Integration verstehen

Infrastructure for Trusted Autonomy

ITA

Eine Runtime-Architektur für Systeme, die mit realer Wirkung handeln müssen und zugleich governable bleiben sollen. ITA erweitert GTAF um Execution Spaces, Capability Exposure, Enforcement und Audit.

Architektur sehen

Mit TNT sprechen, wenn AI echte Arbeit leisten soll

Von GTAF über Runtime und SDK bis hin zu ITA bringt TNT bereits öffentliche Referenzarbeit, Runtime-Bausteine und angewandte Architektur in diese Fragen ein. Das Gespräch muss also nicht bei Theorie beginnen.

Wenn diese Fragen vom Interesse in die Umsetzung kippen, ist TNT ein belastbarer Gesprächspartner.

Kontext besprechen