Applied Systems / Trusted Autonomy

ITA

Infrastructure for Trusted Autonomy

ITA ist die Runtime-Architektur von TNT für Trusted Autonomy. Sie stellt die Frage, wie autonome Systeme produktiv bleiben können, ohne aus ihrer technischen Fähigkeit automatisch unbegrenzte Autorität abzuleiten.

Die Antwort ist architektonisch: governte Execution Spaces, begrenzte Capability Visibility, eine einzige Enforcement Boundary für reale Effekte und Audit als Teil des Runtime-Vertrags statt als Nachtrag.

Die hier gezeigten Screenshots dokumentieren ein Beispiel für ein bereits auf ITA gebautes Control Panel. Der eigentliche Kern ist nicht das Dashboard selbst, sondern die Runtime-Architektur darunter.

Öffentliches Architekturmodell

Eine Runtime-Architektur für Systeme, die mit realer Wirkung handeln müssen und zugleich governable bleiben sollen. ITA erweitert GTAF um Execution Spaces, Capability Exposure, Enforcement und Audit.

Was TNT gebaut hat

ITA steht für Infrastructure for Trusted Autonomy.

Es ist die Runtime-Architektur von TNT Intelligence für Systeme, die mit realer Wirkung handeln dürfen und gleichzeitig governable bleiben müssen. GTAF definiert das Delegationsmodell; ITA trägt diese Logik in die Ausführung.

Execution ist nicht dasselbe wie Capability. Capability ist nicht dasselbe wie Permission.

Genau dieser Unterschied ist entscheidend, weil viele Agent-Systeme noch immer zu viel implizite Autorität an das delegieren, was planen, Tools aufrufen oder State halten kann. ITA ist um die gegenteilige Annahme herum gebaut: Planner sind nützlich, aber Autorität muss strukturell außerhalb der Planung verbleiben.

Core Runtime Model

ITA trennt Capability Visibility, Planung und Ausführungsautorität voneinander. Entscheidend ist die eine Enforcement Boundary, die festlegt, ob in einem aktiven Space ein realer Effekt erlaubt ist.

Die Architektur ist um governte Execution Spaces statt um permanente Agent-Identitäten herum gebaut. Autorität ist damit kontextgebunden, zeitgebunden und policygebunden, statt lose an ein Modell oder Toolset gekoppelt zu sein.

Warum das keine Agent-Orchestrierung ist

Typischer OrchestrierungsfokusITA-Fokus
Wie der Agent plantUnter welchen Bedingungen Ausführung tatsächlich erlaubt ist
Welche Tools verbunden sind

Welche Capabilities im aktiven governte Space überhaupt sichtbar sind

Wie man nach einem Ereignis wieder aufräumtWie man den Effekt begrenzt oder verweigert, bevor er passiert
Identitätsbasierte RollenKontextgebundene Autorität mit explizitem Enforcement

Genau deshalb hat ITA mehr mit einer Kontrollschicht für vertrauenswürdige AI-Ausführung gemein als mit einem klassischen Orchestrierungs-Framework.

Beispiel für einen governed execution space

Ein vereinfachter Execution Space lässt sich etwa so darstellen:

JSON
{
  "scope": "repo.payments-service.release",
  "actor_context": "release.automation",

  "visible_capabilities": [
      "git.read",
      "git.write",
      "ci.trigger"
  ],

  "policy_context": "release.class-b",
  "audit_path": "execspace-2026-04-01-001"
}
Ein vereinfachter Execution Space: Capability Visibility, Policy Context und Audit Path gehören zum Space selbst und nicht dauerhaft zu einer Agent-Identität.

Derselbe logische Agent kann später einen anderen Execution Space betreten. Dann sieht er eine andere Capability Surface, trägt einen anderen Policy Context und operiert damit unter einer anderen Authority Envelope.

Warum die strategische Tragweite größer ist als sie zunächst wirkt

Der AI Act erzeugt Druck rund um Risiko, Oversight, Dokumentation, Logging und Kontrollierbarkeit. Was er nicht liefert, ist eine konkrete Runtime-Architektur, die verhindert, dass ein System außerhalb seines Mandats handelt.

ITA ist relevant, weil es genau auf diese fehlende Schicht zielt. Es behandelt Runtime Authority als Architektur statt als Compliance-Theater. Für Organisationen, die wollen, dass AI-Systeme mehr tun als nur passiv zu assistieren, ist das ein materiell anderer Ansatz.

Wie TNT helfen kann

ITA ist besonders für Teams relevant, die Autonomie mit echter operativer Nützlichkeit wollen, ohne einen Kontrollverlust zu akzeptieren. Typische Zusammenarbeitswege sind:

  • governte Execution Spaces für interne oder externe AI-Systeme entwerfen
  • Planung, Capability Exposure und Execution Authority in agentbasierten Produkten sauber voneinander trennen

  • Architekturen für Public Sector, Enterprise oder regulierte Umgebungen gestalten, in denen Auditability und Intervention nicht verhandelbar sind

  • prüfen, ob ein bestehender Stack aktuell eher optimistische Orchestrierung als Trusted Autonomy darstellt

Wo das zuerst praktisch wird

Trusted Internal AI Operators

Systeme, die nicht nur empfehlen, sondern begrenzte Arbeit in Enterprise- oder institutionellen Umgebungen vorbereiten, triggern oder ausführen sollen.

Autonome Produkte mit realer Wirkung

Produkte, die sich in Richtung Aktion, Tool Use oder Downstream Operations bewegen und deshalb eine Kontrollschicht unterhalb des Planners brauchen, statt nur Orchestrierung zu vertrauen.

Weiter in Publications

Governance & Trust Architecture Framework

GTAF Reference

Ein Governance-Framework für AI-Systeme, die handeln, delegieren oder folgenschwere Effekte auslösen können. GTAF überführt Scope, Autorität, Verantwortung und Gültigkeit in strukturierte operative Artefakte.

Framework lesen

Deterministischer Runtime-Enforcement-Kern

GTAF Runtime

Der Enforcement-Kern, der ausgewertete Governance-Outputs in ausführbare Allow-/Deny-Entscheidungen überführt. Die öffentliche Implementierung zeigt den Vertrag, aber das Runtime-Modell reicht über eine einzelne Sprache hinaus.

Enforcement sehen

Integrationsschicht rund um den Runtime-Kern

GTAF SDK

Die Adoptionsschicht, die realen Systemen hilft, Artefakte zu laden, Execution Context zu formen und die Runtime sauber aufzurufen. Die öffentliche Implementierung ist ein konkreter Pfad, aber das Integrationsmodell ist nicht sprachspezifisch.

Integration verstehen

Mit TNT sprechen, wenn AI echte Arbeit leisten soll

Von GTAF über Runtime und SDK bis hin zu ITA bringt TNT bereits öffentliche Referenzarbeit, Runtime-Bausteine und angewandte Architektur in diese Fragen ein. Das Gespräch muss also nicht bei Theorie beginnen.

Wenn diese Fragen vom Interesse in die Umsetzung kippen, ist TNT ein belastbarer Gesprächspartner.

Kontext besprechen