PolitiekProfiel
API & Agent Discovery

Voor developers en AI-agents

PolitiekProfiel is gebouwd voor mensen, maar publiceert ook de discovery-metadata die AI-agents nodig hebben om de site programmatisch te begrijpen. Hieronder een overzicht van de publieke endpoints en de Link headers die op de homepage worden meegegeven.

Endpoints

MethodePadContent-TyperelBeschrijving
GET/robots.txttext/plainCrawl-policy met expliciete User-agent rules per AI/zoekbot. Open opt-in voor zowel zoekindexering als AI-training en grounding.
GET/sitemap.xmlapplication/xmlsitemapSitemap met canonical URLs van alle publieke editorial pagina's.
GET/.well-known/api-catalogapplication/linkset+jsonapi-catalogLinkset volgens RFC 9727 / RFC 9264 die naar de OpenAPI-spec en docs van /api/results wijst.
GET/api/docs/openapi.jsonapplication/openapi+jsonservice-descOpenAPI 3.1 spec van de publieke endpoints.
POST/api/resultsapplication/jsonAntwoorden indienen, krijgt een share-ID terug. Geen authenticatie, geen tracking, geen IP-opslag.

Link headers op de homepage

De homepage geeft een Link-response-header terug (RFC 8288) die agents naar deze resources wijst:

Link: </.well-known/api-catalog>; rel="api-catalog",
      </api/docs/openapi.json>; rel="service-desc",
      </docs/api>; rel="service-doc",
      </sitemap.xml>; rel="sitemap",
      </methodiek>; rel="describedby"

Markdown for Agents

De editorial pagina's /, /methodiek en /privacy ondersteunen content negotiation: stuur een Accept: text/markdown header en je krijgt een markdown-versie terug met Content-Type: text/markdown. HTML blijft de default voor browsers.

curl -H "Accept: text/markdown" https://politiekprofiel.nl/methodiek

WebMCP

Bij het laden van de site wordt navigator.modelContext.provideContext() aangeroepen (indien beschikbaar) zodat browser-gebaseerde agents drie tools kunnen gebruiken: een quiz starten, twee profielen vergelijken en een resultaat openen.

Crawl-beleid

Volledig open: zowel zoekmachines als AI-crawlers (training, real-time grounding, search) mogen de publieke pagina's indexeren en gebruiken. Alleen /admin/ en /api/ zijn afgeschermd. Zie /robots.txt voor de expliciete User-agent rules per AI/zoekbot.