Voor developers en AI-agents
PolitiekProfiel is gebouwd voor mensen, maar publiceert ook de discovery-metadata die AI-agents nodig hebben om de site programmatisch te begrijpen. Hieronder een overzicht van de publieke endpoints en de Link headers die op de homepage worden meegegeven.
Endpoints
| Methode | Pad | Content-Type | rel | Beschrijving |
|---|---|---|---|---|
| GET | /robots.txt | text/plain | — | Crawl-policy met expliciete User-agent rules per AI/zoekbot. Open opt-in voor zowel zoekindexering als AI-training en grounding. |
| GET | /sitemap.xml | application/xml | sitemap | Sitemap met canonical URLs van alle publieke editorial pagina's. |
| GET | /.well-known/api-catalog | application/linkset+json | api-catalog | Linkset volgens RFC 9727 / RFC 9264 die naar de OpenAPI-spec en docs van /api/results wijst. |
| GET | /api/docs/openapi.json | application/openapi+json | service-desc | OpenAPI 3.1 spec van de publieke endpoints. |
| POST | /api/results | application/json | — | Antwoorden indienen, krijgt een share-ID terug. Geen authenticatie, geen tracking, geen IP-opslag. |
Link headers op de homepage
De homepage geeft een Link-response-header terug (RFC 8288) die agents naar deze resources wijst:
Link: </.well-known/api-catalog>; rel="api-catalog",
</api/docs/openapi.json>; rel="service-desc",
</docs/api>; rel="service-doc",
</sitemap.xml>; rel="sitemap",
</methodiek>; rel="describedby"Markdown for Agents
De editorial pagina's /, /methodiek en /privacy ondersteunen content negotiation: stuur een Accept: text/markdown header en je krijgt een markdown-versie terug met Content-Type: text/markdown. HTML blijft de default voor browsers.
curl -H "Accept: text/markdown" https://politiekprofiel.nl/methodiek
WebMCP
Bij het laden van de site wordt navigator.modelContext.provideContext() aangeroepen (indien beschikbaar) zodat browser-gebaseerde agents drie tools kunnen gebruiken: een quiz starten, twee profielen vergelijken en een resultaat openen.
Crawl-beleid
Volledig open: zowel zoekmachines als AI-crawlers (training, real-time grounding, search) mogen de publieke pagina's indexeren en gebruiken. Alleen /admin/ en /api/ zijn afgeschermd. Zie /robots.txt voor de expliciete User-agent rules per AI/zoekbot.