Polish Academic MCP
Zdalny serwer MCP działający na Cloudflare Workers, który udostępnia pięć polskich akademickich baz danych jako narzędzia wywoływane przez AI.
MCP (Model Context Protocol) to otwarty standard pozwalający modelom językowym (Claude, GPT, Bielik.AI itp.) na wywoływanie zewnętrznych narzędzi i API w ustandaryzowany sposób.
Dostępne bazy danych i narzędzia
| Narzędzie | Baza danych | Opis |
|---|---|---|
bn_search_articles | Biblioteka Nauki | Przeszukiwanie polskich artykułów naukowych (OAI-PMH) |
bn_get_article | Biblioteka Nauki | Pobranie szczegółów artykułu po ID |
ruj_search | RUJ — Repozytorium UJ | Wyszukiwanie publikacji z Repozytorium Jagiellońskiego |
ruj_get_item | RUJ | Pobranie metadanych pozycji po UUID |
rodbuk_search | RODBuK | Wyszukiwanie zbiorów danych badawczych uczelni krakowskich |
repod_search | RePOD | Wyszukiwanie polskich otwartych danych badawczych |
repod_get_dataset | RePOD | Pobranie metadanych zbioru danych po DOI |
dane_search | dane.gov.pl | Wyszukiwanie danych otwartych z portalu rządowego |
dane_get_dataset | dane.gov.pl | Pobranie szczegółów zbioru danych po ID |
Wszystkie bazy oferują otwarty, nieuwierzytelniony dostęp do odczytu — żadne klucze API nie są wymagane.
Wymagania dla developmnetu
- Node.js 18 lub nowszy
- Konto Cloudflare (darmowe)
- Wrangler CLI (instalowany jako zależność deweloperska)
Instalacja i uruchomienie lokalne
# 1. Sklonuj repozytorium
git clone https://github.com/asterixix/polish-academic-mcp.git
cd polish-academic-mcp
# 2. Zainstaluj zależności
npm install
# 3. Uruchom serwer deweloperski
npm run dev
# → Serwer MCP dostępny pod adresem http://localhost:8788/mcp
Testowanie z MCP Inspector
npx @modelcontextprotocol/inspector@latest
# Otwórz http://localhost:5173
# W polu "Server URL" wpisz: http://localhost:8788/mcp
# Kliknij "Connect"
Wdrożenie na Cloudflare Workers
Krok 1 — Zaloguj się do Cloudflare
npx wrangler login
Krok 2 — Utwórz przestrzenie nazw KV
npx wrangler kv namespace create "CACHE_KV"
# Skopiuj zwrócone "id" i wklej do wrangler.jsonc jako id dla CACHE_KV
npx wrangler kv namespace create "RATE_LIMIT_KV"
# Skopiuj zwrócone "id" i wklej do wrangler.jsonc jako id dla RATE_LIMIT_KV
Krok 3 — Zaktualizuj wrangler.jsonc
Otwórz wrangler.jsonc i zastąp wartości placeholder prawdziwymi ID:
"kv_namespaces": [
{
"binding": "CACHE_KV",
"id": "WKLEJ_TUTAJ_ID_CACHE_KV",
"preview_id": "WKLEJ_TUTAJ_ID_CACHE_KV"
},
{
"binding": "RATE_LIMIT_KV",
"id": "WKLEJ_TUTAJ_ID_RATE_LIMIT_KV",
"preview_id": "WKLEJ_TUTAJ_ID_RATE_LIMIT_KV"
}
]
Krok 4 — Wdróż
npm run deploy
# → Dostępny pod adresem: https://polish-academic-mcp.<twoje-konto>.workers.dev/mcp
Automatyczne wdrożenie przez GitHub Actions
Repozytorium zawiera gotowy workflow CI/CD (.github/workflows/deploy.yml).
Konfiguracja sekretów w GitHub
Przejdź do: GitHub → Settings → Secrets and variables → Actions i dodaj:
| Sekret | Wartość |
|---|---|
CLOUDFLARE_API_TOKEN | Token API z Cloudflare Dashboard z uprawnieniami Workers:Edit i Workers KV:Edit |
CLOUDFLARE_ACCOUNT_ID | ID twojego konta Cloudflare (widoczny w prawym panelu dashboardu) |
Po skonfigurowaniu sekretów każdy push na gałąź main automatycznie wdroży serwer.
Podłączenie klientów MCP
Claude Desktop
Dodaj do pliku konfiguracyjnego Claude Desktop (claude_desktop_config.json):
{
"mcpServers": {
"polish-academic": {
"command": "npx",
"args": [
"mcp-remote",
"https://polish-academic-mcp.kolpol25.workers.dev/mcp"
]
}
}
}
Lokalizacja pliku konfiguracyjnego:
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json - Windows:
%APPDATA%\Claude\claude_desktop_config.json
Claude.ai (Connector)
- Przejdź do Ustawienia → Connectors → Dodaj własny connector
- Wpisz URL serwera:
https://polish-academic-mcp.kolpol25.workers.dev/mcp - Kliknij Zapisz
Podłączenie z OpenAI / ChatGPT
ChatGPT.com (plan Plus / Pro / Team / Enterprise)
ChatGPT obsługuje zdalne serwery MCP przez protokół Streamable HTTP.
- Otwórz ChatGPT.com i zaloguj się
- Przejdź do Ustawienia (Settings) → Połączone aplikacje (Connected apps)
- Kliknij Dodaj narzędzia (Add tools) → Serwer MCP (MCP server)
- Wpisz URL serwera:
https://polish-academic-mcp.kolpol25.workers.dev/mcp - Nadaj nazwę (np.
Polish Academic) i zapisz
Narzędzia będą dostępne podczas każdej rozmowy.
Uwaga: Funkcja dostępna dla subskrybentów ChatGPT Plus i wyższych planów. Opcja może znajdować się w innym miejscu menu w zależności od wersji interfejsu.
OpenAI Responses API (Python — programistycznie)
Biblioteka openai-agents (Python) obsługuje zdalne serwery MCP natywnie:
pip install openai-agents
import asyncio
from agents import Agent, Runner
from agents.mcp import MCPServerSse
async def main():
async with MCPServerSse(
url="https://polish-academic-mcp.kolpol25.workers.dev/mcp"
) as mcp_server:
agent = Agent(
name="Asystent Naukowy",
model="gpt-4o",
mcp_servers=[mcp_server],
)
result = await Runner.run(
agent,
"Wyszukaj artykuły o fotosytezie z Biblioteki Nauki",
)
print(result.final_output)
asyncio.run(main())
Możesz również użyć serwera MCP bezpośrednio przez Responses API:
from openai import OpenAI
client = OpenAI() # OPENAI_API_KEY z env
response = client.responses.create(
model="gpt-4o",
tools=[{
"type": "mcp",
"server_url": "https://polish-academic-mcp.kolpol25.workers.dev/mcp",
"server_label": "polish-academic",
"require_approval": "never",
}],
input="Znajdź polskie publikacje o uczeniu maszynowym",
)
print(response.output_text)
Podłączenie z Google Gemini
Gemini CLI
Gemini CLI obsługuje serwery MCP przez plik konfiguracyjny.
Edytuj plik ~/.gemini/settings.json (utwórz jeśli nie istnieje):
{
"mcpServers": {
"polish-academic": {
"httpUrl": "https://polish-academic-mcp.kolpol25.workers.dev/mcp"
}
}
}
Po zapisaniu pliku uruchom Gemini CLI normalnie — narzędzia będą dostępne automatycznie:
gemini "Wyszukaj publikacje o astrofizyce w repozytorium Jagiellońskim"
Google AI Studio / Vertex AI Agent Builder
- Otwórz projekt lub stwórz nowy
- Przejdź do zakładki Tools → Add MCP server
- Wpisz URL:
https://polish-academic-mcp.kolpol25.workers.dev/mcp - Zapisz i przetestuj w Playground
Dla Vertex AI Agent Builder konfiguracja jest analogiczna w zakładce Tools → Extensions → MCP.
Google ADK (Agent Development Kit — Python)
pip install google-adk
from google.adk.agents import Agent
from google.adk.tools.mcp_tool import MCPToolset, SseServerParams
academic_tools = MCPToolset(
connection_params=SseServerParams(
url="https://polish-academic-mcp.kolpol25.workers.dev/mcp"
)
)
agent = Agent(
name="asystent_naukowy",
model="gemini-2.0-flash",
tools=[academic_tools],
instruction="Pomagasz w wyszukiwaniu polskiej literatury naukowej.",
)
Podłączenie z Perplexity
Perplexity nie obsługuje natywnie protokołu MCP w interfejsie webowym.
Możliwe podejścia:
Przez OpenAI-compatible SDK (Sonar API + narzędzia)
Perplexity Sonar API jest zgodne z formatem OpenAI. Możesz opisać narzędzia MCP ręcznie jako schematy funkcji:
from openai import OpenAI
client = OpenAI(
api_key="<twój-klucz-perplexity>",
base_url="https://api.perplexity.ai",
)
# Przykładowe wywołanie z function calling
tools = [
{
"type": "function",
"function": {
"name": "ruj_search",
"description": "Szuka publikacji w Repozytorium UJ",
"parameters": {
"type": "object",
"properties": {
"query": {"type": "string", "description": "Zapytanie"},
"page": {"type": "integer", "default": 0},
"size": {"type": "integer", "default": 10},
},
"required": ["query"],
},
},
}
]
response = client.chat.completions.create(
model="sonar-pro",
messages=[{"role": "user", "content": "Znajdź artykuły o kwantach"}],
tools=tools,
)
Wywołania narzędzi musisz następnie obsłużyć ręcznie, przekazując je do serwera MCP przez HTTP.
Przez mcp-remote (lokalny proxy)
Jeśli używasz lokalnego klienta zgodnego z OpenAI tools, możesz uruchomić mcp-remote jako most:
# Zainstaluj mcp-remote
npm install -g mcp-remote
# Uruchom proxy (przekazuje wywołania MCP ↔ HTTP)
npx mcp-remote https://polish-academic-mcp.kolpol25.workers.dev/mcp
Proxy nawiązuje lokalne połączenie stdio, z którego możesz korzystać w dowolnym narzędziu obsługującym MCP stdio.
Inne klienty MCP
Wyślij żądanie HTTP POST do /mcp z nagłówkiem Accept: application/json, text/event-stream i treścią JSON-RPC 2.0.
Limity i buforowanie
Ograniczenie liczby żądań (Rate Limiting)
- 10 wywołań narzędzi na godzinę na adres IP klienta
- Żądania protokołu (inicjalizacja, lista narzędzi, ping) nie są wliczane do limitu
- Przy przekroczeniu limitu serwer zwraca HTTP 429 z nagłówkiem
Retry-After
Cache odpowiedzi API
Odpowiedzi z zewnętrznych API są buforowane w Cloudflare KV:
| Baza danych | TTL cache |
|---|---|
| Biblioteka Nauki, RUJ, RODBuK, RePOD | 24 godziny |
| dane.gov.pl | 1 godzina |
Limity ogólne
| Zasób | Limit |
|---|---|
| Żądania | 100 000 / dobę |
| Czas CPU | 10 ms / wywołanie |
| Odczyty KV | 100 000 / dobę |
| Zapisy KV | 1 000 / dobę |
| Pamięć Worker | 128 MB |
Architektura techniczna
Klient MCP (Claude)
│ HTTP POST /mcp (JSON-RPC 2.0)
▼
Cloudflare Worker (index.ts)
├── Rate limit check (RATE_LIMIT_KV)
└── createMcpHandler(createServer(env))
└── tools/
├── biblioteka-nauki.ts → https://bibliotekanauki.pl/api/oai/
├── ruj.ts → https://ruj.uj.edu.pl/server/api/
├── rodbuk.ts → https://rodbuk.pl/api/
├── repod.ts → https://repod.icm.edu.pl/api/
└── dane.ts → https://api.dane.gov.pl/1.4/
Kluczowe decyzje projektowe:
- Bezstanowy — nowa instancja
McpServerna każde żądanie (wymagane od SDK 1.26.0) - Brak Durable Objects — całość działa na darmowym planie
- Surowe odpowiedzi XML/JSON zwracane do LLM bez parsowania — oszczędza czas CPU
- Fire-and-forget zapisy do KV — nie blokują odpowiedzi
Rozwój i wkład
Przeczytaj CONTRIBUTING.md — wskazówki dotyczące zgłaszania błędów, propozycji nowych baz danych i tworzenia pull requestów.
Dla agentów AI kodujących w tym projekcie: przeczytaj AGENTS.md.
Licencja
MIT © 2026 Artur Sendyka vel. asterixix na poczet Polskiej Nauki z wykorzystaniem AI