faster-whisper-mcp
動画ファイルから高品質な字幕を生成するMCPサーバ&CLIツール。Faster Whisperを使用し、ローカルGPU/CPUで高速に音声認識を実行します。
特徴
- MCPサーバ対応 - Claude Desktop等のMCPクライアントから直接利用可能
- Claude Skill対応 -
skills/whisper.skillで安定した実行 - 高速処理 - Faster Whisper (CTranslate2) による最適化された推論
- 多言語対応 - 59言語の自動検出・翻訳
- 柔軟な入力 - ローカルファイル / URL(YouTube等)両対応
- GPU/CPU対応 - CUDA GPU または CPU で実行可能
インストール
git clone https://github.com/uzusio/faster-whisper-mcp.git
cd faster-whisper-mcp
pip install uv
uv venv
uv pip install -e .
MCPサーバとして使用
Claude Desktopに登録
%APPDATA%\Claude\claude_desktop_config.json(Windows)または ~/Library/Application Support/Claude/claude_desktop_config.json(Mac)に追加:
{
"mcpServers": {
"faster-whisper": {
"command": "uv",
"args": ["--directory", "/path/to/faster-whisper-mcp", "run", "python", "mcp_server.py"],
"env": {
"OPENAI_API_KEY": "sk-..."
}
}
}
}
Note:
OPENAI_API_KEYは翻訳機能使用時のみ必要です。
提供ツール
| ツール | 説明 |
|---|---|
transcribe_from_file | ローカル動画/音声ファイルから字幕生成 |
transcribe_from_url | URLから動画をダウンロードして字幕生成 |
get_supported_languages | サポート言語一覧を取得 |
詳細なパラメータは skills/whisper/ を参照。
使用例
この動画の字幕を生成して: C:\Videos\meeting.mp4
https://www.youtube.com/watch?v=xxxxx この動画を日本語字幕付きで文字起こしして
CLIとして使用
# 基本
python main.py video.mp4
# デバイス指定
python main.py video.mp4 --device cpu
# 翻訳付き
python main.py video.mp4 --input-lang ja --output-lang en
# URLから処理
python main.py https://www.youtube.com/watch?v=xxxxx
主要オプション: --device, --model, --input-lang, --output-lang
全オプションは python main.py --help で確認。
環境要件
- Python 3.11+
- uv
- GPU使用時: CUDA Toolkit 12.x + cuDNN 9.x
- 翻訳機能: OpenAI APIキー(
.envに設定)
出力
- 形式: SRT
- 出力先: ローカルファイルは同ディレクトリ、URLは
output/ - ファイル名:
{元ファイル名}_{言語コード}.srt
ライセンス
MIT License