BuriKaigi 2026ではたくさんの方にブースにお越し頂きありがとうございました。ありがとうございます。
ブースでお願いいたしましたアンケート結果を集計いたしましたので公表させていただきます。今後の開発環境の方針などの参考にしていただければ幸いです。
BuriKaigi 2026ではたくさんの方にブースにお越し頂きありがとうございました。ありがとうございます。
ブースでお願いいたしましたアンケート結果を集計いたしましたので公表させていただきます。今後の開発環境の方針などの参考にしていただければ幸いです。
株式会社サムライズムは2026年1月9日〜10日に富山国際会議場にて開催されるBuriKaigi 2026に協賛いたします。

サムライズムのブースではJetBrains IDEをBacklogと連携させるBacklog Integration Plugin for JetBrains IDEs、AI Assistant、に加え弊社の生産性向上製品#CIclone、JetBrains IDEに強力なブラウザ機能を追加する#TamaCatなどもご紹介いたします。
ステッカーやピンバッジなどのグッズも配付いたしますので是非お越しください。
JetBrains IDEのAI Assistantは一つの契約でGemini/GPT/Claudeなど様々なモデルを比較的手軽に利用できる点が魅力です。一方で、組織によってはIDEとは別にAIのプロバイダーとすでに契約しており、そちらを活用したいというケースも多いのではないでしょうか。
実際に、既契約のAIツールをターミナルや専用クライアントを通じて利用しつつ、コードレビューやリファクタリングはJetBrains IDE上で行っているという話も良く耳にします。
そこで、JetBrains IDE 2025.3.1から登場したのがBYOK(Bring Your Own Key)です。
AI AssistantのBYOK機能を使うと、既存のAIプロバイダーの契約で発行されるAPIキーを使ってAI AssistantによるIDEとの密な連携を実現できます。この場合、JetBrainsのAI Asssitantの追加クレジットは不要です。
現時点で、BYOKはAnthropicとOpenAIまたはOpenAI互換APIでご利用いただけます。
サードパーティーAIプロバイダーの設定は簡単です。
IDEの[設定]>[ツール]>[AI Assistant]>[モデル]>[サードパーティーAIプロバイダー]>より[プロバイダー]と[API Key]を指定するだけで完了します。

設定が完了したら、AIチャットツールウィンドウ右下のモデル選択欄より[OpenAIが提供するローカルモデル](ローカルモデル・・・は正確な表現ではないと思いますが)などを指定し、任意のプロンプトを入力してください。

JetBrainsのAI Pro/Ultimateは1つの契約で様々なモデルを選択することができることや、追加クレジットを組織内で共有できることなどがメリットです。その一方で、基本的にJetBrains IDEの外では利用できないという制約もあります。
BYOKでは、すでに契約しているAIプロバイダーを無駄にすることなく、JetBrains IDEとAI Assistantの生産性をそのまま享受できます。
どちらかが一方的に優れているというものではないため、組織やプロジェクトの状況に合わせてご検討ください。
JetBrains IDEをご利用の皆様はAI Assistantを活用していますか?
AI Assistantは、IDEが解析済みのインデックス情報を利用することでソースコードのスキャンを減らし、少ないトークンで高精度な開発ワークフローを実現することができます。
とはいえ、多用しているとAIクレジットの消費が気になるものです。
そこで試していただきたいのが、ローカルモデルの活用です。AI AssistantはGPT、Gemini、ClaudeやGrokなどの著名なモデルを自由に選択できるだけでなく、LM StudioやOllamaといったLLMを手元で手軽に動かせるツールと組み合わせることで、無料でAIを使ったワークフローを実現できます。
ここではLM Studioを使った方法をご紹介します。
LM Studioは、各種LLMのダウンロード・実行・対話型チャットインターフェース、そして言語モデルサーバの機能を備えた統合ツールです。macOS、Windows、Linuxに各アーキテクチャ別のパッケージ(macOSのIntelアーキテクチャを除く)が提供されており、商用、非商用を問わず無償で利用できます。









次に、LM Studioでロードしたモデルを他のアプリケーションから利用できるよう、サーバを起動します。
macOSではツールメニューから”Start Server on Port 1234…”を選択するだけ起動できます。

AI AssistantからLM Studioを利用する設定も簡単です。
IDEの設定画面を開き、[ツール]→[AI Assistant]→[モデル]→[サードパーティAIプロバイダー]にて、”OpenAI API”(*)を選択します。
* LM Studioを選択するとチャットUIでモデルを選択できないことがあります
“URL:” 欄には”http://localhost:1234/v1″を入力します。このURLはメニューバーのLM Studioのアイコンより”Copy LLM Server Base URL”でクリップボードにコピーして貼り付けることもできます。
URLの設定まで終わったら[接続のテスト]を押して、[接続完了]となるのを確認しましょう。

いよいよAI Assistantで使用するモデルとしてLM Studioを指定します。
AI Assistantのチャットインターフェース右下のモデル選択欄で”OpenAI APIが提供するモデル”より、ローカルで動作するモデルが選べるようになっているのが確認できます。


動作速度や精度は、利用するモデルの特性や、お手持ちのマシンのメモリ・GPU・CPUによって大きく変化しますが、ローカルLLMでも実用上大きく見劣りすることはなさそうです。普段使いはローカルLLM、複数のバリエーションを高速に試したいときはリモートLLM、といった形で使い分けも可能です。ぜひご活用ください。
株式会社サムライズムは2025年11月29日にパシフィコ横浜ノースにて開催されるBacklog World 2025に協賛いたします。

サムライズムのブースではJetBrains IDEをBacklogと連携させるBacklog Integration Plugin for JetBrains IDEs、AI Assistant、弊社の生産性向上製品#CIclone、JetBrains IDEに強力なブラウザ機能を追加する#TamaCatなどもご紹介いたします。
ステッカーやピンバッジなどのグッズも配付いたしますので是非お越しください。
PHPカンファレンス福岡2025ではサムライズムはドリンクスポンサーとして協賛させていただき、またブース出展もいたしました。
ブースでお願いいたしましたアンケート結果を集計いたしました。今回はいつもと違ってキャリアに関わる質問もさせて頂きました。
PHPカンファレンス福岡2025ではたくさんの方にブースにお越し頂きありがとうございました。
ブースでお願いいたしましたアンケート結果を集計いたしましたので公表させていただきます。今後の開発環境の方針などの参考にしていただければ幸いです。
PHPカンファレンス香川2025ではたくさんの方にブースにお越し頂きありがとうございました。
ブースでお願いいたしましたアンケート結果を集計いたしましたので公表させていただきます。今後の開発環境の方針などの参考にしていただければ幸いです。
JJUG CCC 2025 Fallではたくさんの方にブースにお越し頂きありがとうございました。
ブースでお願いいたしましたアンケート結果を集計いたしましたので公表させていただきます。今後の開発環境の方針などの参考にしていただければ幸いです。
株式会社サムライズムは2025年11月24日に香川県高松市 玉藻公園内 披雲閣にて開催されるPHPカンファレンス香川2025に協賛いたします。
サムライズムのブースではAI Assistant、弊社の生産性向上製品#CIclone、JetBrains IDEに強力なブラウザ機能を追加する#TamaCatなどもご紹介いたします。
ステッカーやピンバッジなどのグッズも配付いたしますので是非お越しください。