<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>AI on tumf合同会社</title><link>https://778172da.llc-tumf-jp.pages.dev/tags/ai/</link><description>Recent content in AI on tumf合同会社</description><generator>Hugo -- gohugo.io</generator><language>ja-jp</language><copyright>Copyright © tumf LLC.</copyright><lastBuildDate>Mon, 22 Dec 2025 07:00:00 +0900</lastBuildDate><atom:link href="https://778172da.llc-tumf-jp.pages.dev/tags/ai/index.xml" rel="self" type="application/rss+xml"/><item><title>AI・LLM総合ガイド：大規模言語モデルの基礎からビジネス活用まで</title><link>https://778172da.llc-tumf-jp.pages.dev/topics/ai-llm/</link><pubDate>Mon, 22 Dec 2025 07:00:00 +0900</pubDate><guid>https://778172da.llc-tumf-jp.pages.dev/topics/ai-llm/</guid><description>&lt;p>ChatGPTの登場以降、AI、特に&lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/llm">LLM（大規模言語モデル）&lt;/a>が急速にビジネスシーンに浸透しています。文章の要約、翻訳、カスタマーサポートの自動化、プログラムコードの生成など、多岐にわたる業務でAIが活躍する時代になりました。&lt;/p>
&lt;p>しかし、「LLMを導入したいが、どこから始めればよいか分からない」「コストや&lt;/p>
&lt;p>セキュリティが心配」という声も少なくありません。この記事では、LLMの基本から実装技術、ビジネス活用、導入時の注意点まで、体系的に解説します。&lt;/p>
&lt;h2 id="llm大規模言語モデルとは">LLM（大規模言語モデル）とは&lt;/h2>
&lt;h3 id="llmの定義と進化">LLMの定義と進化&lt;/h3>
&lt;p>&lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/llm">LLM（Large Language Model）&lt;/a>とは、膨大なテキストデータを学習し、人間のように自然な文章を生成・理解できるAIモデルです。&lt;/p>
&lt;p>従来のAIは、特定のタスク（例：画像認識、音声認識）に特化していました。しかし、LLMは汎用的な言語能力を持ち、質問応答、要約、翻訳、コード生成など、さまざまなタスクをこなせます。&lt;/p>
&lt;p>代表的なLLM：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>ChatGPT（OpenAI）&lt;/strong>: 対話型AI。幅広い質問に回答可能&lt;/li>
&lt;li>&lt;strong>Claude（Anthropic）&lt;/strong>: 長文処理に強く、倫理的配慮を重視&lt;/li>
&lt;li>&lt;strong>Gemini（Google）&lt;/strong>: Googleの検索技術と統合&lt;/li>
&lt;li>&lt;strong>GPT-4 Turbo&lt;/strong>: 画像・テキストを同時に処理できるマルチモーダルAI&lt;/li>
&lt;/ul>
&lt;h3 id="llmの仕組みトランスフォーマーアーキテクチャ">LLMの仕組み：トランスフォーマーアーキテクチャ&lt;/h3>
&lt;p>LLMの中核技術は「トランスフォーマー」と呼ばれる仕組みです。これは、文章の中で「どの単語とどの単語が関連しているか」を理解する技術で、長文の文脈を正確に把握できます。&lt;/p>
&lt;p>例えば、「彼は銀行に行った」という文章があるとき、「銀行」が金融機関なのか、川の土手なのかは、前後の文脈から判断する必要があります。トランスフォーマーは、このような文脈理解を高精度で行います。&lt;/p>
&lt;h3 id="学習とファインチューニング">学習とファインチューニング&lt;/h3>
&lt;p>LLMは、以下の2段階で学習されます：&lt;/p>
&lt;ol>
&lt;li>&lt;strong>事前学習（Pre-training）&lt;/strong>: ウェブ上の膨大なテキストデータ（書籍、ニュース記事、ウェブサイト）を学習し、一般的な言語能力を獲得。&lt;/li>
&lt;li>&lt;strong>ファインチューニング（Fine-tuning）&lt;/strong>: 特定の業務やドメインに特化させるため、追加データで再学習。&lt;/li>
&lt;/ol>
&lt;p>例えば、医療分野に特化したLLMを作る場合、医学論文や診療記録を使ってファインチューニングを行います。&lt;/p>
&lt;h2 id="llmの実装技術">LLMの実装技術&lt;/h2>
&lt;p>企業がLLMを実際に活用するには、いくつかの技術的なアプローチがあります。&lt;/p>
&lt;h3 id="rag検索拡張生成">RAG（検索拡張生成）&lt;/h3>
&lt;p>&lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/rag">RAG（Retrieval-Augmented Generation）&lt;/a>は、LLMに「外部知識」を与える技術です。&lt;/p>
&lt;p>通常のLLMは、学習時のデータしか知りません。そのため、最新情報や企業固有の情報（社内文書、マニュアル）には対応できません。RAGを使うことで、LLMが必要な情報を外部データベースから検索し、それを基に回答を生成できます。&lt;/p>
&lt;p>RAGの仕組み：&lt;/p>
&lt;ol>
&lt;li>ユーザーが質問を入力&lt;/li>
&lt;li>システムが関連する社内文書を検索&lt;/li>
&lt;li>検索結果をLLMに渡す&lt;/li>
&lt;li>LLMが検索結果を基に回答を生成&lt;/li>
&lt;/ol>
&lt;p>活用例：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>社内FAQ&lt;/strong>: 社内規定や業務マニュアルから自動回答&lt;/li>
&lt;li>&lt;strong>カスタマーサポート&lt;/strong>: 過去の問い合わせ履歴から最適な回答を提示&lt;/li>
&lt;li>&lt;strong>ナレッジ管理&lt;/strong>: 社内の膨大な文書を横断検索&lt;/li>
&lt;/ul>
&lt;p>→ &lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/rag">RAG詳細ガイドはこちら&lt;/a>&lt;/p>
&lt;h3 id="プロンプトエンジニアリング">プロンプトエンジニアリング&lt;/h3>
&lt;p>プロンプトエンジニアリングとは、LLMに対して「どのように質問するか」を工夫する技術です。&lt;/p>
&lt;p>同じ質問でも、聞き方を変えるだけで回答の質が大きく変わります。&lt;/p>
&lt;p>例：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>悪い例&lt;/strong>: 「会議の議事録を書いて」&lt;/li>
&lt;li>&lt;strong>良い例&lt;/strong>: 「本日の会議の議事録を、以下の形式で作成してください。1. 会議の目的、2. 参加者、3. 主な決定事項、4. 次回のアクションアイテム」&lt;/li>
&lt;/ul>
&lt;p>効果的なプロンプトのコツ：&lt;/p>
&lt;ul>
&lt;li>役割を明示する（「あなたはマーケティングの専門家です」）&lt;/li>
&lt;li>具体的な出力形式を指定する（「箇条書きで3つ」）&lt;/li>
&lt;li>段階的に考えさせる（「まず問題を分析し、次に解決策を提示してください」）&lt;/li>
&lt;/ul>
&lt;h3 id="ベクトルデータベース">ベクトルデータベース&lt;/h3>
&lt;p>RAGを実現するために、「ベクトルデータベース」という技術が使われます。&lt;/p>
&lt;p>ベクトルデータベースは、文章を数値（ベクトル）に変換して保存し、意味が似ている文章を高速に検索できるデータベースです。&lt;/p>
&lt;p>例えば、「売上を伸ばす方法」と「収益を増やす施策」は、表現は異なりますが意味は似ています。ベクトルデータベースは、このような意味の類似性を理解して検索します。&lt;/p>
&lt;p>主なベクトルデータベース：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>Pinecone&lt;/strong>: クラウド型で導入が簡単&lt;/li>
&lt;li>&lt;strong>Weaviate&lt;/strong>: オープンソースで柔軟性が高い&lt;/li>
&lt;li>&lt;strong>Qdrant&lt;/strong>: 高速処理が可能&lt;/li>
&lt;/ul>
&lt;h2 id="llmのビジネス活用">LLMのビジネス活用&lt;/h2>
&lt;p>LLMは、さまざまな業務領域で実用化されています。&lt;/p></description></item><item><title>AIシステム企画支援ツール「SpecTalk」提供開始のお知らせ</title><link>https://778172da.llc-tumf-jp.pages.dev/posts/2025/12/18/spectalk-release/</link><pubDate>Thu, 18 Dec 2025 09:00:00 +0900</pubDate><guid>https://778172da.llc-tumf-jp.pages.dev/posts/2025/12/18/spectalk-release/</guid><description>&lt;p>tumf合同会社は、AIを活用したシステム企画支援SaaSツール「&lt;strong>SpecTalk（スペックトーク）&lt;/strong>」の提供を開始いたしました。&lt;/p>
&lt;p>&lt;img src="https://778172da.llc-tumf-jp.pages.dev/images/spectalk/ogp.jpg" alt="SpecTalk - AIと対話するだけでシステム開発の見積もりが完成">&lt;/p>
&lt;h2 id="spectalkとは">SpecTalkとは&lt;/h2>
&lt;p>SpecTalkは、専門知識がなくてもAIとの対話だけでシステム要件定義書、費用・工期の概算見積もりを自動生成できるサービスです。&lt;/p>
&lt;p>「アプリを作りたいけど、何から始めればいいかわからない」「開発会社に相談したいけど、うまく説明できる自信がない」——そんな課題を解決します。&lt;/p>
&lt;h2 id="主な機能">主な機能&lt;/h2>
&lt;h3 id="会話形式での要求ヒアリング">会話形式での要求ヒアリング&lt;/h3>
&lt;p>AIが質問を投げかけながら、漠然としたアイデアを整理。専門用語がわからなくても大丈夫です。&lt;/p>
&lt;h3 id="構造化された仕様書の自動生成">構造化された仕様書の自動生成&lt;/h3>
&lt;p>ヒアリング内容をもとに、機能要件・非機能要件に自動分類して出力します。&lt;/p>
&lt;h3 id="rfp作成費用工期見積もりの自動化">RFP作成・費用工期見積もりの自動化&lt;/h3>
&lt;p>機能の規模をベースに適正価格を算出。開発会社への相談がスムーズになります。&lt;/p>
&lt;h3 id="バージョン管理とロールバック">バージョン管理とロールバック&lt;/h3>
&lt;p>過去の状態に戻して試行錯誤が可能。納得いくまで企画を練り上げられます。&lt;/p>
&lt;h2 id="対象ユーザー">対象ユーザー&lt;/h2>
&lt;ul>
&lt;li>Webサービス・iOS/Androidアプリを新規開発したいスタートアップ&lt;/li>
&lt;li>新規事業・DX推進担当者&lt;/li>
&lt;li>システム発注の経験が少ない方&lt;/li>
&lt;/ul>
&lt;p>※現行システムの拡張やレガシーマイグレーションは対象外となります。&lt;/p>
&lt;h2 id="ご利用方法">ご利用方法&lt;/h2>
&lt;p>現在、&lt;strong>先着100社限定で500円分のクレジットを進呈&lt;/strong>しています。&lt;/p>
&lt;p>以下の公式サイトよりお申し込みいただけます。&lt;/p>
&lt;p>&lt;a href="https://spectalk.ai">&lt;img src="https://778172da.llc-tumf-jp.pages.dev/images/spectalk/logo.png" alt="SpecTalk">&lt;/a>&lt;/p>
&lt;ul>
&lt;li>公式サイト: &lt;a href="https://spectalk.ai?utm_content=post-spectalk-release&amp;amp;utm_medium=website&amp;amp;utm_source=llc-tumf-jp" rel="noopener" target="_blank">https://spectalk.ai&lt;/a>
&lt;/li>
&lt;li>サービス: &lt;a href="https://app.spectalk.ai?utm_content=post-spectalk-release&amp;amp;utm_medium=website&amp;amp;utm_source=llc-tumf-jp" rel="noopener" target="_blank">https://app.spectalk.ai&lt;/a>
&lt;/li>
&lt;/ul>
&lt;p>システム発注の不安を解消し、アイデアを形にする第一歩を、SpecTalkがサポートいたします。&lt;/p>
&lt;h2 id="開発のご相談">開発のご相談&lt;/h2>
&lt;p>tumf合同会社では、SpecTalkで作成した概算見積をベースに、お打ち合わせの上、
条件が合えば開発をお受けすることも可能です。&lt;/p>
&lt;ul class="followup-links">
&lt;li>
&lt;i class="fa-solid fa-circle-arrow-right">&lt;/i>
&lt;a href="https://778172da.llc-tumf-jp.pages.dev/services/foundry"
> ソフトウェア・ファウンドリ・サービスについて &lt;/a
>
&lt;/li>
&lt;/ul></description></item><item><title>AI時代のrobots.txt ～ AIクローラーに対応する書き方～</title><link>https://778172da.llc-tumf-jp.pages.dev/posts/2025/11/04/robots-txt-ai-era/</link><pubDate>Tue, 04 Nov 2025 12:30:00 +0900</pubDate><guid>https://778172da.llc-tumf-jp.pages.dev/posts/2025/11/04/robots-txt-ai-era/</guid><description>&lt;p>近年、ChatGPTやClaude、Geminiなどの&lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/llm">大規模言語モデル&lt;/a>(LLM)が急速に普及し、それに伴ってAIトレーニング用のWebクローラーも急増しています。従来の検索エンジン向けだけを考慮すれば良かったrobots.txtに、今やAIクローラーへの対応が不可欠となりました。&lt;/p>
&lt;p>この記事では、AI時代のrobots.txtの書き方と、各AIクローラーの特性について解説します。&lt;/p></description></item><item><title>LLMのコスト構造を徹底解説！電力・性能・価格の関係性と今後の展望</title><link>https://778172da.llc-tumf-jp.pages.dev/posts/2025/01/07/llm-cost-structure/</link><pubDate>Tue, 07 Jan 2025 07:00:00 +0900</pubDate><guid>https://778172da.llc-tumf-jp.pages.dev/posts/2025/01/07/llm-cost-structure/</guid><description>&lt;p>近年、ChatGPTなどの&lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/llm">大規模言語モデル（LLM）&lt;/a>が急速に普及し、ビジネスや日常生活に欠かせない存在になりつつあります。文章の要約、コードの自動生成、カスタマーサポートの効率化など、多種多様な場面で&lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/llm">LLM&lt;/a>が活躍しています。&lt;/p>
&lt;blockquote>
&lt;p>&lt;strong>関連記事&lt;/strong>: この記事は&lt;a href="https://778172da.llc-tumf-jp.pages.dev/topics/ai-llm/">AI・LLM総合ガイド&lt;/a>の一部です。LLM技術全体の体系的な理解には、総合ガイドもご覧ください。&lt;/p>&lt;/blockquote>
&lt;p>しかし、その便利さの裏には&lt;strong>膨大なコスト&lt;/strong>が存在します。特に、&lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/llm">LLM&lt;/a>を開発・運用するうえでの「&lt;strong>どれだけの電力を消費して、どれだけの性能を提供できるか&lt;/strong>」という観点は、今後さらに重要度が増すでしょう。&lt;/p>
&lt;p>この記事では、&lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/llm">LLM&lt;/a>のコスト構造を整理しながら、「&lt;strong>エネルギー × 性能&lt;/strong>」というキーワードがどのように価格や利用料に影響するのかを、企業の導入戦略とともに詳しく解説します。&lt;/p></description></item><item><title>検索拡張生成</title><link>https://778172da.llc-tumf-jp.pages.dev/terms/rag/</link><pubDate>Tue, 30 Apr 2024 10:51:18 +0700</pubDate><guid>https://778172da.llc-tumf-jp.pages.dev/terms/rag/</guid><description>&lt;p>Retrieval-Augmented Generation(RAG)とは、自然言語処理(NLP)の分野で使用される、特に&lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/llm">大規模言語モデル(LLM)&lt;/a>を拡張するための技術です。RAGは、質問応答(QA)システムや文章生成タスクなどにおいて、モデルのパフォーマンスを向上させることを目的としています。&lt;/p>
&lt;blockquote>
&lt;p>&lt;strong>関連記事&lt;/strong>: この記事は&lt;a href="https://778172da.llc-tumf-jp.pages.dev/topics/ai-llm/">AI・LLM総合ガイド&lt;/a>の一部です。LLM技術全体の体系的な理解には、総合ガイドもご覧ください。&lt;/p>&lt;/blockquote>
&lt;p>RAGの基本的な考え方は、大規模な情報データベースから関連情報を「検索(retrieve)」し、その情報を基にテキストを「生成(generate)」することです。これにより、モデルは特定のトピックに関する直接的な情報を活用して、より正確で詳細な回答や内容を生成できるようになります。&lt;/p>
&lt;p>RAGは主に二つの部分で構成されます：&lt;/p>
&lt;ol>
&lt;li>
&lt;p>&lt;strong>検索モジュール&lt;/strong>: このモジュールは、入力された質問やプロンプトに基づいて、大量のテキストデータベースから関連する文書や情報を検索します。この検索過程には、通常、事前訓練された言語モデルや特定の検索アルゴリズムが使用されます。&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>生成モジュール&lt;/strong>: 検索モジュールで得られた情報を基に、言語生成モデルが回答や文章を生成します。生成される内容は、検索された情報に基づいており、そのため、より精度が高く、詳細な内容を提供することが可能です。&lt;/p>
&lt;/li>
&lt;/ol>
&lt;p>RAGでは、検索された情報と生成プロセスが連携し合うことで、モデルが提供できる回答の質を高め、特定の情報に基づいてより具体的な回答を生成できるようになります。これにより、特にデータが限定される場合や、特定の専門知識を要する質問に対しても、効果的な回答を提供する能力が向上します。&lt;/p>
&lt;h2 id="ベクターデータベース">ベクターデータベース&lt;/h2>
&lt;p>RAG（Retrieval-Augmented Generation）は、自然言語処理（NLP）の分野で使用される手法の一つであり、特に機械学習モデルがテキスト生成タスクに取り組む際に役立ちます。
RAGは、大量の文書やデータベースから関連情報を検索（Retrieval）し、その情報を使って新しいテキストを生成（Generation）するプロセスを統合したアプローチです。
この手法は、特に情報検索と自然言語生成を融合させることで、より情報に基づいた、精度の高いテキスト生成を可能にします。&lt;/p>
&lt;p>ベクターデータベースは、特にRAGや機械学習の文脈で便利なデータベースのタイプです。このようなデータベースは、データをベクトルとして格納し、高速な類似性検索を行います。
これは、テキストや画像などのデータを数値のベクトルに変換し、これらのベクトル間の距離や類似度を計算することで機能します。
RAGのコンテキストでは、この類似性検索が非常に重要です。なぜなら、
生成したいテキストに関連する情報を高速に検索し、その情報をもとによりリッチなコンテンツ生成を支援するからです。&lt;/p>
&lt;p>Embeddingsは、ワードやフレーズ、文書を固定長のベクトルに変換する手法です。
通常、深層学習によるモデルが、テキストデータを数学的に操作可能な形式に変換するために使用します。
これらのベクトルは、テキストの意味的な類似性を反映し、機械学習モデルがより効果的にデータを理解し、処理するのを助けます。RAGやベクターデータベースにおいて、embeddingsは関連情報を検索する際の基礎となる要素です。
Embeddingsを使用することで、類似した意味を持つテキストが近いベクトル空間に位置づけられ、より関連性の高い情報検索を可能にします。&lt;/p>
&lt;div class="self-ad">
tumf合同会社では、お客様のテキストベースのデータを利用したRAG構築運用をを支援いたします。
&lt;ul class="followup-links">
&lt;li>
&lt;i class="fa-solid fa-circle-arrow-right">&lt;/i>
&lt;a href="https://778172da.llc-tumf-jp.pages.dev/services/foundry"
> ソフトウェア・ファウンドリ・サービス(受託開発) &lt;/a
>
&lt;/li>
&lt;/ul>
&lt;/div></description></item><item><title>大規模言語モデル</title><link>https://778172da.llc-tumf-jp.pages.dev/terms/llm/</link><pubDate>Tue, 30 Apr 2024 10:35:17 +0700</pubDate><guid>https://778172da.llc-tumf-jp.pages.dev/terms/llm/</guid><description>&lt;p>LLMは「Large Language Model」の略で、直訳すると「大規模言語モデル」となります。これは、大量のテキストデータを学習して、自然言語を理解し、生成する能力を持つ人工知能（AI）技術の一種です。具体的には、文章の書き方や会話の仕方を理解し、新しい文章を生成したり、質問に答えたりすることができます。&lt;/p>
&lt;blockquote>
&lt;p>&lt;strong>関連記事&lt;/strong>: この記事は&lt;a href="https://778172da.llc-tumf-jp.pages.dev/topics/ai-llm/">AI・LLM総合ガイド&lt;/a>の一部です。LLM技術全体の体系的な理解には、総合ガイドもご覧ください。&lt;/p>&lt;/blockquote>
&lt;p>LLMは、多種多様なテキストデータ（ウェブサイトのテキスト、書籍、ニュース記事など）を用いてトレーニングされます。このトレーニングプロセスにより、LLMは膨大な言語パターンや情報を学習し、それをもとにして人間のように言語を扱えるようになります。&lt;/p>
&lt;p>使用例としては、文章の自動生成、翻訳、要約、チャットボット、質問応答システムなどがあります。
技術が進化するにつれて、LLMはより自然で、正確で、複雑な言語タスクを遂行できるようになっています。&lt;/p>
&lt;p>ただし、この技術は完璧ではなく、学習したデータに基づいて予測や生成を行うため、偏りや誤情報を含むこともあります。そのため、利用時には注意が必要です。&lt;/p></description></item><item><title>ソフトウェア・ファウンドリ・サービス(受託開発)</title><link>https://778172da.llc-tumf-jp.pages.dev/services/foundry/</link><pubDate>Sun, 28 Apr 2024 00:00:00 +0900</pubDate><guid>https://778172da.llc-tumf-jp.pages.dev/services/foundry/</guid><description>&lt;p>「tumf合同会社は&lt;strong>Web3とAIに強い東京の会社です&lt;/strong>」&lt;/p>
&lt;p>ベトナム・ダナンに開発拠点(2017年設立)をもち、高品質で短納期を実現しています。
これまで主に海外との取引をしてきましたが、2023年末に日本の営業拠点として当社設立。
お客様とのコミュニケーションは原則&lt;strong>日本人が日本語で&lt;/strong>行います、ご安心ください。&lt;/p>
&lt;p>当社では、 &lt;code>ソフトウェア・ファウンドリ・サービス&lt;/code> (以下 SFS)として、お客様のビジネスに最適なカスタムソフトウェアソリューションを提供しています。
お客様の特定のニーズに応じて、完全にカスタマイズされたソフトウェア開発サービスを提供し、 お客様が市場での競争力を高めるためのサポートを行います。&lt;/p>
&lt;h2 id="得意分野">得意分野&lt;/h2>
&lt;p>オープンソースソフトウェアを利用した Webシステム開発/スマートフォン向けモバイルアプリ開発を得意としています。&lt;/p>
&lt;h3 id="推奨構成">推奨構成&lt;/h3>
&lt;ul>
&lt;li>フロントエンド開発にReact, &lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/nextjs">Next.JS&lt;/a>を使用&lt;/li>
&lt;li>アプリ開発には&lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/flutter">Flutter&lt;/a>を使用しワンソースマルチデバイスを実現&lt;/li>
&lt;li>バックエンド開発にはNestJS(中規模以上)&lt;/li>
&lt;li>データベースはPostgreSQL, KVSはRedisを使用&lt;/li>
&lt;li>クラウドインフラは&lt;code>Google Cloud Platform&lt;/code>　上で GKE (k9s)構成　(AWSも利用可能)&lt;/li>
&lt;li>運用管理: Grafana/Loki&lt;/li>
&lt;li>デプロイメント: Terraform , Ansible&lt;/li>
&lt;li>開発言語: Javascript, Typescript, Python, Ruby 等&lt;/li>
&lt;/ul>
&lt;p>(ご参考)プロジェクト管理には以下のようなツールを利用しています。&lt;/p>
&lt;ul>
&lt;li>バージョン管理: Github&lt;/li>
&lt;li>プロジェクト管理: Jira&lt;/li>
&lt;li>コミュニケーション: Slack&lt;/li>
&lt;/ul>
&lt;h3 id="web3-defi-depin-ブロックチェーン">Web3, DeFi, DePIN, ブロックチェーン&lt;/h3>
&lt;ul>
&lt;li>Bitcoin/EVM(Ethereum)/Solanaブロックチェーンに対応したウォレット開発&lt;/li>
&lt;li>&lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/defi">DeFi&lt;/a> や&lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/depin">DePIN&lt;/a> などの
&lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/dapps">DApps&lt;/a>開発・インテグレーション&lt;/li>
&lt;li>&lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/mpc-wallet">MPCウォレット&lt;/a>によるユーザ認証の組み込み&lt;/li>
&lt;li>&lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/solidity">Solidiy&lt;/a> による&lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/smartcontract">スマートコントラクト&lt;/a>開発・監査&lt;/li>
&lt;li>ブロックチェーンインデクサーの開発・運用&lt;/li>
&lt;li>Ethereumトランザクションシミュレータの開発&lt;/li>
&lt;li>大量NFTのミントドロップサービスの開発&lt;/li>
&lt;li>ERC20トークンのバルク送信サービス開発&lt;/li>
&lt;li>ビットコイン取引時のエスクローサービス&lt;/li>
&lt;li>フラッシュローン・フラッシュスワップを利用した裁定取引ボット開発&lt;/li>
&lt;li>WalletConnectによるリモート署名の実装&lt;/li>
&lt;li>調査・コンサルティング&lt;/li>
&lt;/ul>
&lt;h3 id="生成aigai-llm">生成AI(GAI, LLM)&lt;/h3>
&lt;ul>
&lt;li>GPT-4を利用したチャットボット開発&lt;/li>
&lt;li>Googleドキュメントのデータを使用してベクトルデータベース（Chroma、Weaviate）を構築し、LangChainを活用して&lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/rag">RAG&lt;/a>を開発&lt;/li>
&lt;li>Ollamaを利用したセルフホスト&lt;a href="https://778172da.llc-tumf-jp.pages.dev/terms/llm">LLM&lt;/a>サービス構築&lt;/li>
&lt;li>StableDiffusionによる画像生成負荷調整のためのGPUインスタンスの自動拡張(オートスケール)&lt;/li>
&lt;li>調査・コンサルティング&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>Note:&lt;/strong> 生成AIの分野は、変化がスピードがはやいため実績はご参考までに。&lt;/p></description></item></channel></rss>