# 302.AI API 書類 ## Docs - 大規模言語モデル [API移行ガイド](https://doc-jp.302.ai/doc-5030913.md): - ヘルプセンター [HTTPステータスコードとその意味](https://doc-jp.302.ai/doc-5030914.md): - ヘルプセンター [画像翻訳対応言語リスト](https://doc-jp.302.ai/doc-5213778.md): ## API Docs - 大規模言語モデル > 独占機能 > オンライン検索 [Chat(オンライン検索)](https://doc-jp.302.ai/api-273309319.md): すべてのモデルにインターネット検索機能を追加します。この機能を有効化する方法は2つあり、どちらかを選択してください: - 大規模言語モデル > 独占機能 > ふかさゆうせんたんさ [Chat(ふかさゆうせんたんさ)](https://doc-jp.302.ai/api-270155315.md): すべてのモデルに深層検索機能を追加: - 大規模言語モデル > 独占機能 > 画像解析 [Chat(画像解析)](https://doc-jp.302.ai/api-260156232.md): すべてのモデルに画像認識機能を追加するには、それらを開くには2つの方法があります。 - 大規模言語モデル > 独占機能 > 推論モード [Chat(推論モード)](https://doc-jp.302.ai/api-266354891.md): すべてのモデルに推論機能を追加するには、モデル名にサフィックス -r1-fusion を追加するだけです - 大規模言語モデル > 独占機能 > リンク解析 [Chat(リンク解析)](https://doc-jp.302.ai/api-272503222.md): すべてのモデルにウェブページ/ファイル解析機能を追加する方法は2つあります。どちらかを選択してください。 - 大規模言語モデル > 独占機能 > ツール呼び出し [Chat(ツール呼び出し)](https://doc-jp.302.ai/api-278668836.md): 302プラットフォームはすべてのモデルにツール呼び出し機能(通称Function Call)を追加しました。 - 大規模言語モデル > 独占機能 > 長期記憶(Beta) > Memobase > ユーザー管理 [Create User (ユーザーの作成)](https://doc-jp.302.ai/api-256050160.md): Memobase システムで新しいユーザーを作成します - 大規模言語モデル > 独占機能 > 長期記憶(Beta) > Memobase > ユーザー管理 [Get User (ユーザー情報の取得)](https://doc-jp.302.ai/api-256050161.md): Memobaseシステムでは、ユーザーの情報を取得します - 大規模言語モデル > 独占機能 > 長期記憶(Beta) > Memobase > ユーザー管理 [Update User (ユーザー情報の更新)](https://doc-jp.302.ai/api-256050162.md): Memobase システムでユーザーの情報を更新します - 大規模言語モデル > 独占機能 > 長期記憶(Beta) > Memobase > ユーザー管理 [Delete User (ユーザーの削除)](https://doc-jp.302.ai/api-256050163.md): Memobase システムで、既存のユーザーを削除します - 大規模言語モデル > 独占機能 > 長期記憶(Beta) > Memobase > データ管理 [Insert Data (データを挿入)](https://doc-jp.302.ai/api-256050164.md): Memobase システムに、ユーザーの短期記憶データを挿入します。 - 大規模言語モデル > 独占機能 > 長期記憶(Beta) > Memobase > データ管理 [Get Datas (データ一覧取得)](https://doc-jp.302.ai/api-256050165.md): Memobase システムでは、ユーザーの短期記憶データのリストを取得します - 大規模言語モデル > 独占機能 > 長期記憶(Beta) > Memobase > データ管理 [Get Data (個別データ取得)](https://doc-jp.302.ai/api-256050166.md): Memobase システムでは、ユーザーの短期記憶データを取得します - 大規模言語モデル > 独占機能 > 長期記憶(Beta) > Memobase > データ管理 [Delete Data (個別データの削除)](https://doc-jp.302.ai/api-256050167.md): Memobase システムで、ユーザーの短期記憶データを削除します - 大規模言語モデル > 独占機能 > 長期記憶(Beta) > Memobase > 记忆管理 [Flush Buffer (メモリを生成)](https://doc-jp.302.ai/api-256050168.md): Memobase システムでは、ユーザーの短期記憶キャッシュが長期記憶に抽出されます。 - 大規模言語モデル > 独占機能 > 長期記憶(Beta) > Memobase > 记忆管理 [Get User Profile (記憶を獲得する)](https://doc-jp.302.ai/api-256050169.md): Memobase システムで、対応するユーザー メモリを抽出します。 - 大規模言語モデル > 独占機能 > 長期記憶(Beta) > Memobase > 记忆管理 [Delet User Profile (メモリー削除)](https://doc-jp.302.ai/api-256050170.md): Memobase システムで、対応するユーザー メモリを削除します。 - 大規模言語モデル > 独占機能 > 長期記憶(Beta) [Chat(長期記憶)](https://doc-jp.302.ai/api-255482590.md): 任意の大規模モデルに長期記憶機能を追加するには、単に1つの userid パラメータを追加するだけで済みます。 - 大規模言語モデル > 独占機能 > 簡易版API [Chat(簡易版API)](https://doc-jp.302.ai/api-207706455.md): 302.AIはAPIを簡素化しました。outputを得るには、modelとmessageを渡すだけで十分です。 - 大規模言語モデル > モデルサポート [Models(モデル一覧)](https://doc-jp.302.ai/api-261683153.md): 現在利用可能なモデルをリストし、各モデルの価格を提供します。 - 大規模言語モデル > モデルサポート [Status(モデルのステータス)](https://doc-jp.302.ai/api-284771441.md): 一部のモデルについては、最初のトークン返却時間を監視しています。このインターフェースを通じて、モデルサービスの利用可否を確認できます。 - 大規模言語モデル > OpenAI [Chat(会話)](https://doc-jp.302.ai/api-207706456.md): [OpenAIの指南](https://platform.openai.com/docs/guides/text-generation/chat-completions-api) - 大規模言語モデル > OpenAI [Chat(ストリーミング応答)](https://doc-jp.302.ai/api-235714689.md): [OpenAIの指南](https://platform.openai.com/docs/guides/text-generation/chat-completions-api) - 大規模言語モデル > OpenAI [Chat(gpt-4o 画像分析)](https://doc-jp.302.ai/api-207706461.md): [OpenAIの指南](https://platform.openai.com/docs/guides/text-generation/chat-completions-api) - 大規模言語モデル > OpenAI [Chat(gpt-4o 構造化出力)](https://doc-jp.302.ai/api-207706462.md): [OpenAIの指南](https://platform.openai.com/docs/guides/text-generation/chat-completions-api) - 大規模言語モデル > OpenAI [Chat(gpt-4o 関数呼び出し)](https://doc-jp.302.ai/api-216496100.md): [OpenAIの指南](https://platform.openai.com/docs/guides/text-generation/chat-completions-api) - 大規模言語モデル > OpenAI [Chat(gpt-4-plus 画像分析)](https://doc-jp.302.ai/api-207706459.md): [OpenAIの指南](https://platform.openai.com/docs/guides/text-generation/chat-completions-api) - 大規模言語モデル > OpenAI [Chat(gpt-4-plus 画像生成)](https://doc-jp.302.ai/api-207706460.md): [OpenAIの指南](https://platform.openai.com/docs/guides/text-generation/chat-completions-api) - 大規模言語モデル > OpenAI [Chat(gpt-4o-image-generation 画像を修正)](https://doc-jp.302.ai/api-282181400.md): モデル名:gpt-4o-image-generation - 大規模言語モデル > OpenAI [Chat(gptsモデル)](https://doc-jp.302.ai/api-207706457.md): GPTsはOpenAIが発表したカスタマイズ可能なgpt-4モデルで、ユーザーは論文検索、翻訳、コード補完、画像生成などのさまざまなシナリオに対応した独自のAIアシスタントを設計できます。 - 大規模言語モデル > OpenAI [Chat(chatgpt-4o-latest)](https://doc-jp.302.ai/api-207706458.md): [OpenAIの指南](https://platform.openai.com/docs/guides/text-generation/chat-completions-api) - 大規模言語モデル > OpenAI [Chat(o1シリーズ)](https://doc-jp.302.ai/api-216496099.md): 以下のモデルをサポート: - 大規模言語モデル > OpenAI [Chat(o3シリーズ)](https://doc-jp.302.ai/api-258258398.md): O3-mini、O3-mini-2025-01-31をサポート - 大規模言語モデル > OpenAI [Chat(gpt-4o 音声モデル)](https://doc-jp.302.ai/api-225241593.md): この例は、gpt-4-o-audio-previewモデルの使用方法を示しています。 - 大規模言語モデル > Anthropic [Chat(会話)](https://doc-jp.302.ai/api-207706463.md): 302AIは現在、以下のモデルをサポートしています - 大規模言語モデル > Anthropic [Chat(画像分析)](https://doc-jp.302.ai/api-207706464.md): 302AIは現在、以下のモデルをサポートしています - 大規模言語モデル > Anthropic [Chat(関数呼び出し)](https://doc-jp.302.ai/api-219124402.md): 302AIは現在、以下のモデルをサポートしています: - 大規模言語モデル > Anthropic [Messages(オリジナルフォーマット)](https://doc-jp.302.ai/api-222603833.md): 302AIは現在、以下のモデルをサポートしています: - 大規模言語モデル > Anthropic [Messages(関数呼び出し)](https://doc-jp.302.ai/api-226294528.md): 302AIは現在、以下のモデルをサポートしています: - 大規模言語モデル > Anthropic [Messages(思考モード)](https://doc-jp.302.ai/api-264179398.md): Claude-3-7-Sonnet-20250219は思考モードをサポートしています。 - 大規模言語モデル > Anthropic [Messages(128K出力)](https://doc-jp.302.ai/api-264179399.md): 現在、claude-3-7-sonnet-20250219 は、他の Claude モデルの 15 倍以上長い最大 128k の出力をサポートしています。 このスケーリング能力は、複雑な推論、リッチなコード生成、包括的なコンテンツ作成を伴うユースケースに特に効果的です。 - 大規模言語モデル > Gemini [Chat(会話)](https://doc-jp.302.ai/api-207706465.md): Googleの最新Gemini-1.5-Proバージョン - 大規模言語モデル > Gemini [Chat(画像分析)](https://doc-jp.302.ai/api-224540649.md): Googleの最新Gemini-1.5-Proバージョン - 大規模言語モデル > Gemini [Chat(画像生成)](https://doc-jp.302.ai/api-274479851.md): Googleの最新Gemini画像生成モデルは、テキストから画像生成(文生図)および画像から画像生成(図生図)に対応しています。画像リンクをimage_urlに渡すだけで利用可能です。 - 大規模言語モデル > 中国モデル [Chat(Baidu ERNIE)](https://doc-jp.302.ai/api-207706466.md): 百度の最新AIモデル - 大規模言語モデル > 中国モデル [Chat(Tongyi Qianwen)](https://doc-jp.302.ai/api-207706467.md): Alibabaの最新AIモデル - 大規模言語モデル > 中国モデル [Chat(Tongyi Qianwen-VL)](https://doc-jp.302.ai/api-207706468.md): Alibabaの最新AIモデル、マルチモーダル - 大規模言語モデル > 中国モデル [Chat(Tongyi Qianwen-OCR)](https://doc-jp.302.ai/api-242313081.md): アリババの最新AIモデルは、Qwen-VLを基盤に訓練されたOCR認識の大型モデルです。統一されたモデルを通じて、さまざまな画像とテキストの認識、解析、処理といったタスクを統合し、強力な画像とテキストの認識能力を提供します。 - 大規模言語モデル > 中国モデル [Chat(ZHIPU GLM-4)](https://doc-jp.302.ai/api-207706469.md): Zhipu AIの最新AIモデル、清華大学から - 大規模言語モデル > 中国モデル [Chat(ZHIPU GLM-4V)](https://doc-jp.302.ai/api-207706470.md): Zhipu AIの最新画像認識AIモデル、清華大学から - 大規模言語モデル > 中国モデル [Chat(Baichuan AI)](https://doc-jp.302.ai/api-207706471.md): BaichuanのAIモデル、Sogou創業者の王小川氏から - 大規模言語モデル > 中国モデル [Chat(Moonshot kimi AI)](https://doc-jp.302.ai/api-207706472.md): Moonshotの最新AIモデル、kimiアプリケーションでも使用されているAIモデル - 大規模言語モデル > 中国モデル [Chat(Moonshot kimi AI-Vision)](https://doc-jp.302.ai/api-255027091.md): Moonshotの最新AIモデル、kimiアプリケーションでも使用されているAIモデル - 大規模言語モデル > 中国モデル [Chat(01.AI)](https://doc-jp.302.ai/api-207706473.md): 01.AIの最新AIモデル、元グーグル副社長の李開復から - 大規模言語モデル > 中国モデル [ Chat(01.AI-VL)](https://doc-jp.302.ai/api-207706474.md): 01.AIの最新AIモデル、元グーグル副社長の李開復から - 大規模言語モデル > 中国モデル [Chat(DeepSeek)](https://doc-jp.302.ai/api-207706475.md): 有名なプライベートエクイティの巨人ファンタジーから。 - 大規模言語モデル > 中国モデル [Chat(DeepSeek-VL2)](https://doc-jp.302.ai/api-246112860.md): 深度求索の最新AIモデルは、現在最も安価な国産の大規模モデルで、入力は1元/1M、出力は2元/1Mと非常に手頃な価格です。翻訳に非常に適しており、有名なプライベートエクイティ大手の幻方が提供しています。 - 大規模言語モデル > 中国モデル [Chat(ByteDance Doubao)](https://doc-jp.302.ai/api-207706476.md): ByteDance Doubaoの最新AIモデル - 大規模言語モデル > 中国モデル [Chat(ByteDance Doubao-Vision)](https://doc-jp.302.ai/api-240587400.md): 字節豆包の最新画像認識モデル - 大規模言語モデル > 中国モデル [Chat(ByteDance Doubao Image Generation)](https://doc-jp.302.ai/api-275421503.md): 私たちは、Doubaoのgeneral_v2.1_Lとseededit APIを改造し、OpenAIのフォーマットに適応させることで、画像生成と画像編集が可能になりました。 - 大規模言語モデル > 中国モデル [Chat(Stepfun)](https://doc-jp.302.ai/api-246451044.md): Stepfunの最新AIモデル - 大規模言語モデル > 中国モデル [Chat (Stepfun Multimodal)](https://doc-jp.302.ai/api-207706477.md): Stepfunの最新AIモデル - 大規模言語モデル > 中国モデル [Chat(iFLYTEK Spark)](https://doc-jp.302.ai/api-207706478.md): iFLYTEK Sparkの最新AIモデル - 大規模言語モデル > 中国モデル [Chat(SenseTime)](https://doc-jp.302.ai/api-207706479.md): SenseTimeの最新AIモデル - 大規模言語モデル > 中国モデル [Chat(Minimax)](https://doc-jp.302.ai/api-240587490.md): Minimaxの最新AIモデル - 大規模言語モデル > 中国モデル [Chat(Tencent Hunyuan)](https://doc-jp.302.ai/api-207706481.md): Tencent Hunyuan大規模モデル - 大規模言語モデル > SiliconFlow [Chat(SiliconFlow)](https://doc-jp.302.ai/api-252564776.md): シリコンベースフローIは正式に302.AIと提携し、302のすべてのユーザーにオープンソースモデルの機能を提供します。 - 大規模言語モデル > オープンソースモデル [Chat(LLaMA3.3)](https://doc-jp.302.ai/api-207706482.md): Metaの最新のオープンソースモデルは、前世代の405Bを超えたと言われており - 大規模言語モデル > オープンソースモデル [Chat(LLaMA3.2 マルチモーダル)](https://doc-jp.302.ai/api-219126959.md): Metaの最新オープンソースモデル - 大規模言語モデル > オープンソースモデル [Chat(LLaMA3.1)](https://doc-jp.302.ai/api-207706483.md): Metaの最新オープンソースモデル - 大規模言語モデル > オープンソースモデル [Chat(Mixtral-8x7B)](https://doc-jp.302.ai/api-207706484.md): チャットモデルは一連のメッセージを入力として受け取り、モデルが生成したメッセージを出力として返します。チャット形式は複数回のやり取りを容易にするために設計されていますが、会話のない単一のタスクにも同様に有用です。 - 大規模言語モデル > オープンソースモデル [Chat(Mistral-Large-2411)](https://doc-jp.302.ai/api-235475762.md): チャットモデルは一連のメッセージを入力として受け取り、モデルが生成したメッセージを出力として返します。チャット形式は複数回のやり取りを容易にするために設計されていますが、会話のない単一のタスクにも同様に有用です。 - 大規模言語モデル > オープンソースモデル [Chat(Mistral-small-2503)](https://doc-jp.302.ai/api-273454143.md): Mistral-small-2503、Mistralからのマルチモーダル小型モデル - 大規模言語モデル > オープンソースモデル [Chat(Pixtral-Large-2411マルチモーダル)](https://doc-jp.302.ai/api-235475312.md): この例は、Pixtral-large-2411モデルを使用して画像を分析する方法を示すためのものです。 - 大規模言語モデル > オープンソースモデル [Chat(Gemma-7B、Gemma-3-27b-it)](https://doc-jp.302.ai/api-207706486.md): チャットモデルは一連のメッセージを入力として受け取り、モデルが生成したメッセージを出力として返します。チャット形式は複数回のやり取りを容易にするために設計されていますが、会話のない単一のタスクにも同様に有用です。 - 大規模言語モデル > オープンソースモデル [Chat(Gemma2-9B)](https://doc-jp.302.ai/api-207706489.md): チャットモデルは一連のメッセージを入力として受け取り、モデルが生成したメッセージを出力として返します。チャット形式は複数回のやり取りを容易にするために設計されていますが、会話のない単一のタスクにも同様に有用です。 - 大規模言語モデル > オープンソースモデル [Chat(Command R+)](https://doc-jp.302.ai/api-207706487.md): チャットモデルは一連のメッセージを入力として受け取り、モデルが生成したメッセージを出力として返します。チャット形式は複数回のやり取りを容易にするために設計されていますが、会話のない単一のタスクにも同様に有用です。 - 大規模言語モデル > オープンソースモデル [Chat(Qwen2)](https://doc-jp.302.ai/api-207706488.md): チャットモデルは一連のメッセージを入力として受け取り、モデルが生成したメッセージを出力として返します。チャット形式は複数回のやり取りを容易にするために設計されていますが、会話のない単一のタスクにも同様に有用です。 - 大規模言語モデル > オープンソースモデル [Chat(Qwen2.5)](https://doc-jp.302.ai/api-217023276.md): Alibabaの最新オープンソースモデル - 大規模言語モデル > オープンソースモデル [Chat(Qwen2.5-VL)](https://doc-jp.302.ai/api-263694034.md): Alibabaの最新オープンソースモデル - 大規模言語モデル > オープンソースモデル [Chat(Llama-3.1-nemotron)](https://doc-jp.302.ai/api-224540992.md): Nvidiaによってllama-3.1を基盤として微調整されたモデル、o1に続くランニングスコア。 - 大規模言語モデル > オープンソースモデル [Chat(QwQ-32B、QwQ-Plus、QwQ-32B-Preview)](https://doc-jp.302.ai/api-239087234.md): アリババの最新オープンソースモデル - 大規模言語モデル > 専門モデル [Chat(WiseDiag医療モデル)](https://doc-jp.302.ai/api-261595533.md): WiseDiag Technologyのモデル:https://widediag.com/ - 大規模言語モデル > 専門モデル [Chat(ChatLaw法律モデル)](https://doc-jp.302.ai/api-214718097.md): 北大法律モデル - 大規模言語モデル > 専門モデル [Chat(Xuanyuan金融モデル)](https://doc-jp.302.ai/api-207706491.md): 轩辕金融モデル - 大規模言語モデル > 専門モデル [Chat(Farui法律モデル)](https://doc-jp.302.ai/api-207706492.md): 法睿法律モデル - 大規模言語モデル > 専門モデル [Chat(Alibaba数学モデル)](https://doc-jp.302.ai/api-207706493.md): Alibaba数学モデル - 大規模言語モデル > 専門モデル [Chat(Perplexity検索)](https://doc-jp.302.ai/api-214722883.md): サポートされているモデル: - 大規模言語モデル > その他のモデル [Chat(grok-3)](https://doc-jp.302.ai/api-263684808.md): Elon MuskのXaiトレーニングの最新モデル - 大規模言語モデル > その他のモデル [Chat(grok-2)](https://doc-jp.302.ai/api-224540650.md): イーロン・マスクのxAIによって学習された最新モデル - 大規模言語モデル > その他のモデル [Chat(grok-2-vision)](https://doc-jp.302.ai/api-246123183.md): イーロン・マスクのxAIによって学習された最新モデル - 大規模言語モデル > その他のモデル [Chat(Nova)](https://doc-jp.302.ai/api-242303519.md): Amazonによる最新の自社開発の大規模モデル - 画像生成 > 統一インターフェース [画像を生成](https://doc-jp.302.ai/api-286781150.md): application/jsonとmultipart/form-dataの両方の方式でパラメータ送信に対応 - 画像生成 > DALL.E [Generations(DALL·E 3とDALL·E 2)](https://doc-jp.302.ai/api-207706494.md): [OpenAIの指南](https://platform.openai.com/docs/guides/images/generations) - 画像生成 > DALL.E [Edits(DALL·E 2)](https://doc-jp.302.ai/api-207706496.md): [OpenAIの指南](https://platform.openai.com/docs/guides/images/edits-dall-e-2-only) - 画像生成 > DALL.E [Variations(DALL·E 2)](https://doc-jp.302.ai/api-207706495.md): [OpenAIの指南](https://platform.openai.com/docs/guides/images/variations-dall-e-2-only) - 画像生成 > Stability.ai [Text-to-image(画像生成-V1)](https://doc-jp.302.ai/api-207706501.md): AIを使って絵を描く - 画像生成 > Stability.ai [Generate(画像生成-SD2)](https://doc-jp.302.ai/api-207706497.md): AIを使って絵を描く - 画像生成 > Stability.ai [Generate(画像生成-SD3-Ultra)](https://doc-jp.302.ai/api-207706500.md): AIを使って絵を描くV3.1、モデルsd3を使用 - 画像生成 > Stability.ai [Generate(画像生成-SD3)](https://doc-jp.302.ai/api-207706498.md): AIを使って絵を描くV3、モデルsd3を使用 - 画像生成 > Stability.ai [Generate(画像生成-SD3.5-Large)](https://doc-jp.302.ai/api-225969522.md): AIを使って絵を描くV3.5、モデルsd3.5を使用 - 画像生成 > Stability.ai [Generate(画像生成-SD3.5-Medium)](https://doc-jp.302.ai/api-230034416.md): AIを使って絵を描くV3.5、モデルsd3.5を使用 - 画像生成 > Stability.ai [Generate(画像から画像を生成-SD3)](https://doc-jp.302.ai/api-207706499.md): AIを使って絵を描くV3、モデルSD3を使用 - 画像生成 > Stability.ai [Generate(画像から画像を生成-SD3.5-Large) ](https://doc-jp.302.ai/api-225969572.md): AIを使って絵を描くV3.5、モデルSD3.5を使用 - 画像生成 > Stability.ai [Generate(画像から画像を生成-SD3.5-Medium)](https://doc-jp.302.ai/api-230034417.md): AIを使って絵を描くV3.5、モデルSD3.5を使用 - 画像生成 > Midjourney [Imagine(描画)](https://doc-jp.302.ai/api-207706505.md): **価格:0.05 PTC / 回** - 画像生成 > Midjourney [Action(修正)](https://doc-jp.302.ai/api-207706502.md): **価格:0.05 PTC / 回** - 画像生成 > Midjourney [Blend(画像合成)](https://doc-jp.302.ai/api-207706503.md): **価格:0.05 PTC / 回** - 画像生成 > Midjourney [Describe(画像説明)](https://doc-jp.302.ai/api-207706504.md): **価格:0.025 PTC / 回** - 画像生成 > Midjourney [Modal(部分再描画)](https://doc-jp.302.ai/api-207706506.md): **価格:0.05 PTC / 回** - 画像生成 > Midjourney [Fetch(タスク取得)](https://doc-jp.302.ai/api-207706507.md): **価格:0 PTC / 回** - 画像生成 > Midjourney [Cancel(タスクキャンセル)](https://doc-jp.302.ai/api-207706508.md): **価格:0 PTC / 回** - 画像生成 > Midjourney-Relax [Imagine(絵画)](https://doc-jp.302.ai/api-235818172.md): **価格:0.02PTC/回** - 画像生成 > Midjourney-Relax [Action(修正)](https://doc-jp.302.ai/api-235818173.md): **価格:0.02PTC/回** - 画像生成 > Midjourney-Relax [Blend(ブレンド)](https://doc-jp.302.ai/api-235818174.md): **価格:0.02PTC/回** - 画像生成 > Midjourney-Relax [Describe(画像説明)](https://doc-jp.302.ai/api-235818175.md): **価格:0.01PTC/回** - 画像生成 > Midjourney-Relax [Modal(部分的な再描画)](https://doc-jp.302.ai/api-235818176.md): **価格:0.02PTC/回** - 画像生成 > Midjourney-Relax [Fetch(タスクを受け取る)](https://doc-jp.302.ai/api-235818177.md): **価格:0 PTC/回** - 画像生成 > Midjourney-Relax [Cancel(タスクをキャンセル) ](https://doc-jp.302.ai/api-235818178.md): **価格:0 PTC/回** - 画像生成 > 302.AI [SDXL(画像生成)](https://doc-jp.302.ai/api-207706509.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像生成 > 302.AI [SDXL-Lora(画像生成-Lora)](https://doc-jp.302.ai/api-207706512.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像生成 > 302.AI [SDXL-Lightning(高速画像生成)](https://doc-jp.302.ai/api-207706515.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像生成 > 302.AI [SDXL-Lightning-V2(高速画像生成-V2)](https://doc-jp.302.ai/api-207706516.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像生成 > 302.AI [SDXL-Lightning-V3(高速画像生成-V3)](https://doc-jp.302.ai/api-207706517.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像生成 > 302.AI [SD3(画像生成-SD3)](https://doc-jp.302.ai/api-207706513.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像生成 > 302.AI [SD3(画像生成-SD3-v2)](https://doc-jp.302.ai/api-207706514.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像生成 > 302.AI [Aura-Flow(画像生成)](https://doc-jp.302.ai/api-207706510.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像生成 > 302.AI [Kolors(画像生成-Kolors)](https://doc-jp.302.ai/api-207706511.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像生成 > 302.AI [Kolors(参考画像生成-KLING)](https://doc-jp.302.ai/api-247560166.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像生成 > 302.AI [QRCode(Art QR code 生成)](https://doc-jp.302.ai/api-212312503.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像生成 > 302.AI [Lora(画像生成-Lora)](https://doc-jp.302.ai/api-224679339.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像生成 > 302.AI [SD-3.5-Large(画像生成)](https://doc-jp.302.ai/api-230035457.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像生成 > 302.AI [SD-3.5-Large-Turbo(画像生成)](https://doc-jp.302.ai/api-230035458.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像生成 > 302.AI [SD-3.5-Medium(画像生成)](https://doc-jp.302.ai/api-230035459.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像生成 > 302.AI [Lumina-Image-V2(画像生成)](https://doc-jp.302.ai/api-259288719.md): 302.AIのAPIは、クラウドGPUに展開するモデルから来ています。一部のモデルはオープンソースモデルであり、一部のモデルは自分で微調整または開発されています。 - 画像生成 > 302.AI [Playground-v25(画像生成)](https://doc-jp.302.ai/api-267241387.md): オープンソース版画像生成モデルPlayground - 画像生成 > 302.AI [Omnigen-V1(画像生成)](https://doc-jp.302.ai/api-267357570.md): オープンソースの画像生成モデル Omnigen - 画像生成 > Glif [Glif(Claude+SD3)](https://doc-jp.302.ai/api-207706522.md): Claudeを通じてプロンプトを自動最適化し、SD3で描画を行う。 - 画像生成 > Glif [Glif(文字からステッカー画像を生成)](https://doc-jp.302.ai/api-207706518.md): 説明を入力し、ステッカー画像を生成 - 画像生成 > Glif [Glif(文字から落書きを生成)](https://doc-jp.302.ai/api-207706519.md): 説明を入力し、落書きを生成 - 画像生成 > Glif [Glif(文字からWojak漫画を生成)](https://doc-jp.302.ai/api-207706520.md): 説明を入力し、Wojak漫画を生成 - 画像生成 > Glif [Glif(文字からLEGO画像を生成)](https://doc-jp.302.ai/api-207706521.md): 説明を入力し、LEGO画像を生成 - 画像生成 > Flux > 公式API [Generate (画像を生成)](https://doc-jp.302.ai/api-256983076.md): 公式ドキュメント: https://api.bhl.ml/scalar#tag/tasks/POST/v1/flux-pro - 画像生成 > Flux > 公式API [Finetune (微調整)](https://doc-jp.302.ai/api-256983077.md): 公式ドキュメント:https://api.bfl.ml/scalar#tag/tasks/POST/v1/flux-pro - 画像生成 > Flux > 公式API [Result (クエリタスク)](https://doc-jp.302.ai/api-256983078.md): **価格: 無料** - 画像生成 > Flux [Flux-Ultra(画像生成v1.1)](https://doc-jp.302.ai/api-231457806.md): 元Stability.aiのメンバーが設立したblack forest labs社による画像生成、出所:https://blackforestlabs.ai/ - 画像生成 > Flux [Flux-Pro(画像生成)](https://doc-jp.302.ai/api-207706523.md): 元Stability.aiのメンバーが設立したblack forest labs社による画像生成、出所:https://blackforestlabs.ai/ - 画像生成 > Flux [Flux-Pro(画像生成v1.1)](https://doc-jp.302.ai/api-224679340.md): 元Stability.aiのメンバーが設立したblack forest labs社による画像生成、出所:https://blackforestlabs.ai/ - 画像生成 > Flux [Flux-Dev(画像生成)](https://doc-jp.302.ai/api-207706524.md): 元Stability.aiのメンバーが設立したblack forest labs社による画像生成、出所:https://blackforestlabs.ai/ - 画像生成 > Flux [Flux-Schnell(画像生成)](https://doc-jp.302.ai/api-207706526.md): 元Stability.aiのメンバーが設立したblack forest labs社による画像生成、出所:https://blackforestlabs.ai/ - 画像生成 > Flux [Flux-Realism(超リアルなLora)](https://doc-jp.302.ai/api-207706525.md): 元Stability.aiのメンバーが設立したblack forest labs社による画像生成、出所:https://blackforestlabs.ai/ - 画像生成 > Flux [Flux-Lora(カスタムLora)](https://doc-jp.302.ai/api-207706527.md): 302.AIのAPIは、クラウドGPU上に自ら展開したモデルから来ています。一部のモデルはオープンソースで、一部は私たちが微調整または開発したものです。 - 画像生成 > Flux [Flux-General(高度カスタマイズ)](https://doc-jp.302.ai/api-232136700.md): 302.AIのAPIは、クラウドGPU上に自ら展開したモデルから来ています。一部のモデルはオープンソースで、一部は私たちが微調整または開発したものです。 - 画像生成 > Flux [Flux-General-Inpainting(高度カスタマイズ)](https://doc-jp.302.ai/api-251739220.md): 302.AIのAPIは、クラウドGPU上に自ら展開したモデルから来ています。一部のモデルはオープンソースで、一部は私たちが微調整または開発したものです。 - 画像生成 > Flux [Flux-Lora-Training(訓練Lora)](https://doc-jp.302.ai/api-252474524.md): 画像生成のために、自分専用のLoRAを学習可能 - 画像生成 > Flux [Flux-Lora-Training(非同期で結果を取得する)](https://doc-jp.302.ai/api-252474616.md): Lora訓練结果を取得する - 画像生成 > Ideogram [Generate(文字から画像を生成)](https://doc-jp.302.ai/api-212312123.md): Ideogramからテキスト生成された画像、正確なテキストとポスターを生成する利点があります! - 画像生成 > Recraft [Recraft-V3(文字から画像を生成)](https://doc-jp.302.ai/api-229153748.md): LLMの主要モデルリストに登場し、謎めいた存在として注目を集める最新モデル「red_panda」,出所:https://www.recraft.ai/ - 画像生成 > Recraft [Create-Style(カスタムスタイル)](https://doc-jp.302.ai/api-229153749.md): LLMの主要モデルリストに登場し、謎めいた存在として注目を集める最新モデル「red_panda」,出所:https://www.recraft.ai/ - 画像生成 > Recraft [Recraft-20B(画像生成)](https://doc-jp.302.ai/api-245633826.md): 新しいバージョンのRecraftは、オリジナルより40%安くなりましたが、品質は元のバージョンほど良くありません - 画像生成 > Luma [Luma-Photon(画像生成)](https://doc-jp.302.ai/api-240589416.md): Lumaからの画像生成モデル - 画像生成 > Luma [Luma-Photon-Flash(高速画像生成)](https://doc-jp.302.ai/api-240589417.md): Lumaからの画像生成モデル - 画像生成 > Doubao [Drawing(豆包画像生成) ](https://doc-jp.302.ai/api-246609878.md): 豆包による画像生成モデル - 画像生成 > Google [Imagen-3 (画像生成)](https://doc-jp.302.ai/api-259648573.md): GoogleのImagen-3モデル - 画像生成 > Google [Imagen-3-Fast(画像生成)](https://doc-jp.302.ai/api-259648574.md): GoogleのImagen-3-fastモデル - 画像生成 > Minimax [image(テキストから画像を生成)](https://doc-jp.302.ai/api-270137978.md): Minimaxのテキストから画像へのモデル、対応モデル: - 画像生成 > ZHIPU [image(テキストから画像を生成)](https://doc-jp.302.ai/api-270885300.md): CogView-4の画像生成モデル、対応モデル: - 画像生成 > Baidu [iRAG(テキストから画像生成)](https://doc-jp.302.ai/api-279711034.md): aidu の画像生成モデル iRAG を使用しています。実際の画像を検索してから生成するため、幻覚(ハルシネーション)を抑え、よりリアルな画像を生成できます。 - 画像生成 > Hidream [Hidream-i1-full(上級版)](https://doc-jp.302.ai/api-283665223.md): 智象未来の画像生成モデル - 画像生成 > Hidream [Hidream-i1-dev(中級版)](https://doc-jp.302.ai/api-283665283.md): 智象未来の画像生成モデル - 画像生成 > Hidream [Hidream-i1-fast(入門版)](https://doc-jp.302.ai/api-283665362.md): 智象未来の画像生成モデル - 画像処理 > 302.AI [Upscale(画像拡大)](https://doc-jp.302.ai/api-207706531.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像処理 > 302.AI [Upscale-V2(画像拡大-V2)](https://doc-jp.302.ai/api-207706532.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像処理 > 302.AI [Upscale-V3(画像拡大-V3)](https://doc-jp.302.ai/api-207706533.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像処理 > 302.AI [Upscale-V4(画像拡大-V4)](https://doc-jp.302.ai/api-207706534.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像処理 > 302.AI [Super-Upscale(超画像拡大)](https://doc-jp.302.ai/api-207706535.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像処理 > 302.AI [Super-Upscale-V2(超画像拡大-V2)](https://doc-jp.302.ai/api-207706536.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像処理 > 302.AI [Face-upscale(肖像画の画像拡大)](https://doc-jp.302.ai/api-207706539.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像処理 > 302.AI [Colorize(白黒写真に色を付ける)](https://doc-jp.302.ai/api-207706537.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像処理 > 302.AI [Colorize(白黒写真に色を付ける-V2)](https://doc-jp.302.ai/api-207706538.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像処理 > 302.AI [Removebg(背景を削除)](https://doc-jp.302.ai/api-207706540.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像処理 > 302.AI [Removebg-V2(背景を削除-V2)](https://doc-jp.302.ai/api-207706541.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像処理 > 302.AI [Inpaint(画像修正)](https://doc-jp.302.ai/api-207706543.md): マスク画像の内容に基づき、指定された領域をインテリジェントに塗りつぶしたり、画像を置き換えたりします。 - 画像処理 > 302.AI [Erase(オブジェクトの削除)](https://doc-jp.302.ai/api-207706544.md): マスク画像の内容に基づき、指定された画像領域をインテリジェントに削除します。 - 画像処理 > 302.AI [Face-to-many(肖像画画像の様式化)](https://doc-jp.302.ai/api-207706547.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像処理 > 302.AI [Llava(画像認識)](https://doc-jp.302.ai/api-207706548.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像処理 > 302.AI [Relight(補助照明)](https://doc-jp.302.ai/api-207706542.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像処理 > 302.AI [Relight-background(二次光の背景合成)](https://doc-jp.302.ai/api-207706546.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像処理 > 302.AI [Relight-V2(補助照明-V2)](https://doc-jp.302.ai/api-253658163.md): セカンダリー・ライティング、IC-Light、"Imposing Consistent Light "は、画像のライティングを操作することに特化したプロジェクトである。 - 画像処理 > 302.AI [Face-swap-V2(AIフェイススワップV2)](https://doc-jp.302.ai/api-207706545.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像処理 > 302.AI [Fetch(タスク取得)](https://doc-jp.302.ai/api-207706530.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像処理 > 302.AI [HtmltoPng(HTMLをPNG形式に変換)](https://doc-jp.302.ai/api-216464700.md): HTMLコードをPNG形式の画像に変換する - 画像処理 > 302.AI [SvgToPng(SVGをPNG形式に変換)](https://doc-jp.302.ai/api-216464701.md): SVGコードをPNG形式の画像に変換する - 画像処理 > 302.AI [image-translate(画像翻訳)](https://doc-jp.302.ai/api-219451519.md): 画像内のテキストを対応する言語に翻訳し、新しいテキストを生成します。 - 画像処理 > 302.AI [image-translate-query(画像翻訳結果)](https://doc-jp.302.ai/api-219451520.md): 画像内のテキストを対応する言語に翻訳し、新しいテキストを生成します。 - 画像処理 > 302.AI [image-translate-redo(画像翻訳修正)](https://doc-jp.302.ai/api-219451521.md): 画像内のテキストを対応する言語に翻訳し、新しいテキストを生成します。 - 画像処理 > 302.AI [Flux-selfie(スタイリッシュな自撮り写真) ](https://doc-jp.302.ai/api-222605474.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 画像処理 > 302.AI [Trellis(画像を3Dモデルに変換) ](https://doc-jp.302.ai/api-247568470.md): オープンソースプロジェクトからの画像を3D化 - 画像処理 > 302.AI [Pose-Transfer(人物のポーズ変換)](https://doc-jp.302.ai/api-252492144.md): オープンソースプロジェクトからの人物のポーズ変換 - 画像処理 > 302.AI [Pose-Transfer(人物のポーズ変換結果)](https://doc-jp.302.ai/api-252491950.md): **価格:0 PTC/回** - 画像処理 > 302.AI [Virtual-Tryon(バーチャル試着)](https://doc-jp.302.ai/api-252491844.md): オープンソースプロジェクトからのバーチャル試着 - 画像処理 > 302.AI [Virtual-Tryon(バーチャル試着結果)](https://doc-jp.302.ai/api-252491632.md): **価格:0 PTC/回** - 画像処理 > 302.AI [Denoise(AIノイズ除去)](https://doc-jp.302.ai/api-268507033.md): AI ノイズ除去、写真からのカラーノイズを除去 - 画像処理 > 302.AI [Deblur(AIによるぼかし除去)](https://doc-jp.302.ai/api-268510341.md): AIによるぼかし除去 - 写真のモーションブラーを除去 - 画像処理 > 302.AI-ComfyUI [着せ替えタスクを作成する](https://doc-jp.302.ai/api-270669993.md): ComfyUIの複雑なワークフローを活用した衣装変更効果。商用レベルのクオリティで、モデルの衣装変更に適用可能。実行時間は3~5分。 - 画像処理 > 302.AI-ComfyUI [着替えタスクの作成(マスクをアップロード)](https://doc-jp.302.ai/api-282245800.md): ComfyUI の複雑なワークフローを通じて着替え効果を実現し、モデルの着替えに適した商用レベルの効果を提供します。実行時間:3〜5分。 - 画像処理 > 302.AI-ComfyUI [着せ替えタスクのステータスを照会する](https://doc-jp.302.ai/api-270354608.md): ComfyUIの複雑なワークフローを活用した衣装変更効果。商用レベルのクオリティで、モデルの衣装変更に適用可能。実行時間は3~5分。 - 画像処理 > 302.AI-ComfyUI [フェイススワップタスクの作成](https://doc-jp.302.ai/api-270356976.md): ComfyUIの複雑なワークフローを通じて実現されるフェイススワップ効果、商業レベルの品質、モデルの顔の入れ替えに適しており、実行時間は3〜5分 - 画像処理 > 302.AI-ComfyUI [フェイススワップタスクのステータスを照会](https://doc-jp.302.ai/api-270357106.md): ComfyUIの複雑なワークフローを通じて実現されたフェイススワップ効果。商用レベルの品質で、モデルのフェイススワップに適用可能。実行時間:3~5分。 - 画像処理 > 302.AI-ComfyUI [任意の物体を置き換えるタスクを作成](https://doc-jp.302.ai/api-270357139.md): ComfyUIの複雑なワークフローを通じて物体の置き換え効果を実現し、商用レベルの品質を提供。静物広告などのシーンに適用可能。実行時間:3~5分。 - 画像処理 > 302.AI-ComfyUI [任意物品交換タスクの作成(マスクをアップロード)](https://doc-jp.302.ai/api-282246135.md): ComfyUI の複雑なワークフローを通じて物品交換効果を実現し、商用レベルの効果を提供します。静物広告などのシーンに適しています。実行時間:3〜5分。 - 画像処理 > 302.AI-ComfyUI [任意の物品交換タスクのステータスを照会する](https://doc-jp.302.ai/api-270357194.md): ComfyUIの複雑なワークフローを通じて実現された物体交換効果は、商業レベルの品質を提供し、静物広告などのシーンに適しています。実行時間は約3~5分です。 - 画像処理 > 302.AI-ComfyUI [漫画キャラクターを実写化するタスクの作成](https://doc-jp.302.ai/api-272722740.md): ComfyUIの複雑なワークフローを通じて、漫画を実写化する効果を実現します。商業レベルの高品質な仕上がりで、服装デザイン図をリアルなモデル画像に変換可能です。実行時間:3~5分。 - 画像処理 > 302.AI-ComfyUI [漫画キャラクターを実写化するタスクの状態を照会](https://doc-jp.302.ai/api-272723261.md): ComfyUIの複雑なワークフローを通じて実現された漫画キャラクターの実写化効果。商業レベルのクオリティを提供し、服装デザイン図を実写モデル画像に変換可能。実行時間は3~5分。 - 画像処理 > 302.AI-ComfyUI [スタイル転送タスクを作成](https://doc-jp.302.ai/api-272723278.md): ComfyUIを使用した複雑なワークフローにより実現された画像スタイル転送。商用レベルの効果を提供します。実行時間:3〜5分。 - 画像処理 > 302.AI-ComfyUI [スタイル変換タスクのステータスを照会](https://doc-jp.302.ai/api-272723309.md): ComfyUIの複雑なワークフローを通じて実現された画像スタイル変換。商用レベルの効果を達成し、実行時間は3~5分。 - 画像処理 > Vectorizer [Vectorize(ベクトル化)](https://doc-jp.302.ai/api-207706549.md): AI を使って、通常の画像を無限にズーム可能なベクター画像に変換することができます。 - 画像処理 > Stability.ai [Fast Upscale(画像の高速拡大) ](https://doc-jp.302.ai/api-222625043.md): 私たちの高速ズームサービスは、予測および生成AIを活用し、画像解像度を最大で4倍に向上させます。この軽量で高速なサービスは、処理時間が約1秒で、圧縮画像の画質を向上させ、ソーシャルメディア投稿やその他の用途に最適です。 - 画像処理 > Stability.ai [Creatice Upscale (創造的な画像拡大)](https://doc-jp.302.ai/api-207706550.md): このツールは、64x64から1メガピクセルまでの画像をワンクリックで4K解像度に拡大することができます。その特徴は、元の画像品質を維持しながら、画像を約20~40倍に拡大できる点で、場合によっては画像品質を向上させることもあります。特に品質が大きく損なわれた画像の処理に最適ですが、1メガピクセル以上の写真の処理にはあまり推奨されません。なぜなら、大量の再構築(クリエイティブ比率に基づいてコントロールされます)が行われるためです。 - 画像処理 > Stability.ai [Conservative Upscale(保守的な画像拡大)](https://doc-jp.302.ai/api-207706551.md): 画像を64x64ピクセルから100万ピクセルの間で4K解像度に拡大することができます。より広い意味では、画像を約20~40倍に拡大しつつ、あらゆる面で細部を維持することが可能です。保守的な拡大は、画像への変更を最小限に抑え、画像の再構築には使用されません。 - 画像処理 > Stability.ai [Fetch Creatice Upscale(超高解像度画像拡大)](https://doc-jp.302.ai/api-207706552.md): このツールは、64x64から1メガピクセルまでの画像をワンクリックで4K解像度に拡大することができます。その特徴は、元の画像品質を維持しながら、画像を約20~40倍に拡大できる点で、場合によっては画像品質を向上させることもあります。特に品質が大きく損なわれた画像の処理に最適ですが、1メガピクセル以上の写真の処理にはあまり推奨されません。なぜなら、大量の再構築(クリエイティブ比率に基づいてコントロールされます)が行われるためです。 - 画像処理 > Stability.ai [Erase(物体除去)](https://doc-jp.302.ai/api-207706559.md): Eraseサービスは、画像マスキング技術を使用して、不要な物体を取り除くことができます。例えば、肖像画の欠陥やデスク上の不要な物などを消去することが可能です。 - 画像処理 > Stability.ai [Inpaint(画像修正)](https://doc-jp.302.ai/api-207706554.md): マスク画像の内容に基づいて、指定された領域の画像をインテリジェントに補完または置き換えることができます。 - 画像処理 > Stability.ai [Outpaint(画像拡張)](https://doc-jp.302.ai/api-207706555.md): Outpaintサービスは、画像の周囲にさまざまな方向で追加の内容を補完することができます。他の自動または手動の方法と比較して、Outpaintサービスは欠陥を最小限に抑え、編集後の元画像の痕跡が目立ちにくくなるようにします。 - 画像処理 > Stability.ai [Search-and-replace (内容置換)](https://doc-jp.302.ai/api-207706556.md): 検索置換サービスは、マスクを必要としない特別な画像編集方法です。ユーザーは検索プロンプトを使用して、簡単な言葉で置換したい対象を指定できます。このサービスは対象を自動的に認識し、検索プロンプトで指定された内容に基づいて画像内のオブジェクトを置き換えます。 - 画像処理 > Stability.ai [Search-and-recolor (内容再着色)](https://doc-jp.302.ai/api-207706557.md): 検索および再着色サービスは、プロンプトを使用して画像内の特定のオブジェクトの色を変更する機能を提供します。このサービスは、マスクを必要としない特定のバージョンのペイント修復です。検索および再着色サービスは、オブジェクトを自動的に分割し、プロンプトで指定された色を使用して再着色を行います。 - 画像処理 > Stability.ai [Remove-background(背景除去)](https://doc-jp.302.ai/api-207706558.md): Remove Background サービスは、画像内の前景を正確に分離し、背景の除去や変更を実行します。 - 画像処理 > Stability.ai [Sketch (スケッチから画像)](https://doc-jp.302.ai/api-207706560.md): Sketch サービスは、頻繁なブレインストーミングや反復が必要なデザインプロジェクトに最適なソリューションを提供します。手書きのラフなスケッチを精密なアウトプットに変換し、正確なコントロールを実現します。また、スケッチ以外の画像に対しても、画像内の輪郭線やエッジを活用し、詳細で綿密なビジュアル調整を行うことができます。 - 画像処理 > Stability.ai [Structure(画像生成)](https://doc-jp.302.ai/api-207706561.md): Structureサービスは、元の画像の構造を維持したまま新しい画像を生成することができます。そのため、具体的なシーンの再現や、モデルに基づいたキャラクターのレンダリングなど、高度なコンテンツ制作の分野で特に重要な役割を果たします。 - 画像処理 > Stability.ai [Style (スタイルの一貫性)](https://doc-jp.302.ai/api-207706562.md): このサービスは、入力画像(コントロール画像)からスタイル要素を抽出し、キーワードに基づいて出力画像の作成をガイドします。その結果、コントロール画像と同じスタイルの新しい画像が生成されます。 - 画像処理 > Stability.ai [Replace-Background(背景を変更)](https://doc-jp.302.ai/api-238677716.md): 画像の背景を変更し、光を再調整します - 画像処理 > Stability.ai [Stable-Fast-3D(画像から3Dモデルを変換)](https://doc-jp.302.ai/api-216465717.md): 画像を迅速に3Dモデルに変換します。 - 画像処理 > Stability.ai [Stable-Point-3D(画像から3Dモデルへの変換-新バージョン)](https://doc-jp.302.ai/api-253057152.md): 点群法を使用して画像を3Dモデルに変換する,紹介:https://stability.ai/news/stable-point-aware-3d - 画像処理 > Glif [Glif(様式化された人物写真)](https://doc-jp.302.ai/api-207706563.md): 人物の写真を入力し、スタイル フィルターを選択して生成します。 - 画像処理 > Glif [Glif(写真を彫刻に変換)](https://doc-jp.302.ai/api-207706565.md): 写真を入力し、彫刻に変換する。 - 画像処理 > Glif [Glif(写真はピクセル化されています)](https://doc-jp.302.ai/api-207706566.md): 写真を入力し、ピクセル化された画像に変換する。 - 画像処理 > Glif [Glif(Logoができました)](https://doc-jp.302.ai/api-207706564.md): Logoの画像を入力し、素材を記入して変換する。例:サンプル画像:ダイヤモンド - 画像処理 > Glif [Glif(画像からGIFを生成します)](https://doc-jp.302.ai/api-207706567.md): 写真を入力し、AIで画像を動かしてGIFを生成する。 - 画像処理 > Clipdrop [Cleanup (物体除去)](https://doc-jp.302.ai/api-207706568.md): Clipdropは、AIを活用した画像編集サービスを提供する会社であり、画像の編集を迅速かつ簡単に行うことができます。私たちは公式のAPIインターフェースに完全に対応しており、APIのベースURLを置き換えるだけで利用可能です。 - 画像処理 > Clipdrop [Upscale (AI 増幅)](https://doc-jp.302.ai/api-207706569.md): Clipdropは、AIを活用した画像編集サービスを提供する会社であり、画像の編集を迅速かつ簡単に行うことができます。私たちは公式のAPIインターフェースに完全に対応しており、APIのベースURLを置き換えるだけで利用可能です。 - 画像処理 > Clipdrop [Remove-background(背景除去)](https://doc-jp.302.ai/api-207706570.md): Clipdropは、AIを活用した画像編集サービスを提供する会社であり、画像の編集を迅速かつ簡単に行うことができます。私たちは公式のAPIインターフェースに完全に対応しており、APIのベースURLを置き換えるだけで利用可能です。 - 画像処理 > Clipdrop [Uncrop(画像拡大)](https://doc-jp.302.ai/api-207706571.md): Clipdropは、AIを活用した画像編集サービスを提供する会社であり、画像の編集を迅速かつ簡単に行うことができます。私たちは公式のAPIインターフェースに完全に対応しており、APIのベースURLを置き換えるだけで利用可能です。 - 画像処理 > Recraft [Vectorize Image(画像のベクトル化)](https://doc-jp.302.ai/api-231458869.md): LLMの主要モデルリストに謎の最新モデル「red_panda」が登場,出所:https://www.recraft.ai/ - 画像処理 > Recraft [Remove Background(背景除去)](https://doc-jp.302.ai/api-231458870.md): LLMの主要モデルリストに謎の最新モデル「red_panda」が登場,出所:https://www.recraft.ai/ - 画像処理 > Recraft [Clarity Upscale(画像拡大)](https://doc-jp.302.ai/api-231458871.md): LLMの主要モデルリストに謎の最新モデル「red_panda」が登場,出所:https://www.recraft.ai/ - 画像処理 > Recraft [Generative Upscale(創造的な画像拡大)](https://doc-jp.302.ai/api-231458872.md): LLMの主要モデルリストに謎の最新モデル「red_panda」が登場,出所:https://www.recraft.ai/ - 画像処理 > BRIA [Remove Background(背景を削除)](https://doc-jp.302.ai/api-235056624.md): 画像の背景を削除する,出所: https://bria.ai/ - 画像処理 > BRIA [Blur Background(背景をぼかす)](https://doc-jp.302.ai/api-235056625.md): 背景をぼかす ,出所:https://bria.ai/ - 画像処理 > BRIA [Generate Background(背景合成)](https://doc-jp.302.ai/api-235056622.md): 画像の主題抽出と背景合成 ,出所:https://bria.ai/ - 画像処理 > BRIA [Erase Foreground(前景消去)](https://doc-jp.302.ai/api-235056612.md): 前景消去と背景保持 ,出所:https://bria.ai/ - 画像処理 > BRIA [Eraser(選択部分消去)](https://doc-jp.302.ai/api-235056623.md): 画像の選択部分消去 ,出所:https://bria.ai/ - 画像処理 > BRIA [Expand Image(画像拡張)](https://doc-jp.302.ai/api-235056621.md): AIで画像を拡張する ,出所:https://bria.ai/ - 画像処理 > BRIA [Increase Resolution(解像度の拡大)](https://doc-jp.302.ai/api-235056620.md): 画像解像度の拡大 ,出所:https://bria.ai/ - 画像処理 > BRIA [Crop(画像を切り抜く)](https://doc-jp.302.ai/api-235056613.md): 画像の主題を切り抜く ,出所:https://bria.ai/ - 画像処理 > BRIA [Cutout(商品画像を切り抜き)](https://doc-jp.302.ai/api-235056615.md): 商品画像の背景除去と切り抜き ,出所:https://bria.ai/ - 画像処理 > BRIA [Packshot(クローズアップ写真)](https://doc-jp.302.ai/api-235056616.md): 商品画像をクローズアップ写真に変換する,出所:https://bria.ai/ - 画像処理 > BRIA [Shadow (影を追加する)](https://doc-jp.302.ai/api-235056617.md): 商品画像に影を追加する ,出所:https://bria.ai/ - 画像処理 > BRIA [Scene (シーン生成)](https://doc-jp.302.ai/api-235056618.md): 商品画像のシーン生成 ,出所:https://bria.ai/ - 画像処理 > BRIA [Caption(画像の説明)](https://doc-jp.302.ai/api-235056619.md): 画像の説明を取得 ,出所:https://bria.ai/ - 画像処理 > BRIA [Register(画像アップロード)](https://doc-jp.302.ai/api-235056614.md): 画像アップロード ,出所:https://bria.ai/ - 画像処理 > BRIA [Mask(画像分割) ](https://doc-jp.302.ai/api-236132151.md): 画像を異なる部分に分割し、圧縮ファイルを生成する,出所: https://bria.ai/ - 画像処理 > BRIA [Presenter info (顔の解析)](https://doc-jp.302.ai/api-236132058.md): 顔データ解析,出所:https://bria.ai/ - 画像処理 > BRIA [Modify Presenter(顔の修正)](https://doc-jp.302.ai/api-236132022.md): 顔の修正,出所:https://bria.ai/ - 画像処理 > BRIA [Delayer Image(画像をPSDに変換)](https://doc-jp.302.ai/api-236131481.md): 画像を複数レイヤーのPSDファイルに変換する,出所:https://bria.ai/ - 画像処理 > Flux [Flux-V1.1-Ultra-Redux(画像から画像生成-Ultra)](https://doc-jp.302.ai/api-236383269.md): 入力画像が与えられると、FLUX.1 Reduxは微細な変化を加えた画像を再現し、元の画像を洗練することができます。 - 画像処理 > Flux [Flux-V1.1-Pro-Redux(画像から画像生成-Pro)](https://doc-jp.302.ai/api-236383270.md): 入力画像が与えられると、FLUX.1 Reduxは微細な変化を加えた画像を再現し、元の画像を洗練することができます。 - 画像処理 > Flux [Flux-Dev-Redux(画像から画像生成-Dev)](https://doc-jp.302.ai/api-236383274.md): 入力画像が与えられると、FLUX.1 Reduxは微細な変化を加えた画像を再現し、元の画像を洗練することができます。 - 画像処理 > Flux [Flux-Schnell-Redux(画像から画像生成-Schnell)](https://doc-jp.302.ai/api-236383275.md): 入力画像が与えられると、FLUX.1 Reduxは微細な変化を加えた画像を再現し、元の画像を洗練することができます。 - 画像処理 > Flux [Flux-V1-Pro-Canny(物体の一貫性)](https://doc-jp.302.ai/api-236383271.md): 構造調整は、エッジを巧みに活用して画像変換プロセスを正確にコントロールします。エッジマップを使用して元画像の構造を保持することで、ユーザーはテキストガイドによる編集を行いながら、核となる構図を維持することができます。これは特にテクスチャの再適用に効果的です。 - 画像処理 > Flux [Flux-V1-Pro-Depth(深度の一貫性)](https://doc-jp.302.ai/api-236383272.md): 構造調整における深度検出の活用は、画像変換プロセスにおいて精密な制御を実現します。深度マップを使用して元画像の構造を保持することで、ユーザーはテキストガイドによる編集を行いながら、核となる構図を維持することができます。これは特にテクスチャの再適用に効果的です。 - 画像処理 > Flux [Flux-V1-Pro-Fill(部分的な描き直し)](https://doc-jp.302.ai/api-236383273.md): 構造調整における深度検出の活用は、画像変換プロセスにおいて精密な制御を実現します。深度マップを使用して元画像の構造を保持することで、ユーザーはテキストガイドによる編集を行いながら、核となる構図を維持することができます。これは特にテクスチャの再適用に効果的です。 - 画像処理 > Hyper3D [Hyper3d-Rodin(3Dモデルを生成する)](https://doc-jp.302.ai/api-240597731.md): Hyper3Dを使用して画像から3Dモデルを生成することができ、超高精細な3Dモデリングを作成することが可能です - 画像処理 > Hyper3D [Hyper3d-Rodin(タスクの結果を取得する)](https://doc-jp.302.ai/api-242658012.md): テンセントのオープンソースからの動画生成モデル - 画像処理 > Tripo3D [Task(タスクの提出)](https://doc-jp.302.ai/api-243969398.md): 具体的な使い方については、公式ドキュメントをご覧ください: - 画像処理 > Tripo3D [Upload(画像アップロード)](https://doc-jp.302.ai/api-243969397.md): **価格:0 PTC/回** - 画像処理 > Tripo3D [Fetch(結果を取得) ](https://doc-jp.302.ai/api-243969399.md): **価格:0 PTC/回** - 画像処理 > FASHN [Fashn-Tryon(バーチャル試着)](https://doc-jp.302.ai/api-244116994.md): FASHNのバーチャル試着API - 画像処理 > Ideogram [Remix(画像から画像を生成)](https://doc-jp.302.ai/api-245824895.md): Ideogramによる画像生成の特徴は、正確なテキストやポスターを生成できることです - 画像処理 > Ideogram [Upscale(画像拡大)](https://doc-jp.302.ai/api-245824896.md): Ideogramによる画像拡大機能で、画像を2倍に拡大します - 画像処理 > Ideogram [Describe(画像説明)](https://doc-jp.302.ai/api-245824897.md): Ideogramによる画像の説明・記述について説明します - 画像処理 > Ideogram [Edit(画像修正)](https://doc-jp.302.ai/api-245824898.md): Ideogramによる画像生成の特徴は、正確なテキストやポスターを生成できることです - 画像処理 > Doubao [SeedEdit(画像コマンド編集 ) ](https://doc-jp.302.ai/api-246595457.md): 豆包提供的画像生成モデル - 画像処理 > Doubao [Character(キャラクター特徴の保持) ](https://doc-jp.302.ai/api-246595458.md): 豆包(Doubao)による画像生成モデル - 画像処理 > Kling [Virtual-Try-On(バーチャル試着)](https://doc-jp.302.ai/api-251317728.md): Klingによるバーチャル試着 - 画像処理 > Kling [Fetch(タスク結果取得) ](https://doc-jp.302.ai/api-251317729.md): Klingによるバーチャル試着 - 映像生成 > 統一インターフェース [動画生成タスクの作成](https://doc-jp.302.ai/api-275318074.md): このインターフェースは、各デプロイメント側が提供する生成機能インターフェースを統合し、一般的に使用されるパラメータフィールドと応答フィールドを抽出し、フィールド命名およびパラメータ/応答データ形式を標準化して、効率を向上させることを目的としています。 - 映像生成 > 統一インターフェース [動画タスク情報を取得](https://doc-jp.302.ai/api-275318112.md): このインターフェースは主に生成された動画を取得し、302ファイルシステムに保存した後、応答として公開リンクを返します。他の情報が必要な場合は、dataフィールドを参照してください。 - 映像生成 > 302.AI [Image-to-video (画像から映像)](https://doc-jp.302.ai/api-207706587.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 映像生成 > 302.AI [Live-portrait(ライブポートレート)](https://doc-jp.302.ai/api-207706588.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 映像生成 > 302.AI [Video-To-Video(映像スタイルの移行)](https://doc-jp.302.ai/api-230622697.md): 動画をプロンプトベースで別のスタイルに変換する - 映像生成 > 302.AI [Fetch(结果取得)](https://doc-jp.302.ai/api-207706586.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 映像生成 > 302.AI [latentsync(オープンソースのデジタルパーソン)](https://doc-jp.302.ai/api-258262742.md): ByteDanceのオープンソースデジタルヒューマンが動画と音声のリップシンクを実現 - 映像生成 > 302.AI [latentsync(タスクの結果を取得)](https://doc-jp.302.ai/api-258262743.md): ByteDanceのオープンソースデジタルヒューマンが動画と音声のリップシンクを実現 - 映像生成 > 302.AI [Video-Face-Swap(ビデオの顔交換)](https://doc-jp.302.ai/api-269307858.md): 私たち自身で展開したビデオ顔変換API - 映像生成 > 302.AI [Video-Face-Swap(タスク結果を取得)](https://doc-jp.302.ai/api-269307902.md): 私たち自身で展開したビデオ顔変換API - 映像生成 > Stable Diffusion [Image-to-video(画像から映像を生成)](https://doc-jp.302.ai/api-207706589.md): Stable Video Diffusionを使用して、初期画像に基づいた短い動画を生成する。 - 映像生成 > Stable Diffusion [Fetch Image-to-video(画像から映像を生成)](https://doc-jp.302.ai/api-207706590.md): Stable Video Diffusionを使用して、初期画像に基づいた短い映像を生成する - 映像生成 > Luma AI [Submit(文字/画像から映像を生成)](https://doc-jp.302.ai/api-207706591.md): Luma AIによる文字/画像から映像生成。文字または画像に基づいて5秒の映像を一度に生成します。 - 映像生成 > Luma AI [Extend (映像延長)](https://doc-jp.302.ai/api-207706592.md): これはLuma AIによるテキスト/画像生成映像です。このAPIは、以前に生成されたビデオを拡長し、再生時間を5秒延長するために使用されます。 - 映像生成 > Luma AI [Fetch(タスク取得)](https://doc-jp.302.ai/api-207706593.md): Luma AIからのテキスト/画像生成動画。 - 映像生成 > Runway [Submit (文字から映像を生成)](https://doc-jp.302.ai/api-207706594.md): Runway Gen-3による文章から映像生成技術で、テキストに基づいて10秒の映像を一度に生成します。 - 映像生成 > Runway [Submit(画像から映像を生成)](https://doc-jp.302.ai/api-207706595.md): Runway Gen-3による文章から映像生成技術で、画像から10秒の映像を一度に生成します。 - 映像生成 > Runway [Submit(画像から映像を素早く生成する)](https://doc-jp.302.ai/api-207706596.md): 8月15日に更新されたRunway Gen-3-Turboは、画像から迅速にビデオを生成できますが、現時点ではテキストから映像を生成する機能はサポートされていません。 - 映像生成 > Runway [Submit(画像から動画生成 Gen4)](https://doc-jp.302.ai/api-279710977.md): 4月1日にアップデートされた Runway Gen4 により、画像から素早く動画を生成できます。現在、テキストからの動画生成には対応していません。 - 映像生成 > Runway [Submit(画像から動画生成 Gen4-Turbo)](https://doc-jp.302.ai/api-282193534.md): 4月1日に更新されたRunway Gen4 Turboは、画像から動画への迅速な生成を可能にし、現在はテキストから動画生成をサポートしていません。 - 映像生成 > Runway [Submit(映像から映像を生成)](https://doc-jp.302.ai/api-223500687.md): Runway Gen-3の生映像は、ビデオ内容とキーワードに基づき、元の映像をさまざまなスタイルに変換します。 - 映像生成 > Runway [Submit(映像から映像を素早く生成する)](https://doc-jp.302.ai/api-224541601.md): 8月15日に更新されたRunway Gen-3 Turboは、画像から迅速にビデオを生成します、テキストから動画を生成する機能はサポートされていません。 - 映像生成 > Runway [Submit(Act-one動作捕捉)](https://doc-jp.302.ai/api-230623494.md): Runwayは生成的モーションキャプチャツール「Act-One」をリリースしました。動画を瞬時にアニメーション化し、さまざまなスタイルに自由に切り替えることができます。この機能は、入力された動画を入力画像のスタイルに変換しつつ、人物の動きや画面内の要素をそのまま維持するものです。 - 映像生成 > Runway [Submit(動画拡張) ](https://doc-jp.302.ai/api-242641919.md): 横向の動画を縦向きに拡張する、または縦向きの動画を横向きに拡張する - 映像生成 > Runway [Fetch(タスク取得)](https://doc-jp.302.ai/api-207706597.md): Runway Gen-3による文章から映像生成技術で、テキストに基づいて10秒の映像を一度に生成します。 - 映像生成 > Kling [Txt2Video(文字から映像を生成-1.0-クイック-5秒)](https://doc-jp.302.ai/api-207706603.md): Klingクリングの文生映像から、クイック5秒バージョン - 映像生成 > Kling [Txt2Video_HQ(文字から映像を生成 1.5- HD - 5秒)](https://doc-jp.302.ai/api-207706602.md): Klingから生成された映像、高画質5秒バージョン - 映像生成 > Kling [Txt2Video_HQ(文字から映像を生成 1.5- HD - 10秒)](https://doc-jp.302.ai/api-207706599.md): Klingから生成された映像、高画質10秒バージョン - 映像生成 > Kling [Image2Video(画像から映像を生成 1.0- クイック - 5秒)](https://doc-jp.302.ai/api-207706601.md): Klingクリングからの画像生成映像から、クイック5秒バージョン - 映像生成 > Kling [Image2Video(画像から映像を生成 1.0- クイック - 10秒)](https://doc-jp.302.ai/api-222608120.md): Klingクリングからの画像生成映像から、クイック10秒バージョン - 映像生成 > Kling [Image2Video(画像から映像を生成 1.5- クイック - 5秒) ](https://doc-jp.302.ai/api-238124454.md): Klingクリングからの画像生成映像から、クイック5秒バージョン - 映像生成 > Kling [Image2Video(画像から映像を生成 1.5- クイック - 10秒) ](https://doc-jp.302.ai/api-238124455.md): Klingクリングからの画像生成映像から、クイック10秒バージョン - 映像生成 > Kling [Image2Video_HQ(画像から映像を生成 1.5- HD - 5秒)](https://doc-jp.302.ai/api-207706600.md): Klingクリングからの画像生成映像は、高画質5秒バージョン。 - 映像生成 > Kling [Image2Video_HQ(画像から映像を生成 1.5- HD - 10秒)](https://doc-jp.302.ai/api-222608119.md): Klingクリングからの画像生成映像は、高画質10秒バージョン。 - 映像生成 > Kling [Extend_Video(映像延長)](https://doc-jp.302.ai/api-223198337.md): クリングからの延長ビデオは1回の延長で5秒追加できますが、HDバージョンは現在延長機能に対応していません。 - 映像生成 > Kling [Txt2Video(テキストから動画生成1.6 - スタンダード - 5秒) ](https://doc-jp.302.ai/api-246829963.md): Klingクリングからのテキストから動画生成、スタンダード-5秒-バージョン。 - 映像生成 > Kling [Txt2Video(テキストから動画生成1.6 - スタンダード - 10秒) ](https://doc-jp.302.ai/api-246829409.md): Klingクリングからのテキストから動画生成、スタンダード-10秒-バージョン。 - 映像生成 > Kling [Txt2Video(テキストから動画生成1.6 - HD - 5秒) ](https://doc-jp.302.ai/api-246829474.md): Klingクリングからのテキストから動画生成、HD-5秒-バージョン。 - 映像生成 > Kling [Txt2Video(テキストから動画生成1.6 - HD - 10秒) ](https://doc-jp.302.ai/api-246829541.md): Klingクリングからのテキストから動画生成、HD-10秒-バージョン。 - 映像生成 > Kling [Image2Video(画像から映像を生成 1.6- スタンダード- 5秒)](https://doc-jp.302.ai/api-246829682.md): Klingクリングからの画像から動画生成、スタンダード-5秒-バージョン。 - 映像生成 > Kling [Image2Video(画像から映像を生成 1.6- スタンダード- 10秒)](https://doc-jp.302.ai/api-246829742.md): Klingクリングからの画像から動画生成、スタンダード-10秒-バージョン。 - 映像生成 > Kling [Image2Video(画像から映像を生成 1.6- HD- 5秒)](https://doc-jp.302.ai/api-246829780.md): Klingクリングからの画像から動画生成、HD-5秒-バージョン。 - 映像生成 > Kling [Txt2Video(テキストから動画生成2.0 – HD – 5秒) ](https://doc-jp.302.ai/api-284771311.md): - 映像生成 > Kling [Image2Video(画像から動画生成2.0 – HD – 5秒)](https://doc-jp.302.ai/api-284771371.md): - 映像生成 > Kling [Image2Video(画像から動画生成2.0 – HD – 10秒)](https://doc-jp.302.ai/api-284771413.md): - 映像生成 > Kling [Image2Video(画像から映像を生成 1.6- HD- 10秒)](https://doc-jp.302.ai/api-246829903.md): Klingクリングからの画像から動画生成、HD-10秒-バージョン。 - 映像生成 > Kling [Image2Video (マルチ画像参照)](https://doc-jp.302.ai/api-256987101.md): Klingからのマルチ画像参照、アップロードできる画像は最大4枚まで - 映像生成 > Kling [Fetch(タスク取得)](https://doc-jp.302.ai/api-207706598.md): Klingクリングの文生映像 - 映像生成 > Minimax [Video(テキスト生成動画)](https://doc-jp.302.ai/api-267637545.md): Minimaxの動画生成モデルから提供されるサービスで、対応モデルは以下の通りです: - 映像生成 > Minimax [Video(画像から映像生成)](https://doc-jp.302.ai/api-222608121.md): Minimaxに画像から映像生成 - 映像生成 > Minimax [Video(主体参照による動画生成)](https://doc-jp.302.ai/api-256741039.md): **インタフェースの説明** - 映像生成 > Minimax [Video(カメラ操作)](https://doc-jp.302.ai/api-212312504.md): パラメーター「model」が「T2V-01-Director」または「I2V-01-Director」に設定されている場合、プロンプト内のカメラワーク制御に対して、より正確な応答が得られます。 - 映像生成 > Minimax [Query(タスク照会)](https://doc-jp.302.ai/api-212312505.md): Minimaxに文字から映像生成 - 映像生成 > Minimax [Files(映像の保存)](https://doc-jp.302.ai/api-212312506.md): Minimaxに文字から映像生成 - 映像生成 > Pika [1.5 pikaffects(画像から動画生成)](https://doc-jp.302.ai/api-285342293.md): Pikaの動画生成モデルを使用 - 映像生成 > Pika [Turbo Generate(テキストから動画生成)](https://doc-jp.302.ai/api-285342364.md): Pikaの動画生成モデルを使用 - 映像生成 > Pika [Turbo Generate(画像から動画生成)](https://doc-jp.302.ai/api-285342399.md): Pikaの動画生成モデルを使用 - 映像生成 > Pika [2.1 Generate(テキストから動画生成)](https://doc-jp.302.ai/api-285342568.md): Pikaの動画生成モデルを使用 - 映像生成 > Pika [2.1 Generate(画像から動画生成) ](https://doc-jp.302.ai/api-285342693.md): Pikaの動画生成モデルを使用 - 映像生成 > Pika [2.2 Generate(Text-to-Video Generation)](https://doc-jp.302.ai/api-285342801.md): テキストから動画生成 - 映像生成 > Pika [2.2 Generate(画像から動画生成) ](https://doc-jp.302.ai/api-285342846.md): Pikaの動画生成モデルを使用 - 映像生成 > Pika [2.2 Pikascenes(シーン動画を生成) ](https://doc-jp.302.ai/api-285342933.md): Pikaの動画生成モデルを使用 - 映像生成 > Pika [Fetch(タスク照会)](https://doc-jp.302.ai/api-225977922.md): 映像生成タスクの結果を得る - 映像生成 > PixVerse [Generate(画像から動画生成)](https://doc-jp.302.ai/api-236445319.md): PixVerseの動画生成モデルを使用して、画像から動画を生成します。V4がサポートされています - 映像生成 > PixVerse [Fetch(結果取得)](https://doc-jp.302.ai/api-236445320.md): 動画生成タスクの結果を取得する - 映像生成 > Genmo [Mochi-v1(文字から映像生成)](https://doc-jp.302.ai/api-226300704.md): Genmo社は最新の動画生成モデル「Mochi1」を発表しました。このモデルは動画生成分野における新たな指標を打ち立てました。「Mochi1」は革新的なAsymmetric Diffusion Transformer(AsymmDiT)アーキテクチャを採用し、公開されている動画生成モデルとしては史上最大規模となる、なんと100億個のパラメータを誇ります。 - 映像生成 > Genmo [Mochi-v1 (タスク結果の取得)](https://doc-jp.302.ai/api-256084160.md): Tencent オープンソースからのビデオ生成モデル - 映像生成 > Hedra [Audio(音声アップロード)](https://doc-jp.302.ai/api-226300705.md): Hedraの音声アップロードインターフェース。 - 映像生成 > Hedra [Portrait(肖像画アップロード) ](https://doc-jp.302.ai/api-226300706.md): Hedraの画像アップロードAPIです。 - 映像生成 > Hedra [Characters(口合成)](https://doc-jp.302.ai/api-226300708.md): Hedraの口合成インターフェース。 - 映像生成 > Hedra [Fetch(タスク照会)](https://doc-jp.302.ai/api-226300707.md): 映像生成タスクの結果を取得 - 映像生成 > Haiper [Haiper(文字から映像生成)](https://doc-jp.302.ai/api-232137084.md): ロンドンに拠点を置く新興のビデオ制作会社 - 映像生成 > Haiper [Haiper(画像から映像生成)](https://doc-jp.302.ai/api-232137085.md): ロンドンに拠点を置く新興のビデオ制作会社 - 映像生成 > Haiper [Haiper(文字から映像生成V2.5)](https://doc-jp.302.ai/api-263669007.md): ロンドン発の新進気鋭のビデオ制作会社 - 映像生成 > Haiper [Haiper(画像から映像生成V2.5)](https://doc-jp.302.ai/api-263669008.md): ロンドン発の新進気鋭のビデオ制作会社 - 映像生成 > Haiper [Haiper(タスク照会)](https://doc-jp.302.ai/api-252701001.md): テンセントがオープンソース化した動画生成モデル - 映像生成 > Sync. [Generate(リップシンク)](https://doc-jp.302.ai/api-234772649.md): ビデオと音声のデータを入力し、リップシンク(口の動きと音声の同期化)を行います - 映像生成 > Sync. [Fetch(結果を取得)](https://doc-jp.302.ai/api-234772650.md): ビデオ生成タスクの結果を取得します - 映像生成 > Lightricks [Ltx-Video(テキスト生成動画)](https://doc-jp.302.ai/api-237135183.md): オープンソースのビデオモデル、その特徴は生成速度が非常に速いことです - 映像生成 > Lightricks [Ltx-Video-I2V(画像生成動画)](https://doc-jp.302.ai/api-237135184.md): オープンソースのビデオモデル、その特徴は生成速度が非常に速いことです - 映像生成 > Lightricks [Ltx-Video-v095(テキストから動画生成)](https://doc-jp.302.ai/api-268484744.md): オープンソースの動画生成モデル。生成速度が速いのが特徴です。 - 映像生成 > Lightricks [Ltx-Video-v095-I2V(画像から動画の生成)](https://doc-jp.302.ai/api-268493080.md): オープンソースの動画生成モデルで、生成速度が速いことが特徴です。 - 映像生成 > Hunyuan [Hunyuan(テキストからビデオ生成)](https://doc-jp.302.ai/api-241433296.md): テンセントオープンソースのビデオ生成モデル - 映像生成 > Hunyuan [Hunyuan(タスクの結果を取得) ](https://doc-jp.302.ai/api-241433297.md): テンセントオープンソースのビデオ生成モデル - 映像生成 > Vidu [Vidu(テキストから動画を生成) ](https://doc-jp.302.ai/api-244704112.md): 中国の新興動画生成会社で、最新の1.5モデルに独自の主体生成機能が搭載されています。 - 映像生成 > Vidu [Vidu(画像から動画を生成) ](https://doc-jp.302.ai/api-244704113.md): 中国の新興動画生成会社で、最新の1.5モデルに独自の主体生成機能が搭載されています。 - 映像生成 > Vidu [Vidu(開始フレームと終了フレームから動画を生成) ](https://doc-jp.302.ai/api-244704114.md): 中国の新興動画生成会社で、最新の1.5モデルに独自の主体生成機能が搭載されています。 - 映像生成 > Vidu [Vidu(参照主体から動画生成) ](https://doc-jp.302.ai/api-244704115.md): 中国の新興動画生成会社で、最新の1.5モデルに独自の主体生成機能が搭載されています。 - 映像生成 > Vidu [Vidu(シーン動画を生成) ](https://doc-jp.302.ai/api-244704116.md): 中国の新興動画生成会社で、最新の1.5モデルに独自の主体生成機能が搭載されています。 - 映像生成 > Vidu [Vidu(シーン動画生成 V2) ](https://doc-jp.302.ai/api-287054070.md): 中国の新興動画生成企業です。 - 映像生成 > Vidu [Vidu(スマート超高画質) ](https://doc-jp.302.ai/api-244704117.md): 中国の新興動画生成会社で、最新の1.5モデルに独自の主体生成機能が搭載されています。 - 映像生成 > Vidu [Fetch(タスク結果を取得)](https://doc-jp.302.ai/api-244704118.md): 動画生成結果を取得する - 映像生成 > Tongyi Wanxiang [T2V(テキストから動画を生成)](https://doc-jp.302.ai/api-254095534.md): サポートモデル: - 映像生成 > Tongyi Wanxiang [Tasks(タスク結果を取得) ](https://doc-jp.302.ai/api-254095535.md): **価格:0 PTC/回** - 映像生成 > Tongyi Wanxiang [wan-t2v(テキスト生成動画のオープンソース版)](https://doc-jp.302.ai/api-265228842.md): Alibaba の最新のオープンソース ビデオ生成モデル - 映像生成 > Tongyi Wanxiang [wan-t2v(タスク結果を取得) ](https://doc-jp.302.ai/api-265228843.md): Alibaba の最新のオープンソース ビデオ生成モデル - 映像生成 > Tongyi Wanxiang [wan-i2v (画像生成動画オープンソース版)](https://doc-jp.302.ai/api-265228844.md): Alibaba の最新のオープンソース ビデオ生成モデル - 映像生成 > Tongyi Wanxiang [wan-i2v(タスク結果を取得) ](https://doc-jp.302.ai/api-265228845.md): Alibaba の最新のオープンソース ビデオ生成モデル - 映像生成 > SiliconFlow [LTX-Video(映像生成) ](https://doc-jp.302.ai/api-255034022.md): LTX-Videoは、DiTアーキテクチャに基づく初のリアルタイム動画生成モデルであり、高品質な動画を生成することができます。その生成速度は動画の再生速度を上回ることさえあります。このモデルは、24フレーム毎秒、768x512の解像度での動画生成をサポートしており、テキストから動画への生成だけでなく、画像とテキストから動画への変換も可能です。モデルは大規模で多様な動画データセットでトレーニングされており、高解像度でリアルかつ内容豊富な動画を生成することができます。 - 映像生成 > SiliconFlow [HunyuanVideo(映像生成) ](https://doc-jp.302.ai/api-255034023.md): HunyuanVideoは、テンセントが発表したオープンソースの動画生成基盤モデルで、130億以上のパラメータを持ち、現在最大のオープンソース動画生成モデルです。このモデルは、画像と動画生成の統一アーキテクチャを採用し、データ整理、画像-動画の統合モデル訓練、効率的なインフラストラクチャなどの重要な技術を統合しています。モデルは、マルチモーダル大規模言語モデルをテキストエンコーダーとして使用し、3D VAEを通じて空間-時間圧縮を行い、プロンプトの書き換え機能を提供します。専門家による評価結果によれば、HunyuanVideoは、テキストの整合性、動きの質、視覚の質において、既存の最先端モデルを上回る性能を示しています。 - 映像生成 > SiliconFlow [Mochi-1-Preview(映像生成) ](https://doc-jp.302.ai/api-255034024.md): Mochi 1は、新しいAsymmDiTアーキテクチャに基づいて構築されたオープンソースの動画生成モデルです。このモデルは100億のパラメータを持っています。モデルは非対称エンコーダー-デコーダー構造を採用しており、動画を元のサイズの128倍に圧縮することができ、8x8の空間圧縮と6倍の時間圧縮の特徴を持っています。初期評価では、このモデルは高忠実度の動き効果と強力なプロンプト追従能力を示しています。 - 映像生成 > SiliconFlow [Tasks(結果を取得) ](https://doc-jp.302.ai/api-255034025.md): タスクの結果を取得する - 映像生成 > Jimeng [Seaweed (テキスト/画像生成ビデオ)](https://doc-jp.302.ai/api-256358273.md): Jimeng のビデオ生成モデル、Wensheng ビデオと Tusheng ビデオをサポート (Tusheng ビデオは最大 5 秒までのみサポート) - 映像生成 > Jimeng [Seaweed (タスク結果の取得)](https://doc-jp.302.ai/api-256358274.md): **価格: 0 PTC/回** - 映像生成 > CogVideoX [Generations(テキストからビデオへ)](https://doc-jp.302.ai/api-261641143.md): Zhipuのテキスト生成ビデオモデル - 映像生成 > CogVideoX [Generations(画像から動画へ)](https://doc-jp.302.ai/api-261641144.md): Zhipuからの画像生成ビデオモデル - 映像生成 > CogVideoX [Result(タスクの結果を取得)](https://doc-jp.302.ai/api-261641145.md): Zhipuのテキスト生成ビデオモデル - 映像生成 > Google [Veo2(文字から映像生成)](https://doc-jp.302.ai/api-263671998.md): Googleの最新動画生成モデル - 映像生成 > Google [Veo2(タスクの結果を取得する) ](https://doc-jp.302.ai/api-263671999.md): Googleの最新動画生成モデル - 映像生成 > Kunlun Tech [Skyreels(画像から映像生成)](https://doc-jp.302.ai/api-263672265.md): Kunlun Techの最新ビデオ生成モデル - 映像生成 > Kunlun Tech [Skyreels(タスクの結果を取得する) ](https://doc-jp.302.ai/api-263672266.md): Kunlun Techの最新ビデオ生成モデル - 音声・映像処理 > 302.AI [Stable-Audio(器楽曲を生成する)](https://doc-jp.302.ai/api-219194487.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 音声・映像処理 > 302.AI [Transcript(音声・動画の字幕化)](https://doc-jp.302.ai/api-207706584.md): 動画や音声から自動的に音声を抽出し、文字字幕に変換します。 - 音声・映像処理 > 302.AI [Transcriptions(音声の文字化)](https://doc-jp.302.ai/api-207706583.md): 音声を入力言語として書き起こします。 - 音声・映像処理 > 302.AI [Alignments( 字幕のタイミング合わせ)](https://doc-jp.302.ai/api-243529733.md): - 音声・映像処理 > 302.AI [WhisperX(音声からテキスト)](https://doc-jp.302.ai/api-238599255.md): オープンソース版WhsiperX - 音声・映像処理 > 302.AI [F5-TTS(テキスト音声変)](https://doc-jp.302.ai/api-225254309.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 音声・映像処理 > 302.AI [F5-TTS (非同期テキスト音声合成)](https://doc-jp.302.ai/api-244082038.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 音声・映像処理 > 302.AI [F5-TTS (非同期で結果を取得する)](https://doc-jp.302.ai/api-244082431.md): 302.AIのAPIは、クラウドGPU上に自社で展開したモデルから来ています。一部のモデルはオープンソースで、一部は自社で微調整または開発したものです。 - 音声・映像処理 > 302.AI [mmaudio(文字から音声を生成)](https://doc-jp.302.ai/api-248597870.md): 文字入力によるAI動画吹き替え、音声生成と同期API対応 - 音声・映像処理 > 302.AI [mmaudio(AI音声合成)](https://doc-jp.302.ai/api-245623609.md): AI音声合成 - 音声・映像処理 > 302.AI [mmaudio (非同期結果を取得)](https://doc-jp.302.ai/api-245626498.md): AI音声合成 - 音声・映像処理 > 302.AI [Diffrhythm(楽曲生成)](https://doc-jp.302.ai/api-268472161.md): オープンソース版の楽曲生成では、参考音楽と歌詞を入力して音楽を生成します。生成できる最長時間は1分35秒です。現段階では中国語の曲より英語の曲の方が品質が良いです。 - 音声・映像処理 > OpenAI [Speech(音声合成)](https://doc-jp.302.ai/api-207706574.md): [OpenAIの指南](https://platform.openai.com/docs/guides/text-to-speech/text-to-speech) - 音声・映像処理 > OpenAI [Transcriptions(音声の文字化)](https://doc-jp.302.ai/api-207706572.md): [OpenAIの指南](https://platform.openai.com/docs/guides/speech-to-text/transcriptions) - 音声・映像処理 > OpenAI [Translations(音声翻訳英語)](https://doc-jp.302.ai/api-207706573.md): [OpenAIの指南](https://platform.openai.com/docs/guides/speech-to-text/translations) - 音声・映像処理 > OpenAI [Realtime(リアルタイム音声(RTV)ダイアログ)](https://doc-jp.302.ai/api-222610094.md): [OpenAIの指南](https://platform.openai.com/docs/guides/realtime/quickstart) - 音声・映像処理 > Azure [AzureTTS(文字から音声へ)](https://doc-jp.302.ai/api-207706575.md): マイクロソフトクラウドが提供する文字から音声を生成サービス - 音声・映像処理 > Azure [Voice-List(音声リスト)](https://doc-jp.302.ai/api-207706576.md): マイクロソフトクラウドが提供する文字から音声を生成サービス - 音声・映像処理 > Suno [Music(Suno全自動モード)](https://doc-jp.302.ai/api-207706580.md): キーワードを入力して曲を自動生成 - 音声・映像処理 > Suno [Music(Sunoカスタムモード)](https://doc-jp.302.ai/api-207706577.md): カスタマイズした歌詞やスタイルなどの設定を通じて、1曲の歌を生成する。 - 音声・映像処理 > Suno [Music(Sunoによる歌詞生成)](https://doc-jp.302.ai/api-207706581.md): キーワードを入力すると、自動的に歌詞を生成します。 - 音声・映像処理 > Suno [Music(Sunoによる歌の続き書き)](https://doc-jp.302.ai/api-207706578.md): 以前に生成された歌に基づいて、歌の続きを書きます。続きを書く時間を設定でき、毎回2分間固定で続きを書きます。 - 音声・映像処理 > Suno [Fetch(Sunoタスク照会)](https://doc-jp.302.ai/api-207706579.md): 歌の生成状況を照会します。 - 音声・映像処理 > Doubao [tts_hd(テキスト音声変)](https://doc-jp.302.ai/api-207706585.md): Doubaoのテキスト音声変換API - 音声・映像処理 > Doubao [vc-ata(自動字幕タイミング設定)](https://doc-jp.302.ai/api-241439533.md): 豆包(トウバオ)による自動字幕タイミング設定 - 音声・映像処理 > Doubao [fetch(字幕生成状況を確認)](https://doc-jp.302.ai/api-241439528.md): 豆包(トウバオ)による自動字幕タイミング設定,生成状況を確認 - 音声・映像処理 > Doubao [vc(音声と動画の字幕生成)](https://doc-jp.302.ai/api-242585979.md): 豆包からの音声と動画の字幕生成 - 音声・映像処理 > Doubao [fetch(音声と動画の字幕結果を確認)](https://doc-jp.302.ai/api-242593682.md): 豆包からの自動字幕タイミング、生成状況を確認する - 音声・映像処理 > Fish Audio [TTS(テキスト音声変)](https://doc-jp.302.ai/api-216956155.md): Fish Audioのテキスト音声変換API - 音声・映像処理 > Fish Audio [Model(音声モデルを作成する)](https://doc-jp.302.ai/api-216956154.md): Fish Audioによる音声の複製。音声ファイルを入力して、音声クローンを実行します。 - 音声・映像処理 > Fish Audio [Model(音声モデルを取得する)](https://doc-jp.302.ai/api-216956156.md): Fish Audioによる音声の複製 - 音声・映像処理 > Fish Audio [Model(音声モデルを削除する)](https://doc-jp.302.ai/api-216956158.md): Fish Audioによる音声の複製 - 音声・映像処理 > Fish Audio [Model(音声モデルを更新する)](https://doc-jp.302.ai/api-216956159.md): Fish Audioによる音声の複製 - 音声・映像処理 > Fish Audio [Model(音声リストを取得する)](https://doc-jp.302.ai/api-216956157.md): Fish Audioの公開音声リスト - 音声・映像処理 > Minimax [T2A(非同期の超長文テキスト音声生成)](https://doc-jp.302.ai/api-224542458.md): Minimaxによるテキスト生成音声モデル - 音声・映像処理 > Minimax [T2A(音声生成-タスク照会)](https://doc-jp.302.ai/api-225432905.md): Minimaxによるテキスト生成音声モデル - 音声・映像処理 > Minimax [T2V(テキスト生成用トーン)](https://doc-jp.302.ai/api-224542457.md): Minimaxによるテキスト生成音声モデル - 音声・映像処理 > Minimax [Files(音声ファイルダウンロード)](https://doc-jp.302.ai/api-224542459.md): Minimaxによるテキスト生成映像モデル - 音声・映像処理 > Minimax [Music-Upload(元の音楽をアップロード)](https://doc-jp.302.ai/api-241839843.md): 接口说明 - 音声・映像処理 > Minimax [Music-Generation(新たな音楽生成)](https://doc-jp.302.ai/api-241839751.md): 接口说明 - 音声・映像処理 > Minimax [T2A(音声生成-同期)](https://doc-jp.302.ai/api-265980929.md): Minimaxからのテキスト生成トーン頻度 - 音声・映像処理 > Dubbingx [TTS(テキスト音声変)](https://doc-jp.302.ai/api-225432909.md): 非同期音声合成インターフェース - 音声・映像処理 > Dubbingx [GetTTSList(音色のリストを取得)](https://doc-jp.302.ai/api-225432906.md): 音色のリストを取得する - 音声・映像処理 > Dubbingx [GetTTSTask(タスク照会)](https://doc-jp.302.ai/api-225432907.md): タスクステータスの取得 - 音声・映像処理 > Dubbingx [Analyze(感情の分析)](https://doc-jp.302.ai/api-225432908.md): テキストとリターンを基にセンチメント分析を行います(オプション) - 音声・映像処理 > Udio [Generate(音楽の生成)](https://doc-jp.302.ai/api-231605287.md): 指示語を入力して曲を生成 - 音声・映像処理 > Udio [Generate(音楽は続く)](https://doc-jp.302.ai/api-232137837.md): 曲の続き - 音声・映像処理 > Udio [Query(タスク取得)](https://doc-jp.302.ai/api-231605286.md): ソング・ジェネレーションのチェック - 音声・映像処理 > Elevenlabs [Speech-to-text(音声からテキストへ)](https://doc-jp.302.ai/api-270142065.md): ElevenLabsの音声認識技術で、拍手や笑い声などを識別できるのが特徴です。 - 音声・映像処理 > Elevenlabs [Speech-to-text(非同期的に結果を取得する)](https://doc-jp.302.ai/api-270143415.md): Elevenlabsの音声文字変換は、拍手や笑い声などをマークできるのが特徴です。 - 音声・映像処理 > Elevenlabs [TTS-Multilingual-v2(文字変換音声)](https://doc-jp.302.ai/api-279193411.md): Elevenlabsの文字変換音声 - 音声・映像処理 > Elevenlabs [TTS-Multilingual-v2(非同期結果取得)](https://doc-jp.302.ai/api-279193590.md): Elevenlabsの文字変換音声 - 音声・映像処理 > Elevenlabs [TTS-Flash-v2.5(文字変換音声)](https://doc-jp.302.ai/api-279193644.md): Elevenlabsの文字変換音声 - 音声・映像処理 > Elevenlabs [TTS-Flash-v2.5(非同期結果取得)](https://doc-jp.302.ai/api-279193710.md): Elevenlabsの文字変換音声 - 音声・映像処理 > Mureka [音楽をアップロード](https://doc-jp.302.ai/api-281665234.md): 複数の異なるエンドポイントで使用できるファイルをアップロードします。 - 音声・映像処理 > Mureka [プロンプトに基づいて歌詞を生成](https://doc-jp.302.ai/api-281665268.md): 与えられたプロンプトに基づいて歌詞を作成します。 - 音声・映像処理 > Mureka [既存の歌詞から歌詞を続けて書く](https://doc-jp.302.ai/api-281665288.md): 現在の歌詞からさらに続けて作詞する - 音声・映像処理 > Mureka [歌詞から楽曲を生成](https://doc-jp.302.ai/api-281665316.md): 提供された歌詞に基づいて楽曲を作成します。 - 音声・映像処理 > Mureka [生成された楽曲を取得](https://doc-jp.302.ai/api-281665355.md): 生成された楽曲を取得します。 - 音声・映像処理 > Mureka [音楽のステムを分離](https://doc-jp.302.ai/api-281665394.md): 入力された音楽からボーカルや楽器などの個別の音声要素を分離します。 - 音声・映像処理 > Mureka [インストゥルメンタル楽曲の生成](https://doc-jp.302.ai/api-281665428.md): ユーザーの入力に基づいてインストゥルメンタル(純音楽)を生成します。 - 音声・映像処理 > Mureka [インストゥルメンタル楽曲の取得](https://doc-jp.302.ai/api-281665753.md): ユーザーの入力に基づいてインストゥルメンタル(純音楽)を生成します。 - 音声・映像処理 > Mureka [Text-to-Speech](https://doc-jp.302.ai/api-281665819.md): **入力されたテキストから音声を生成します。 - 音声・映像処理 > Mureka [ポッドキャスト音声の作成](https://doc-jp.302.ai/api-281666069.md): 2人の対話スクリプトを、自然に聞こえるポッドキャストスタイルの音声会話に変換し、すぐに公開できる形式にします。 - 情報処理 > 302.AI > 管理バックエンド [Balance(アカウント残高)](https://doc-jp.302.ai/api-263734750.md): 対応する302.AIアカウントのバランスを取得します - 情報処理 > 302.AI > 情報検索 [Xiaohongshu_Search(小紅書探索メモ)](https://doc-jp.302.ai/api-214739170.md): **価格:0.02PTC/回** - 情報処理 > 302.AI > 情報検索 [Xiaohongshu_Note(小紅書からメモを入手)](https://doc-jp.302.ai/api-214739171.md): **価格:0.001PTC/回** - 情報処理 > 302.AI > 情報検索 [Get_Home_Recommend(小紅書のホームページおすすめ)](https://doc-jp.302.ai/api-238639739.md): **価格:0.01PTC/回** - 情報処理 > 302.AI > 情報検索 [Tiktok_Search(Tiktok映像検索)](https://doc-jp.302.ai/api-214739175.md): **価格:0.001PTC/回** - 情報処理 > 302.AI > 情報検索 [Douyin_Search(Douyin映像検索)](https://doc-jp.302.ai/api-214739176.md): **価格:0.001PTC/回** - 情報処理 > 302.AI > 情報検索 [Twitter_Search(Xの検索内容)](https://doc-jp.302.ai/api-236436177.md): **価格:0.001PTC/回** - 情報処理 > 302.AI > 情報検索 [Twitter_Post(Xでユーザーの投稿を取得)](https://doc-jp.302.ai/api-214739172.md): **価格:0.001PTC/回** - 情報処理 > 302.AI > 情報検索 [Twitter_User(Xでユーザーの情報を取得)](https://doc-jp.302.ai/api-214739174.md): **価格:0.001PTC/回** - 情報処理 > 302.AI > 情報検索 [Weibo_Post(微博でユーザーの投稿を取得)](https://doc-jp.302.ai/api-214739173.md): **価格:0.001PTC/回** - 情報処理 > 302.AI > 情報検索 [Search_Video(YouTubeビデオを検索)](https://doc-jp.302.ai/api-236436027.md): **価格:0.001PTC/回** - 情報処理 > 302.AI > 情報検索 [Youtube_Info(Youtubeゲットビデオ)](https://doc-jp.302.ai/api-222610735.md): **価格:0.001PTC/回** - 情報処理 > 302.AI > 情報検索 [Youtube_Subtitles(Youtube字幕を取得する)](https://doc-jp.302.ai/api-252702731.md): **価格:0.001PTC/回** - 情報処理 > 302.AI > 情報検索 [Bilibili_Info(Bilibili動画情報を取得する)](https://doc-jp.302.ai/api-252702548.md): **価格:0.001PTC/回** - 情報処理 > 302.AI > 情報検索 [MP_Article_List(WeChat公式アカウントの記事リストを取得する)](https://doc-jp.302.ai/api-269231758.md): **価格:0.01 PTC/回** - 情報処理 > 302.AI > 情報検索 [MP_Article(微信公众号の記事を取得)](https://doc-jp.302.ai/api-269235707.md): **価格:0.001PTC/回** - 情報処理 > 302.AI > ファイル処理 [Parsing(ファイルパース)](https://doc-jp.302.ai/api-226752366.md): 大規模モデルを簡単に処理するためのファイルのテキスト解析 - 情報処理 > 302.AI > ファイル処理 [Upload-File(ファイルのアップロード)](https://doc-jp.302.ai/api-232504530.md): LLM処理用ファイルのアップロード - 情報処理 > 302.AI > コード実行 > 仮想マシンサンドボックス [ワンクリックでコードを実行](https://doc-jp.302.ai/api-276836773.md): サンドボックスを自動的に作成し、実行後すぐに破棄します。サンドボックスファイルのエクスポート機能を選択可能(ディレクトリに複数のファイルがある場合、圧縮ファイルとしてエクスポートされます。単一ファイルの場合は直接エクスポートされます)。連続したサンドボックス操作が不要な場合、このインターフェースの使用をお勧めします。 - 情報処理 > 302.AI > コード実行 > 仮想マシンサンドボックス [サンドボックスの作成](https://doc-jp.302.ai/api-276836966.md): 作成が成功すると、サンドボックスは自動的に一時停止します。その後、他のサンドボックス操作インターフェースを呼び出すと、このサンドボックスは自動的に再接続し、実行後に再び一時停止して、不要なコストを避けます。(注意:一時停止と再接続には一定の時間がかかり、合計で約5秒です。) - 情報処理 > 302.AI > コード実行 > 仮想マシンサンドボックス [自分のサンドボックスリストを照会](https://doc-jp.302.ai/api-276837068.md): サンドボックス情報はAPIキーに紐づけられているため、現在のAPIキーに関連するサンドボックス情報のみを照会できます。 - 情報処理 > 302.AI > コード実行 > 仮想マシンサンドボックス [サンドボックスの破壊](https://doc-jp.302.ai/api-276837516.md): **価格:0 PTC/回** - 情報処理 > 302.AI > コード実行 > 仮想マシンサンドボックス [コードの実行](https://doc-jp.302.ai/api-276837562.md): このインターフェースはテキストタイプの出力のみを返します。コードがファイル生成などの操作を含む場合、ファイル情報を確認するには「ファイル表示」インターフェースを使用し、ファイルをエクスポートするには「ファイルエクスポート」インターフェースを使用してください。 - 情報処理 > 302.AI > コード実行 > 仮想マシンサンドボックス [コマンドラインの実行](https://doc-jp.302.ai/api-276837637.md): このインターフェースはテキストタイプの出力のみを返します。コマンドがファイル生成などの操作を含む場合、「ファイル表示」インターフェースを使用してファイル情報を確認し、「ファイルダウンロード」インターフェースを使用して302ファイルシステムにファイルをエクスポートしてください。 - 情報処理 > 302.AI > コード実行 > 仮想マシンサンドボックス [指定パスのファイル情報を照会](https://doc-jp.302.ai/api-276838331.md): バッチクエリをサポートしており、パスのリストを渡すことができます。 - 情報処理 > 302.AI > コード実行 > 仮想マシンサンドボックス [サンドボックスにファイルデータをインポート](https://doc-jp.302.ai/api-276838641.md): バッチインポートをサポートしています。保存パスにファイルが存在する場合、上書きされます。保存パスのフォルダが存在しない場合、自動的にフォルダが作成されます。 - 情報処理 > 302.AI > コード実行 > 仮想マシンサンドボックス [サンドボックスファイルのエクスポート](https://doc-jp.302.ai/api-276838710.md): バッチエクスポートをサポート - 情報処理 > 302.AI > コード実行 > 静的サンドボックス [Run-Code(コード実行エンジン)](https://doc-jp.302.ai/api-239071234.md): サンドボックスを通じてJSやPythonコードを実行する - 情報処理 > 302.AI > リモートブラウザ [ブラウザ自動化タスクの作成](https://doc-jp.302.ai/api-282236389.md): Browser Use に基づいて、リモートブラウザ自動化タスクを作成します。 - 情報処理 > 302.AI > リモートブラウザ [ブラウザタスクのステータスを確認する](https://doc-jp.302.ai/api-282236431.md): Browser Use に基づいて、リモートブラウザ自動化タスクを作成します。 - 情報処理 > Tavily [Search(検索)](https://doc-jp.302.ai/api-207706607.md): Tavilyは AI 検索に特化した会社で、彼らの検索は LLM のために最適化されており、LLM がデータ検索を行いやすくなっています。 - 情報処理 > Tavily [Extract(ウェブページ抽出)](https://doc-jp.302.ai/api-235297564.md): Tavilyは AI 検索に特化した会社で、彼らの検索は LLM のために最適化されており、LLM がデータ検索を行いやすくなっています。 - 情報処理 > SearchAPI [Search(検索)](https://doc-jp.302.ai/api-207706608.md): SearchAPIは検索APIを提供する会社で、Google検索エンジンのコンテンツを簡単かつ迅速に呼び出すことができます。当社は彼らの公式インターフェースと完全に一致しており、API Base URLを置き換えるだけで使用できます。 - 情報処理 > SearchAPI [Search(広報検索)](https://doc-jp.302.ai/api-207706611.md): SearchAPIは検索APIを提供する会社で、Google検索エンジンのコンテンツを簡単かつ迅速に呼び出すことができます。当社は彼らの公式インターフェースと完全に一致しており、API Base URLを置き換えるだけで使用できます。 - 情報処理 > SearchAPI [Search(画像検索)](https://doc-jp.302.ai/api-207706612.md): SearchAPIは検索APIを提供する会社で、Google検索エンジンのコンテンツを簡単かつ迅速に呼び出すことができます。当社は彼らの公式インターフェースと完全に一致しており、API Base URLを置き換えるだけで使用できます。 - 情報処理 > SearchAPI [Search(画像で画像を検索)](https://doc-jp.302.ai/api-207706614.md): SearchAPIは検索APIを提供する会社で、Google検索エンジンのコンテンツを簡単かつ迅速に呼び出すことができます。当社は彼らの公式インターフェースと完全に一致しており、API Base URLを置き換えるだけで使用できます。 - 情報処理 > SearchAPI [Search(映像検索)](https://doc-jp.302.ai/api-207706613.md): SearchAPIは検索APIを提供する会社で、Google検索エンジンのコンテンツを簡単かつ迅速に呼び出すことができます。当社は彼らの公式インターフェースと完全に一致しており、API Base URLを置き換えるだけで使用できます。 - 情報処理 > SearchAPI [Search(学術検索)](https://doc-jp.302.ai/api-207706609.md): SearchAPIは検索APIを提供する会社で、Google検索エンジンのコンテンツを簡単かつ迅速に呼び出すことができます。当社は彼らの公式インターフェースと完全に一致しており、API Base URLを置き換えるだけで使用できます。 - 情報処理 > SearchAPI [Search(特許検索)](https://doc-jp.302.ai/api-207706610.md): SearchAPIは検索APIを提供する会社で、Google検索エンジンのコンテンツを簡単かつ迅速に呼び出すことができます。当社は彼らの公式インターフェースと完全に一致しており、API Base URLを置き換えるだけで使用できます。 - 情報処理 > Search1API [Search(検索)](https://doc-jp.302.ai/api-235327507.md): Search1APIは検索に特化した会社で、彼らの特徴は価格が安いことです - 情報処理 > Search1API [News(ニュース)](https://doc-jp.302.ai/api-235327509.md): Search1APIは検索に特化した会社で、彼らの特徴は価格が安いことです - 情報処理 > Search1API [Crawl(クロール)](https://doc-jp.302.ai/api-235327508.md): Search1APIは検索に特化した会社で、彼らの特徴は価格が安いことです - 情報処理 > Search1API [Sitemap(サイトマップ)](https://doc-jp.302.ai/api-269263735.md): Search1APIは検索サービスに特化した会社で、最大の特徴は低価格です。 - 情報処理 > Search1API [トレンディング(人気トレンド)](https://doc-jp.302.ai/api-276250569.md): Search1APIは検索に特化した会社で、その最大の特色はリーズナブルな価格設定です。 - 情報処理 > Doc2x > バージョン 2 [PDF(アップロードインターフェース(非同期))](https://doc-jp.302.ai/api-232503763.md): PDFをアップロードし、解析を開始する - 情報処理 > Doc2x > バージョン 2 [Status(状態確認)](https://doc-jp.302.ai/api-232503765.md): PDFのアップロード後、処理ステータスを取得します - 情報処理 > Doc2x > バージョン 2 [Parse(エクスポートファイルのリクエスト(非同期))](https://doc-jp.302.ai/api-232503764.md): アップロードしたPDFを別のフォーマットにエクスポートする - 情報処理 > Doc2x > バージョン 2 [Result(結果取得) ](https://doc-jp.302.ai/api-232503766.md): エクスポート結果を取得します - 情報処理 > Doc2x > バージョン 1(廃止されました) [PDF(PDFからMD形式に変換)](https://doc-jp.302.ai/api-207706615.md): 提携先のDoc2xによるPDFからMD形式への変換サービス - 情報処理 > Doc2x > バージョン 1(廃止されました) [PDF-Async(PDF非同期変換フォーマット)](https://doc-jp.302.ai/api-207706618.md): 提携先のDoc2xによるPDFを様々な形式に変換できる - 情報処理 > Doc2x > バージョン 1(廃止されました) [IMG(IMGからMDへの変換フォーマット)](https://doc-jp.302.ai/api-207706616.md): 提携先のDoc2xによるIMGからMD形式への変換サービス - 情報処理 > Doc2x > バージョン 1(廃止されました) [IMG(IMG非同期変換フォーマット)](https://doc-jp.302.ai/api-207706617.md): 提携先のDoc2xによるIMGからMD形式への変換サービス - 情報処理 > Doc2x > バージョン 1(廃止されました) [Status(状態確認)](https://doc-jp.302.ai/api-207706619.md): 変換状態の取得 - 情報処理 > Doc2x > バージョン 1(廃止されました) [Export(ファイルのエクスポート)](https://doc-jp.302.ai/api-207706620.md): ファイルをエクスポート、選択可能なフォーマット:latex, md, docx - 情報処理 > Glif [Glif(Botプラットフォーム)](https://doc-jp.302.ai/api-207706621.md): GlifはCozeに似たボット構築プラットフォームで、このAPIを使えばGlifの機能に素早くアクセスできる。 - 情報処理 > Jina [Reader(ウェブページをmd形式に変換)](https://doc-jp.302.ai/api-207706622.md): ネットワーク情報をLLMに入力することは、現実世界との接続を確立する上で重要なステップですが、挑戦を伴う場合があります。最も簡単な方法は、ウェブページをスクレイピングして生のHTMLを提供することです。しかし、スクレイピングは複雑であり、しばしばブロックされることがあります。また、生のHTMLには、タグやスクリプトなどの不要な要素が多く含まれています。Reader APIは、URLから主要なコンテンツを抽出し、それをクリーンでLLMに適したテキストに変換することで、これらの問題を解決します。これにより、エージェントやRAGシステムが高品質な入力を確保できるようになります。 - 情報処理 > Jina [Search(ウェブ検索)](https://doc-jp.302.ai/api-207706623.md): 問題:LLMには知識のカットオフポイントがあり、最新の世界の知識にアクセスすることができません。このため、誤った情報、古い回答、幻覚、その他の事実に関する問題が生じる可能性があります。GenAIアプリケーションにとって、基盤となる情報は絶対に必要です。Readerを使用すれば、ウェブからの最新情報を使ってLLMに基礎を提供することができます。クエリの前にhttps://s.jina.ai/, を付けるだけで、Readerがウェブを検索し、上位5件の結果とそのURL、コンテンツを返します。これらのコンテンツはすべてクリーンでLLMに適したテキストです。このようにして、常にLLMを最新の状態に保ち、その正確性を向上させ、幻覚を減らすことができます。 - 情報処理 > Jina [Grounding(事実確認)](https://doc-jp.302.ai/api-230624919.md): 検索によるファクトチェックは、jinaによって行われます。 - 情報処理 > Jina [Classify(内容分類)](https://doc-jp.302.ai/api-230632513.md): Embeddingモデルを用いたコンテンツの分類とタグ付け、 - 情報処理 > DeepL [Chat(任意の言語から英語への翻訳)](https://doc-jp.302.ai/api-207706626.md): DeepLによる翻訳サービス - 情報処理 > DeepL [Chat(任意の言語から中国語への翻訳)](https://doc-jp.302.ai/api-207706627.md): DeepLによる翻訳サービス - 情報処理 > DeepL [Chat(任意の言語から日本語への翻訳)](https://doc-jp.302.ai/api-207706628.md): DeepLによる翻訳サービス - 情報処理 > DeepL [Translate(あらゆる言語への翻訳)](https://doc-jp.302.ai/api-214733189.md): DeepLによる翻訳サービス - 情報処理 > Exa [Search(検索)](https://doc-jp.302.ai/api-207706629.md): Exa AIは、新興のAI検索エンジン企業で、最近1700万ドルのシリーズA資金調達を発表しました。Lightspeedがリードし、NvidiaのNVenturesとY Combinatorが参加しています。他の検索エンジンとは異なり、ExaはAI専用の検索ツールになることを目指しています。 - 情報処理 > Exa [Contents(内容取得)](https://doc-jp.302.ai/api-207706630.md): Exa AIは、新興のAI検索エンジン企業で、最近1700万ドルのシリーズA資金調達を発表しました。Lightspeedがリードし、NvidiaのNVenturesとY Combinatorが参加しています。他の検索エンジンとは異なり、ExaはAI専用の検索ツールになることを目指しています。 - 情報処理 > Exa [Answer(回答)](https://doc-jp.302.ai/api-276258600.md): Exa AIは、新興のAI検索エンジン会社であり、最近、Lightspeedが主導し、NvidiaのNVenturesとY Combinatorが参加した1,700万ドルのシリーズA資金調達ラウンドを発表しました。他の検索エンジンとは異なり、ExaはAI専用の検索ツールになることを目指しています。 - 情報処理 > Bocha AI [web-search(通常の検索)](https://doc-jp.302.ai/api-207706631.md): ウェブ全体から任意のウェブページ情報とリンクを検索し、結果が正確で要約が完全であり、AIの使用により適しています。 - 情報処理 > Bocha AI [ai-search(AI検索)](https://doc-jp.302.ai/api-207706632.md): AI検索を呼び出してユーザーの質問に答え、マルチモーダルな参照ソース、要約された回答、フォローアップ質問を返します。参照ソース(ウェブページ、TikTok動画、画像)、要約された回答、フォローアップ質問。 - 情報処理 > RSSHub [RSSHub(情報購読)](https://doc-jp.302.ai/api-235943876.md): RSSHubはオープンソースプロジェクトで、様々なウェブサイト(WeChat公式アカウント、Xiaohongshuなど)をRSSフォーマットのデータに変換し、ユーザーが最新の更新を簡単に受け取れるようにします。 - 情報処理 > Firefly card [saveImg(カード生成)](https://doc-jp.302.ai/api-245142454.md): ウェブページ https://fireflycard.shushiai.com/ でカードを編集し、JSONをコピーしてbodyパラメータとして貼り付けます。 - 情報処理 > Youdao [Youdao(有道翻訳)](https://doc-jp.302.ai/api-250801637.md): 来自有道的翻译API - 情報処理 > Mistral [OCR(PDF解析)](https://doc-jp.302.ai/api-270148227.md): MistralによるPDF解析で、素早くPDFをMDに変換できます。 - 情報処理 > Firecrawl [Scrape](https://doc-jp.302.ai/api-288420739.md): Firecrawlによるウェブページスクレイピングサービスで、ウェブページをMarkdown(md)形式に変換できます - 情報処理 > Firecrawl [Batch Scrape](https://doc-jp.302.ai/api-288420784.md): Firecrawlによるウェブページスクレイピングサービスで、ウェブページをMarkdown形式に変換できます - 情報処理 > Firecrawl [Get Batch Scrape Status](https://doc-jp.302.ai/api-288420836.md): Firecrawlによるウェブページスクレイピングサービスで、ウェブページをMarkdown(md)形式に変換できます - 情報処理 > Firecrawl [Get Batch Scrape Errors](https://doc-jp.302.ai/api-288421362.md): Firecrawlによるウェブページスクレイピングサービスで、ウェブページをMarkdown形式に変換できます - 情報処理 > Firecrawl [Map](https://doc-jp.302.ai/api-288421404.md): Firecrawlによるウェブサイトマップ取得サービス - 情報処理 > Firecrawl [Search](https://doc-jp.302.ai/api-288997060.md): Firecrwal の検索サービス - RAG関連 > OpenAI [Embeddings(ベクトル生成)](https://doc-jp.302.ai/api-207706633.md): [OpenAIの指南](https://platform.openai.com/docs/guides/embeddings) - RAG関連 > 中国モデル [Embeddings(ZHIPU)](https://doc-jp.302.ai/api-207706634.md): embeddingsは、テキスト文字列間の関連性を測定するために使用されます。embeddingsは通常、以下の目的で使用されます: - RAG関連 > 中国モデル [Embeddings(BAAI)](https://doc-jp.302.ai/api-207706639.md): サポートされているモデル: - RAG関連 > 中国モデル [Embeddings(Baichuan)](https://doc-jp.302.ai/api-207706635.md): embeddingsは、テキスト文字列間の関連性を測定するために使用されます。embeddingsは通常、以下の目的で使用されます: - RAG関連 > 中国モデル [Embeddings(Youdao)](https://doc-jp.302.ai/api-207706636.md): embeddingsは、テキスト文字列間の関連性を測定するために使用されます。embeddingsは通常、以下の目的で使用されます: - RAG関連 > 中国モデル [Rerank(Youdao)](https://doc-jp.302.ai/api-207706637.md): embeddingsは、テキスト文字列間の関連性を測定するために使用されます。embeddingsは通常、以下の目的で使用されます: - RAG関連 > 中国モデル [Rerank(BAAI)](https://doc-jp.302.ai/api-207706638.md): embeddingsは、テキスト文字列間の関連性を測定するために使用されます。embeddingsは通常、以下の目的で使用されます: - RAG関連 > Jina [Embeddings(ベクトル生成)](https://doc-jp.302.ai/api-207706640.md): JinaのEmbeddingモデル,出所:https://jina.ai/embeddings - RAG関連 > Jina [Tokenizer(文書分割)](https://doc-jp.302.ai/api-207706641.md): Jinaのトークナイズモデル、RAGで文書を意味的に分割するのに使用できます - RAG関連 > Jina [Rerank(多モーダル再順位付け)](https://doc-jp.302.ai/api-282202176.md): Jinaの多モーダル再順位付けモデルは、画像とテキストを同時にランク付けできます。 - RAG関連 > Jina [Rerank(再順位付け)](https://doc-jp.302.ai/api-207706642.md): Jinaのリランクモデルは、RAGにおいて検索精度を大幅に向上させることができます。 - RAG関連 > 302.AI [Chat(ナレッジベース)](https://doc-jp.302.ai/api-222612099.md): ナレッジベースの対話 - RAG関連 > 302.AI [Chat(ナレッジベースチャット-OpenAI互換)](https://doc-jp.302.ai/api-238962436.md): ナレッジベース対話:このAPIはOpenAI互換形式です。ナレッジベースボットのAPIキーは、バックエンドで選択されたナレッジベースと自動的に紐付けられ、このようなキーを使用することで、kb_idを渡す必要がありません。 - RAG関連 > 302.AI [Create(ナレッジベースの作成)](https://doc-jp.302.ai/api-222612094.md): ナレッジベースの作成 - RAG関連 > 302.AI [Delete(ナレッジベースの削除)](https://doc-jp.302.ai/api-222612098.md): 指定した知識ベースを削除する - RAG関連 > 302.AI [Upload(ファイルのアップロード)](https://doc-jp.302.ai/api-222612095.md): 指定した知識ベースへのファイルのアップロード - RAG関連 > 302.AI [List(KBのリスティング)](https://doc-jp.302.ai/api-222612096.md): ナレッジベースのリストを取得します - RAG関連 > 302.AI [Info(KB詳細へのアクセス)](https://doc-jp.302.ai/api-222612097.md): ナレッジ・ベース詳細へのアクセス - RAG関連 > 302.AI [Meta-Chunking(テキストLLMスライシング)](https://doc-jp.302.ai/api-245142567.md): 大規模言語モデルによるテキストの理解を通じて、スライス分割を行うことで、文脈の一貫性を失うことなく分割することができます。 - RAG関連 > 302.AI [Meta-Chunking(ファイルLLMスライス)](https://doc-jp.302.ai/api-245142650.md): 大規模言語モデルによるテキストの理解を通じて、スライス分割を行うことで、文脈の一貫性を失うことなく分割することができます。 - ツールAPI > AI動画素材クリエイティブステーション [Scripts(動画素材の文案生成)](https://doc-jp.302.ai/api-248602919.md): AI動画素材アイデアサイトで使用されるAPI:キーワードを入力して対応する動画の文案を生成する - ツールAPI > AI動画素材クリエイティブステーション [Terms(動画素材の検索キーワード生成)](https://doc-jp.302.ai/api-248602920.md): AI動画素材クリエイティブサイトで使用するAPI:動画テーマ(video_subject)と動画文案(video_script)に基づいて、動画プラットフォームで検索するための検索キーワードを生成します。 - ツールAPI > AI動画素材クリエイティブステーション [Videos(動画素材生成タスク作成)](https://doc-jp.302.ai/api-248602921.md): AI動画素材クリエイティブサイトで使用するインターフェース:素材の文案(video_script)と検索キーワード(search_keywords)に基づいて、編集済みの動画素材を生成します - ツールAPI > AI動画素材クリエイティブステーション [Tasks(動画タスクの進捗状況取得)](https://doc-jp.302.ai/api-248602922.md): AI動画素材クリエイティブサイトで使用するインターフェース:動画生成タスクの進捗状況を取得 - ツールAPI > AI論文作成 > CO-STORM [生成記事タスクを作成します](https://doc-jp.302.ai/api-258290964.md): 生成された記事タスクを作成するためにトピックと懸念を入力する - ツールAPI > AI論文作成 > CO-STORM [ダイアログインターフェイスを生成し続けます](https://doc-jp.302.ai/api-258290965.md): シミュレーションダイアログは、情報の取得を可能にします。ユーザーは、指定されたコンテンツを入力するか、AIが上記に基づいてシミュレートされたダイアログを引き続き生成できるようにすることができます。 - ツールAPI > AI論文作成 > CO-STORM [記事コンテンツインターフェイスを更新します](https://doc-jp.302.ai/api-258290966.md): コールがダイアログインターフェイスを生成し続けると、Task_IDに対応するナレッジベースが更新されます。 - ツールAPI > AI論文作成 > CO-STORM [記事情報を取得する](https://doc-jp.302.ai/api-258290967.md): **価格:0 PTC/回** - ツールAPI > AI論文作成 [非同期論文生成](https://doc-jp.302.ai/api-245501264.md): AI論文執筆ツールで使用される論文生成APIの非同期インターフェース - ツールAPI > AI論文作成 [結果を取得](https://doc-jp.302.ai/api-245501265.md): 論文の結果を取得する - ツールAPI > AIポッドキャスト制作 [非同期ポッドキャストのテキストを生成](https://doc-jp.302.ai/api-245501266.md): AIポッドキャスト生成ツールで使用されるAPI(インターフェース) - ツールAPI > AIポッドキャスト制作 [ポッドキャストのテキスト生成タスクのステータスを確認](https://doc-jp.302.ai/api-245501267.md): タスクのステータスを確認する - ツールAPI > AIポッドキャスト制作 [非同期でポッドキャストの音声を生成](https://doc-jp.302.ai/api-245501268.md): AIポッドキャスト生成ツールで使用されるAPI(インターフェース) - ツールAPI > AIポッドキャスト制作 [ポッドキスト音声生成タスクのステータスを確認](https://doc-jp.302.ai/api-245501269.md): タスクのステータスを確認する - ツールAPI > AIライティングアシスタント [ツールリストを取得](https://doc-jp.302.ai/api-246101952.md): 文案作成ツールのリストを取得します。主にツールの情報を取得し、文案生成用のインターフェースに必要なパラメータ属性を取得するために使用されます。 - ツールAPI > AIライティングアシスタント [文案生成](https://doc-jp.302.ai/api-246101953.md): 文案ツールリスト取得用のインターフェースから対応する`tool_name`と`params`を取得し、本インターフェースに渡して文案を生成します。 - ツールAPI > AIビデオリアルタイム翻訳 [動画情報照会](https://doc-jp.302.ai/api-247578099.md): 動画のタイトル、サムネイル、解像度の再生フォーマット一覧、再生リンクを取得する - ツールAPI > AIビデオリアルタイム翻訳 [動画ダウンロード](https://doc-jp.302.ai/api-247578100.md): YouTubeやBilibiliの動画をダウンロードして、302ファイルサーバーにアップロードし、音声トラックを抽出する - ツールAPI > AIビデオリアルタイム翻訳 [動画から音声を分離](https://doc-jp.302.ai/api-248490322.md): 音声を動画から切り離す - ツールAPI > AIビデオリアルタイム翻訳 [オーディオボーカルの分離と転写](https://doc-jp.302.ai/api-255888783.md): 独自の最適化されたささやきモデルを使用して、音声を単語レベルのテキスト データに転写します。 - ツールAPI > AIビデオリアルタイム翻訳 [字幕翻訳](https://doc-jp.302.ai/api-247578102.md): 単語レベルの音声転写結果を入力し、翻訳されたSRT形式の字幕結果を出力する - ツールAPI > AIビデオリアルタイム翻訳 [動画を焼き付ける](https://doc-jp.302.ai/api-247578103.md): SRT字幕を動画に焼き付ける - ツールAPI > AIビデオリアルタイム翻訳 [音響クローン](https://doc-jp.302.ai/api-255889334.md): オリジナルのサウンドに基づいて、新しい音声コンテンツに基づいて新しい音声が出力されるため、さまざまな言語での音声の吹き替えに適しています。 - ツールAPI > AIビデオリアルタイム翻訳 [タスクの状態を確認](https://doc-jp.302.ai/api-247578104.md): タスクの状態を確認 - ツールAPI > AIドキュメントエディター [長いテキストのアウトラインを生成します](https://doc-jp.302.ai/api-258279164.md): **価格:呼び出しモデルに応じて請求されます** - ツールAPI > AIドキュメントエディター [記事コンテンツを生成します](https://doc-jp.302.ai/api-258279165.md): ストリーミング応答 - ツールAPI > AIプロンプトの専門家 [プロンプト最適化](https://doc-jp.302.ai/api-280482951.md): インターフェイスの応答はOpenAIチャットモデルの応答と一致しており、ストリーミング返却をサポートしています。 - ツールAPI > AIプロンプトの専門家 [画像プロンプトワード生成](https://doc-jp.302.ai/api-261664553.md): 画像を画像の生成に使用されるAI描画プロンプトワードに変換します - ツールAPI > AIプロンプトの専門家 [SPOプロンプト最適化タスクを作成](https://doc-jp.302.ai/api-279193219.md): 使用例: - ツールAPI > AIプロンプトの専門家 [SPOプロンプト最適化結果を照会](https://doc-jp.302.ai/api-279193307.md): **価格:0 PTC/回** - ツールAPI > Al解答機 [解答](https://doc-jp.302.ai/api-261662442.md): JSONパラメーター(コンテンツ画像リンクまたはBS64画像(データから始まる:画像から始まる)またはタイトルテキスト)およびFormDataパラメーター(コンテンツバイナリ画像)をサポート - ツールAPI > AI 3D モデリング [3Dモデルファイルタイプ変換](https://doc-jp.302.ai/api-261677095.md): オープンソースプロジェクトから: https://github.com/mikedh/trimesh - ツールAPI > Webデータ抽出ツール [スキーマを生成します](https://doc-jp.302.ai/api-261555151.md): Webページと説明から対応するスキーマを生成します - ツールAPI > Webデータ抽出ツール [抽出タスクを作成します](https://doc-jp.302.ai/api-261555152.md): Webクロールタスクを作成します - ツールAPI > Webデータ抽出ツール [クエリ抽出の進行状況](https://doc-jp.302.ai/api-261555153.md): Webクロールタスクの進捗状況を取得します - ツールAPI > AIサーチマスター3.0 [AI検索](https://doc-jp.302.ai/api-265291485.md): 検索マスターの検索APIはストリーミングモードのみをサポートしており、自分で調整する必要があります。 - ツールAPI > AI ベクター画像生成 [SVGからビデオへ](https://doc-jp.302.ai/api-265298719.md): SVGを生成プロセスのビデオに変換します。 - ツールAPI > AI PPT作成 [ワンクリックでPPTインターフェースを生成します](https://doc-jp.302.ai/api-265304520.md): **価格:0.07PTC/回** - ツールAPI > AI PPT作成 [ファイルの解析](https://doc-jp.302.ai/api-265304521.md): 生成されたファイルリンクは同じ日にのみ有効です - ツールAPI > AI PPT作成 [アウトラインを生成します](https://doc-jp.302.ai/api-265304522.md): **価格:無料** - ツールAPI > AI PPT作成 [アウトラインコンテンツを生成します](https://doc-jp.302.ai/api-265304523.md): 同期を選択してPPTを生成する場合、このインターフェイスの控除はありません。 - ツールAPI > AI PPT作成 [テンプレートオプションを取得します](https://doc-jp.302.ai/api-265304524.md): **価格:無料** - ツールAPI > AI PPT作成 [PPTインターフェイス(同期インターフェイス)を生成する](https://doc-jp.302.ai/api-265304525.md): **価格:0.07PTC/回** - ツールAPI > AI PPT作成 [PPTデータをロードします](https://doc-jp.302.ai/api-265304526.md): **価格:無料** - ツールAPI > AI PPT作成 [PPTインターフェイス(非同期インターフェイス)を生成する](https://doc-jp.302.ai/api-265304527.md): asyncGenPptx=true を設定すると、アウトラインコンテンツの生成をリクエストすると、PPT が非同期で生成されます。 この場合、PPT生成インターフェイスを呼び出す必要はありません。 - ツールAPI > AI PPT作成 [非同期クエリはPPTステータスを生成します](https://doc-jp.302.ai/api-265304528.md): 注:このインターフェイスは、ストリーミング生成中にデータ(一時的なキャッシュデータ)のみをクエリすることができます。 - ツールAPI > AI PPT作成 [PPTをダウンロードしてください](https://doc-jp.302.ai/api-265304529.md): **価格:無料** - ツールAPI > AI PPT作成 [カスタムPPTテンプレートを追加/更新します](https://doc-jp.302.ai/api-265304530.md): アップロードされたテンプレートは、APIKEYに従って分離されます。 - ツールAPI > AI PPT作成 [ページネーションクエリPPTテンプレート](https://doc-jp.302.ai/api-265304531.md): **価格:無料** - ツールAPI > AI学術論文検索 [arxiv論文検索](https://doc-jp.302.ai/api-265240236.md): arxivの論文を検索し、タイトルを翻訳する - ツールAPI > AI学術論文検索 [Google論文検索](https://doc-jp.302.ai/api-265240237.md): **価格:0.005PTC/回、キャッシュをヒットしても料金なし** - ツールAPI > ウェブサイトのワンクリックデプロイ [ホスティングウェブページの作成(フォームパラメータAPI)](https://doc-jp.302.ai/api-285351281.md): **価格:0.01 PTC/回** - ツールAPI > ウェブサイトのワンクリックデプロイ [ホスティングウェブページの作成(JSONパラメータAPI) ](https://doc-jp.302.ai/api-285351341.md): **価格:0.01 PTC/回** - ツールAPI > ウェブサイトのワンクリックデプロイ [ホスティングウェブページの作成(バイナリパラメータAPI) ](https://doc-jp.302.ai/api-285351664.md): HTMLファイルはリクエストボディにバイナリ形式で直接送信し、その他のパラメータはクエリに含めます - ツールAPI > ウェブサイトのワンクリックデプロイ [APIキーに紐付くホスティングプロジェクト一覧の取得](https://doc-jp.302.ai/api-285351706.md): APIキーで関連付けられます