- 大規模言語モデル
- API移行ガイド
- 独占機能
- モデルサポート
- OpenAI
- Anthropic
- Gemini
- 中国モデル
- Chat(Baidu ERNIE)
- Chat(Tongyi Qianwen)
- Chat(Tongyi Qianwen-VL)
- Chat(Tongyi Qianwen-OCR)
- Chat(ZHIPU GLM-4)
- Chat(ZHIPU GLM-4V)
- Chat(Baichuan AI)
- Chat(Moonshot kimi AI)
- Chat(Moonshot kimi AI-Vision)
- Chat(01.AI)
- Chat(01.AI-VL)
- Chat(DeepSeek)
- Chat(DeepSeek-VL2)
- Chat(ByteDance Doubao)
- Chat(ByteDance Doubao-Vision)
- Chat(ByteDance Doubao Image Generation)
- Chat(Stepfun)
- Chat (Stepfun Multimodal)
- Chat(iFLYTEK Spark)
- Chat(SenseTime)
- Chat(Minimax)
- Chat(Tencent Hunyuan)
- SiliconFlow
- PPIO
- オープンソースモデル
- 専門モデル
- その他のモデル
- 画像生成
- 統一インターフェース
- GPT-Image-1
- DALL.E
- Stability.ai
- Midjourney
- Midjourney-Relax
- 302.AI
- SDXL(画像生成)
- SDXL-Lora(画像生成-Lora)
- SDXL-Lightning(高速画像生成)
- SDXL-Lightning-V2(高速画像生成-V2)
- SDXL-Lightning-V3(高速画像生成-V3)
- SD3(画像生成-SD3)
- SD3(画像生成-SD3-v2)
- Aura-Flow(画像生成)
- Kolors(画像生成-Kolors)
- Kolors(参考画像生成-KLING)
- QRCode(Art QR code 生成)
- Lora(画像生成-Lora)
- SD-3.5-Large(画像生成)
- SD-3.5-Large-Turbo(画像生成)
- SD-3.5-Medium(画像生成)
- Lumina-Image-V2(画像 生成)
- Playground-v25(画像生成)
- Omnigen-V1(画像生成)
- Glif
- Flux
- Ideogram
- Recraft
- Luma
- Doubao
- Minimax
- ZHIPU
- Baidu
- Hidream
- Bagel
- SiliconFlow
- 画像処理
- 302.AI
- Upscale(画像拡大)
- Upscale-V2(画像拡大-V2)
- Upscale-V3(画像拡大-V3)
- Upscale-V4(画像拡大-V4)
- Super-Upscale(超画像拡大)
- Super-Upscale-V2(超画像拡大-V2)
- Face-upscale(肖像画の画像拡大)
- Colorize(白黒写真に色を付ける)
- Colorize(白黒写真に色を付ける-V2)
- Removebg(背景を削除)
- Removebg-V2(背景を削除-V2)
- Removebg-V3(背景を削除-V3)
- Inpaint(画像修正)
- Erase(オブジェクトの削除)
- Face-to-many(肖像画画像の様式化)
- Llava(画像認識)
- Relight(補助照明)
- Relight-background(二次光の背景合成)
- Relight-V2(補助照明-V2)
- Face-swap-V2(AIフェイススワップV2)
- Fetch(タスク取得)
- HtmltoPng(HTMLをPNG形式に変換)
- SvgToPng(SVG をPNG形式に変換)
- image-translate(画像翻訳)
- image-translate-query(画像翻訳結果)
- image-translate-redo(画像翻訳修正)
- Flux-selfie(スタイリッシュな自撮り写真)
- Trellis(画像を3Dモデルに変換)
- Pose-Transfer(人物のポーズ変換)
- Pose-Transfer(人物のポーズ変換結果)
- Virtual-Tryon(バーチャル試着)
- Virtual-Tryon(バーチャル試着結果)
- Denoise(AIノイズ除去)
- Deblur(AIによるぼかし除去)
- 302.AI-ComfyUI
- Vectorizer
- Stability.ai
- Fast Upscale(画像の高速拡大)
- Creatice Upscale (創造的な画像拡大)
- Conservative Upscale(保守的な画像拡大)
- Fetch Creatice Upscale(超高解像度画像拡大)
- Erase(物体除去)
- Inpaint(画像修正)
- Outpaint(画像拡張)
- Search-and-replace (内容置換)
- Search-and-recolor (内容再着色)
- Remove-background(背景除去)
- Sketch (スケッチから画像)
- Structure(画像生成)
- Style (スタイルの一貫性)
- Replace-Background(背景を変更)
- Stable-Fast-3D(画像から3Dモデルを変換)
- Stable-Point-3D(画像から3Dモデルへの変換-新バージョン)
- Glif
- Clipdrop
- Recraft
- BRIA
- Remove Background(背景を削除)
- Blur Background(背景をぼかす)
- Generate Background(背景合成)
- Erase Foreground(前景消去)
- Eraser(選択部分消去)
- Expand Image(画像拡張)
- Increase Resolution(解像度の拡大)
- Crop(画像を切り抜く)
- Cutout(商品画像を切り抜き)
- Packshot(クローズアップ写真)
- Shadow (影を追加する)
- Scene (シーン生成)
- Caption(画像の説明)
- Register(画像アップロード)
- Mask(画像分割)
- Presenter info (顔の解析)
- Modify Presenter(顔の修正)
- Delayer Image(画像をPSDに変換)
- Flux
- Hyper3D
- Tripo3D
- FASHN
- Ideogram
- Doubao
- Kling
- StepFun
- Bagel
- 302.AI
- 映像生成
- 統一インターフェース
- 302.AI
- Stable Diffusion
- Luma AI
- Runway
- Kling
- 302フォーマット
- Txt2Video(文字から映像を生成-1.0-クイック-5秒)
- Txt2Video_HQ(文字から映像を生成 1.5- HD - 5秒)
- Txt2Video_HQ(文字から映像を生成 1.5- HD - 10秒)
- Image2Video(画像から映像を生成 1.0- クイック - 5秒)
- Image2Video(画像から映像を生成 1.0- クイック - 10秒)
- Image2Video(画像から映像を生成 1.5- クイック - 5秒)
- Image2Video(画像から映像を生成 1.5- クイック - 10秒)
- Image2Video_HQ(画像から映像を生成 1.5- HD - 5秒)
- Image2Video_HQ(画像から映像を生成 1.5- HD - 10秒)
- Extend_Video(映像延長)
- Txt2Video(テキストから動画生成1.6 - スタンダード - 5秒)
- Txt2Video(テキストから動画生成1.6 - スタンダード - 10秒)
- Txt2Video(テキストから動画生成1.6 - HD - 5秒)
- Image2Video(画像から映像を生成 1.6- スタンダード- 5秒)
- Txt2Video(テキストから動画生成1.6 - HD - 10秒)
- Image2Video(画像から映像を生成 1.6- スタンダード- 10秒)
- Image2Video(画像から映像を生成 1.6- HD- 5秒)
- Txt2Video(テキストから動画生成2.0 – HD – 5秒)
- Image2Video(画像から動画生成2.0 – HD – 5秒 )
- Image2Video(画像から動画生成2.0 – HD – 10秒)
- Image2Video(画像から映像を生成 1.6- HD- 10秒)
- Image2Video (マルチ画像参照)
- Image2Video(マルチ画像参照)
- Image2Video(イメージビデオ 2.1~5秒)
- Image2Video(イメージビデオ 2.1~10秒)
- Image2Video(イメージビデオ 2.1-HD-5秒)
- Image2Video(イメージビデオ 2.1-HD-10秒)
- Fetch(タスク取得)
- 公式フォーマット
- 302フォーマット
- Minimax
- Pika
- PixVerse
- Genmo
- Hedra
- Haiper
- Sync.
- Lightricks
- Hunyuan
- Vidu
- Tongyi Wanxiang
- SiliconFlow
- Jimeng
- CogVideoX
- Kunlun Tech
- Higgsfield
- Chanjing
- 音声・映像処理
- 情報処理
- 統合検索API
- 302.AI
- 管理バックエンド
- 情報検索
- Xiaohongshu_Search(小紅書探索メモ)
- Xiaohongshu_Note(小紅書からメモを入手)
- Get_Home_Recommend(小紅書のホームページおすすめ)
- Tiktok_Search(Tiktok映像検索)
- Douyin_Search(Douyin映像検索)
- Twitter_Search(Xの検索内容)
- Twitter_Post(Xでユーザーの投稿を取得)
- Twitter_User(Xでユーザーの情報を取得)
- Weibo_Post(微博でユーザーの投稿を取得)
- Search_Video(YouTubeビデオを検索)
- Youtube_Info(Youtubeゲットビデオ)
- Youtube_Subtitles(Youtube字幕を取得する)
- Bilibili_Info(Bilibili動画情報を取得する)
- MP_Article_List(WeChat公式アカウントの記事リストを取得する)
- MP_Article(微信公众号の記事を取得)
- ファイル処理
- コード実行
- リモートブラウザ
- Tavily
- SearchAPI
- Search1API
- Doc2x
- Glif
- Jina
- DeepL
- Exa
- Bocha AI
- RSSHub
- Firefly card
- Youdao
- Mistral
- Firecrawl
- RAG関連
- ツールAPI
- ヘルプセンター
Get Batch Scrape Status
GET
/firecrawl/v1/batch/scrape/{id}
公式ドキュメント:https://docs.firecrawl.dev/api-reference/endpoint/batch-scrape-get
Request
Path Params
id
string
required
Header Params
Authorization
string
optional
Example:
Bearer {{YOUR_API_KEY}}
Request samples
Shell
JavaScript
Java
Swift
Go
PHP
Python
HTTP
C
C#
Objective-C
Ruby
OCaml
Dart
R
Request Request Example
Shell
JavaScript
Java
Swift
curl --location --request GET 'https://api.302.ai/firecrawl/v1/batch/scrape/' \
--header 'Authorization: Bearer sk-mfYQzy0XTFfz4P16vRE4gFrKK1Nly4TozsMqbbb9PSiJUvFO'
Responses
🟢200成功
application/json
Body
pages
array [object {4}]
required
index
integer
required
markdown
string
required
images
array [object {6}]
required
dimensions
object
required
model
string
required
usage_info
object
required
pages_processed
integer
required
doc_size_bytes
integer
required
Example
{ "pages": [ { "index": 0, "markdown": "# LEVERAGING UNLABELED DATA TO PREDICT OUT-OF-DISTRIBUTION PERFORMANCE \n\nSaurabh Garg*<br>Carnegie Mellon University<br>sgarg2@andrew.cmu.edu<br>Sivaraman Balakrishnan<br>Carnegie Mellon University<br>sbalakri@andrew.cmu.edu<br>Zachary C. Lipton<br>Carnegie Mellon University<br>zlipton@andrew.cmu.edu\n\n## Behnam Neyshabur\n\nGoogle Research, Blueshift team\nneyshabur@google.com\n\nHanie Sedghi<br>Google Research, Brain team<br>hsedghi@google.com\n\n\n#### Abstract\n\nReal-world machine learning deployments are characterized by mismatches between the source (training) and target (test) distributions that may cause performance drops. In this work, we investigate methods for predicting the target domain accuracy using only labeled source data and unlabeled target data. We propose Average Thresholded Confidence (ATC), a practical method that learns a threshold on the model's confidence, predicting accuracy as the fraction of unlabeled examples for which model confidence exceeds that threshold. ATC outperforms previous methods across several model architectures, types of distribution shifts (e.g., due to synthetic corruptions, dataset reproduction, or novel subpopulations), and datasets (WILDS, ImageNet, BREEDS, CIFAR, and MNIST). In our experiments, ATC estimates target performance $2-4 \\times$ more accurately than prior methods. We also explore the theoretical foundations of the problem, proving that, in general, identifying the accuracy is just as hard as identifying the optimal predictor and thus, the efficacy of any method rests upon (perhaps unstated) assumptions on the nature of the shift. Finally, analyzing our method on some toy distributions, we provide insights concerning when it works ${ }^{1}$.\n\n\n## 1 INTRODUCTION\n\nMachine learning models deployed in the real world typically encounter examples from previously unseen distributions. While the IID assumption enables us to evaluate models using held-out data from the source distribution (from which training data is sampled), this estimate is no longer valid in presence of a distribution shift. Moreover, under such shifts, model accuracy tends to degrade (Szegedy et al., 2014; Recht et al., 2019; Koh et al., 2021). Commonly, the only data available to the practitioner are a labeled training set (source) and unlabeled deployment-time data which makes the problem more difficult. In this setting, detecting shifts in the distribution of covariates is known to be possible (but difficult) in theory (Ramdas et al., 2015), and in practice (Rabanser et al., 2018). However, producing an optimal predictor using only labeled source and unlabeled target data is well-known to be impossible absent further assumptions (Ben-David et al., 2010; Lipton et al., 2018).\n\nTwo vital questions that remain are: (i) the precise conditions under which we can estimate a classifier's target-domain accuracy; and (ii) which methods are most practically useful. To begin, the straightforward way to assess the performance of a model under distribution shift would be to collect labeled (target domain) examples and then to evaluate the model on that data. However, collecting fresh labeled data from the target distribution is prohibitively expensive and time-consuming, especially if the target distribution is non-stationary. Hence, instead of using labeled data, we aim to use unlabeled data from the target distribution, that is comparatively abundant, to predict model performance. Note that in this work, our focus is not to improve performance on the target but, rather, to estimate the accuracy on the target for a given classifier.\n\n[^0]\n[^0]: * Work done in part while Saurabh Garg was interning at Google\n ${ }^{1}$ Code is available at https://github.com/saurabhgarg1996/ATC_code.", "images": [], "dimensions": { "dpi": 200, "height": 2200, "width": 1700 } }, { "index": 1, "markdown": "\n\nFigure 1: Illustration of our proposed method ATC. Left: using source domain validation data, we identify a threshold on a score (e.g. negative entropy) computed on model confidence such that fraction of examples above the threshold matches the validation set accuracy. ATC estimates accuracy on unlabeled target data as the fraction of examples with the score above the threshold. Interestingly, this threshold yields accurate estimates on a wide set of target distributions resulting from natural and synthetic shifts. Right: Efficacy of ATC over previously proposed approaches on our testbed with a post-hoc calibrated model. To obtain errors on the same scale, we rescale all errors with Average Confidence (AC) error. Lower estimation error is better. See Table 1 for exact numbers and comparison on various types of distribution shift. See Sec. 5 for details
Modified at 2025-04-24 02:13:29