API inference endpoint都变成待机态了

头像
2026年01月22日 79 浏览 状态问题有人回答啦,大家来学习一下吧~
首页 问答 API inference endpoint都变成待机态了
问题详情

api接口好像都用不了了,之前都是热可用,现在都变成待机态了。请问什么时候能够恢复?

屏幕截图 2026-01-06 150345.png

版权:言论仅代表个人观点,不代表官方立场。转载请注明出处:https://www.stntk.com/question/121.html

发表评论
10 条评论
2026年1月23日 上午3:07 回复

可以换个模型是一下~

2026年1月23日 上午3:07 回复

换模型可以了!!

2026年1月23日 上午3:07 回复

你试试换模型可以了

2026年1月23日 上午3:07 回复

换模型可以了

2026年1月23日 上午3:07 回复

可以换个模型是实时

2026年1月23日 上午3:07 回复

换模型可以了,好像是不同模型的稳定性问题。

2026年1月23日 上午3:07 回复

好多模型都用不了

2026年1月23日 上午3:07 回复

到现在,依然不可用。300秒还出不来图。一直是Pending{'request_id': '', 'task_id': '', 'task_status': 'PENDING', 'outputs': {}}

2026年1月23日 上午3:07 回复

这两天好像很不稳定,可以换个模型是一下~

2026年1月23日 上午3:07 回复

好多模型都用不了。都是待机态,你们那能用么?

点击联系客服

在线时间:8:00-16:00

客服QQ

70068002

客服电话

400-888-8888

客服邮箱

70068002@qq.com

扫描二维码

关注微信公众号

扫描二维码

手机访问本站