欢迎您来到欧零导航!
当前身份:游客 [ 登录 | 注册 ]
当前位置:首页>>站点列表>>网站信息>>modelscope.csdn.net的模拟结果

抓取结果

ModelScope魔搭社区 ModelScope魔搭社区 ModelScope魔搭社区 模型库数据集创空间研习社活动动态讨论广场 去全站搜索看看? 登录 登录社区云 登录社区云,与社区用户共同成长 CSDN账号登录 ModelScope魔搭社区 邀请您加入社区 立即加入 欢迎加入社区 取消 确定 欢迎加入社区 取消 确定 QwenLong-L1.5:让AI真正读懂长文本的秘密武器 魔搭ModelScope社区 2025-12-26 Mule Agent Builder:面向下一代 Agent 的全新构建范式 魔搭ModelScope社区 2025-12-26 Qwen-Image-Edit-2511来啦!角色一致性再提升,LoRA能力内置 魔搭ModelScope社区 2025-12-25 GLM-4.7开源!交出“生产级代码” 魔搭ModelScope社区 2025-12-25 只靠国产算力与开源数据,端侧模型预训练行不行?我们做到了全流程开源 魔搭ModelScope社区 2025-12-24 提问题 加入社区 ModelScope魔搭社区 https://modelscope.csdn.net 成员 ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单。 欢迎加入社区 取消 确定 发布内容 类型 问答 讨论 标题 标签 无匹配数据 加载中 附件 添加附件 可以上传10M以内的文件,支持格式:zip,rar,7z,jpg,png,jpeg 注意:为提高问题回答效率,我们可能会把您的问题同步到CSDN等合作平台 取消 发布 QwenLong-L1.5:让AI真正读懂长文本的秘密武器 作为大模型从业者或研究人员,你是否曾为一个模型的“长文本能力”感到兴奋,却在真实场景中发现它的表现不如预期? 你可能遇到过以下问题之一: 测试高分≠实际好用 模型在“大海捞针”(Needle-in-a-Haystack)测试中表现优异,容易让人以为长文本问题已解决。然而,一旦任务需要串联多处信息、进行多跳推理(multi-hop reasoning)时,模型往往难以构建完整逻辑链,显示出深度理解 魔搭ModelScope社区 7小时前  8  Mule Agent Builder:面向下一代 Agent 的全新构建范式 TL;DR:现有的 Agent 构建方案普遍陷入两难:Workflow 工具上手容易,却难以支撑复杂能力的 Agent;而专业框架虽然上限很高,但上手难度又将大量 Creator 拒之门外,且这两种方式都尚未打通从构建到变现的完整链路。为了解决这个困境,MuleRun推出了 Mule Agent Builder,它将业界正在兴起的「Base Agent + Skills + Knowledge」新 魔搭ModelScope社区 7小时前  14  Qwen-Image-Edit-2511来啦!角色一致性再提升,LoRA能力内置 Qwen-Image-Edit-2511 终于来啦!相比于Qwen-Image-Edit-2509,进行了包括一致性提升在内的多项增强。 Qwen-Image-Edit-2511 的主要特性包括: 提升了角色一致性 集成了Lora能力,例如打光、多场景 提升了工业设计能力 提升了几何推理能力 目前模型已开源,同时可在QwenChat “图像编辑” 功能、魔搭AIGC专区“图片生成” 频道直接免 魔搭ModelScope社区 1天前  62  GLM-4.7开源!交出“生产级代码” 今天,智谱 GLM-4.7上线并开源!新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 同步,GLM-4.7 已通过BigModel.cn提供API,并在z.ai全栈开发模式 中上线全新Skills模块,支持多模态任务的统一规划与协作执行。 Github:https://github.com/zai-org/GLM-4.5 魔搭ModelScope社区 1天前  64  只靠国产算力与开源数据,端侧模型预训练行不行?我们做到了全流程开源 当算力受限、数据参差,如何训练出高效可用的端侧模型?鹏城实验室联合清华不仅给出了答案,更将每一步都开源共享。 如果实验室只有国产算力、有限资源与开源数据,能否玩转端侧模型的预训练?鹏城实验室与清华大学 PACMAN 实验室联合发布了鹏城脑海‑2.1‑开元‑2B(PCMind‑2.1‑Kaiyuan‑2B,简称"开元‑2B")模型,并以全流程开源的方式回应了这一挑战——从训练数 魔搭ModelScope社区 2025-12-24 10:36:54  35  告别“扁平思维”:Qwen-Image-Layered 开启 AI 图片的图层革命 你是否有过这样的挫败感:想让 AI 把合照里的路人移开,结果路人消失了,背景却像被抹了一层浆糊;想改一下海报里的字体,结果 AI 把整张图的画风都重绘了。 这种“牵一发而动全身”的翻车现场,本质上是因为 AI 一直在用「扁平图片」思考世界。对模型而言,图片只是像素的堆砌,而非物体的组合。 近日, Qwen 团队发布的最新研究 Qwen-Image-Layered 正式宣告:AI 图像编辑的“图层 魔搭ModelScope社区 2025-12-24 10:03:56  40  VTP:MiniMax海螺视频团队,首次开源! 转自 MiniMax稀宇科技 今天,MiniMax视频团队推出其首个开源工作——VTP (Visual Tokenizer Pre-training);这个工作讨论的是视觉生成模型中的关键组件——tokenizer,对于整个生成系统的scaling性质。 这个说法可能会让大家感到有点陌生:什么时候tokenizer也有scaling性质了?Scaling作为大模型时代的核心纲领,其讨论的对象一般是 魔搭ModelScope社区 2025-12-22 11:14:32  70  BOSS直聘3B超越Qwen3-32B,更多训练数据刷新小模型极限 一款仅有30亿参数的小模型,在数学和推理能力上超越了320亿参数的大模型。 BOSS直聘Nanbeige大语言模型实验室,开源了他们的Nanbeige4-3B模型。 模型 https://www.modelscope.cn/organization/nanbeige 23万亿Token重塑小模型潜能 对于一个3B级别的模型,通常的训练量可能在几万亿token,但Nanbeige4-3B直接将 魔搭ModelScope社区 2025-12-19 09:47:38  152  一张图秒生 LoRA ? Qwen-Image-i2L 诞生记 我们发布了一个 Qwen-Image 的“图生 LoRA”模型。 是的,输入一张图,输出一个 LoRA 模型的权重,端到端直出的那种。 本文,我们将介绍我们是如何设计并训练出 Qwen-Image-i2L(Image to LoRA)模型的,我们记录了实验过程中走的弯路,希望本文能够启发更多有价值的研究。 技术路线 可行性分析 给定一张或几张图,用 GPU 花费几个小时训练一个 LoRA,这 魔搭ModelScope社区 2025-12-18 14:01:10  187  ModelScope魔搭社区发布月报 -- 25年12月  2025年末,DeepSeek 3.2强化推理与Agent能力,Mistral-3系列回归,智谱开源周连发GLM-4.6V、AutoGLM-Phone、RealVideo等多模态重磅模型~  文生图赛道卷出新高度:Flux2登场,Z-Image-Turbo 在6B规格上凭「10步内高质量出图+超强中英理解」引爆社区,生态迅猛崛起,魔搭Day 0全链路支持!  开源基建持续深耕:DiffSy 魔搭ModelScope社区 2025-12-17 09:20:03  118  加载更多 欢迎加入社区 取消 确定 ModelScope魔搭社区 加入社区 欢迎加入社区 取消 确定 提供社区服务与技术支持 提供社区服务与技术支持 ©1999-2023北京创新乐知网络技术有限公司 京ICP备19004658号

网站标题

ModelScope魔搭社区

关键词

ModelScope魔搭社区

站点描述

ModelScope魔搭社区 -ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单。