RWKV-LM
C+17/40训练 / ML洞察置信度:中RWKV (pronounced RwaKuv) is an RNN with great LLM performance, which can also be directly trained like a GPT transformer (parallelizable). We are at RWKV-7 "Goose". So it's combining the best of RNN and transformer - great performance, linear time, constant space (no kv-cache), fast training, infinite ctx_len, and free sentence embedding.
Executive Insight
RWKV-LM 属于「训练 / ML」方向,综合分 17/40(C+)。当前最强项是 多模态、评估与验证、人机协作,短板集中在 记忆系统、工具使用。
核心优势
- - 多模态达到 3/5(Level 3),说明该项目在这一能力上较成熟。
- - 评估与验证达到 3/5(Level 3),说明该项目在这一能力上较成熟。
- - 人机协作达到 3/5(Level 3),说明该项目在这一能力上较成熟。
能力短板
- - 记忆系统仅 1/5,当前更像“可用基础版”,需要补齐工程化能力。
- - 工具使用仅 1/5,当前更像“可用基础版”,需要补齐工程化能力。
适用场景
- - 模型训练和微调
- - 实验驱动算法团队
落地风险与建议
- - 该条目为启发式分析,建议在核心决策前做一次仓库级人工复核。
- - 补会话摘要与长期记忆存储,减少上下文丢失。
- - 梳理工具调用协议,先统一输入输出,再做动态路由。
Intelligence Profile
Dimensions
LLM 集成
Level 2
Level 2: 多轮对话 + Prompt 工程
Agent 自主性
Level 2
Level 2: 多步执行(人工每步确认)
记忆系统
Level 1
Level 1: 当前会话
工具使用
Level 1
Level 1: 硬编码 1-2 个工具
知识检索 (RAG)
Level 2
Level 2: Embedding + 向量检索
多模态
Level 3
Level 3: 多模态输入输出
评估与验证
Level 3
Level 3: 自动测试 + CI
人机协作
Level 3
Level 3: 审批流 + 权限分级
Architecture
RWKV (pronounced RwaKuv) is an RNN with great LLM performance, which can also be directly trained like a GPT transformer (parallelizable). We are at RWKV-7 "Goose". So it's combining the best of RNN and transformer - great performance, linear time, constant space (no kv-cache)…
GitHub Live Metrics
Loading live metrics...