← All projects

RWKV-LM

C+17/40训练 / ML洞察置信度:

RWKV (pronounced RwaKuv) is an RNN with great LLM performance, which can also be directly trained like a GPT transformer (parallelizable). We are at RWKV-7 "Goose". So it's combining the best of RNN and transformer - great performance, linear time, constant space (no kv-cache), fast training, infinite ctx_len, and free sentence embedding.

14,448PythonCreated 2021-08-08GitHub →
attention-mechanismchatgptdeep-learninggptgpt-2gpt-3language-modellinear-attentionlstmpytorchrnnrwkvtransformertransformers

Executive Insight

RWKV-LM 属于「训练 / ML」方向,综合分 17/40(C+)。当前最强项是 多模态、评估与验证、人机协作,短板集中在 记忆系统、工具使用。

核心优势

  • - 多模态达到 3/5(Level 3),说明该项目在这一能力上较成熟。
  • - 评估与验证达到 3/5(Level 3),说明该项目在这一能力上较成熟。
  • - 人机协作达到 3/5(Level 3),说明该项目在这一能力上较成熟。

能力短板

  • - 记忆系统仅 1/5,当前更像“可用基础版”,需要补齐工程化能力。
  • - 工具使用仅 1/5,当前更像“可用基础版”,需要补齐工程化能力。

适用场景

  • - 模型训练和微调
  • - 实验驱动算法团队

落地风险与建议

  • - 该条目为启发式分析,建议在核心决策前做一次仓库级人工复核。
  • - 补会话摘要与长期记忆存储,减少上下文丢失。
  • - 梳理工具调用协议,先统一输入输出,再做动态路由。

Intelligence Profile

LLM 集成Agent 自主性记忆系统工具使用知识检索 (RAG)多模态评估与验证人机协作

Dimensions

LLM 集成

Level 2

Level 2: 多轮对话 + Prompt 工程

Heuristic from category + topics — verify manually

Agent 自主性

Level 2

Level 2: 多步执行(人工每步确认)

Heuristic from category + topics — verify manually

记忆系统

Level 1

Level 1: 当前会话

Heuristic from category + topics — verify manually

工具使用

Level 1

Level 1: 硬编码 1-2 个工具

Heuristic from category + topics — verify manually

知识检索 (RAG)

Level 2

Level 2: Embedding + 向量检索

Heuristic from category + topics — verify manually

多模态

Level 3

Level 3: 多模态输入输出

Heuristic from category + topics — verify manually

评估与验证

Level 3

Level 3: 自动测试 + CI

Heuristic from category + topics — verify manually

人机协作

Level 3

Level 3: 审批流 + 权限分级

Heuristic from category + topics — verify manually

Architecture

training-ml ecosystem (GitHub)

RWKV (pronounced RwaKuv) is an RNN with great LLM performance, which can also be directly trained like a GPT transformer (parallelizable). We are at RWKV-7 "Goose". So it's combining the best of RNN and transformer - great performance, linear time, constant space (no kv-cache)…

GitHub Live Metrics

Loading live metrics...