20天狂宴Pytorch-Day1
结构化数据建模.
数据预处理
结构化数据一般会使用 Pandas 中的 DataFrame 进行预处理.
import numpy as np |
LLM 在语言理解和决策任务中表现出色, 但在推理和行动方面的能力很少被联系起来研究. 本文探讨了如何让 LLM 交错生成推理轨迹和针对任务的特定行动, 从而增强两者之间的协同作用: 推理轨迹帮助模型生成, 追踪并更新行动计划, 处理异常情况, 而特定行动允许模型与外部来源 (知识库或环境) 进行接口交互并获取额外信息. 作者将该方法命名为 ReAct (Reason+Act), 并将其应用于多种语言和决策任务, 展示了它在先进的基准上的有效性和更高的人类可读性与可靠性. ReAct 在问答和事实验证中, 通过和简单的维基百科 API 交互, 在思维链 (CoT) 中克服了普遍存在的幻觉和错误传播问题, 生成了类似人类的解决任务轨迹, 比基准更具可解释性, 不带推理痕迹. 此外, 在两个交互式决策基准测试中, ReAct 的成功率显著超过了模仿和强化学习方法, 只需在 prompt 中给出一两个上下文的例子.
丝之歌终于要出了, 我已经记不清我等了几年了. 我是高一玩的空洞, 所以应该是五年左右.
究竟是怎样的结局, 才配得上这一路的颠沛流离😭😭😭
大语言模型 (LLM) 在广泛的领域中取得了显著的成功, 展现出出色的规划和推理能力, 已经被用作自动执行许多任务的自主智能体. 近来, 基于使用一个 LLM 作为单一规划或决策智能体的发展, 基于 LLM 的多智能体系统在解决复杂问题和世界模拟方面取得了可观的进展. 为了给社区提供一个这个动态领域的概述, 本文深入讨论了基于 LLM 的多智能体系统的基本点和挑战. 本文主要聚焦于如下问题: 基于 LLM 的多智能体可以模拟哪些领域和环境? 这些智能体如何成形, 如何沟通? 智能体能力的提升用到了哪些机制?
起因是想把自己的待看清单传上来, 然后发现 hexo 默认不支持渲染这样的待办清单.
必应搜了一下没搜到, 遂去翻了一下 github issues, 找到了解决方法.
使用渲染器为hexo-renderer-markdown-it, 安装方法如下.
npm install hexo-renderer-markdown-it --save |
今天把老师让看的两篇 survey 其一看完了, 结果记笔记记了将近六千字, 而且一大半是在抄翻译, 而且一个重要动力是写完了能发博客上, 感觉我已经堕落成五颜六色荧光笔胶带便利贴学习博主了.
周三就又开组会了, 时间稍微有点紧. 这还没怎么开始已经感受到压力了. 唉. 回到住处没干什么又快十一点了, 感觉很难再抽大段时间打游戏或者画画了.
晚上下班看到公司门口有只橘猫在挠痒痒, 心情好了很多, 看来以后还是得养猫.
折腾了一下给博客换了个英文字体, 虽然影响不大不过感觉舒服了不少.
传统智能体训练方式一般侧重于在孤立环境中基于有限知识训练, 这与人类的学习过程有显著差别, 也导致智能体难以做出类似人类的决策. 近来, LLM 展示出了达到类人智能的潜力, 导致基于 LLM 的智能体研究数量激增. 本文对这些研究进行了全面调查, 给出了对基于 LLM 的智能体的系统回顾.
本文讨论了基于 LLM 的智能体的构建, 给出了一个统一框架, 概述了智能体在研究中的应用, 并研究了对其常用的评估策略, 提出了该领域的几个挑战和未来方向.
DeepSeek-R1-Distill-Qwen-1.5B 是 DeepSeek 第一代大模型之一, 基于 Qwen 架构, 经过知识蒸馏, 参数量约为 15 亿, 轻量化, 资源占用低, 中文适配优秀, 运行快.
为使用 Intel NPU 加速库运行该模型, 首先从 ModelScope 下载所需模型, 导入所需依赖库.
import intel_npu_acceleration_library |
随后设置模型基础参数.
model_name = r'deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B' |
根据 NPU 支持的数据类型, 指定dtype为float16.