|
多头机制:并行计算多个注意力头,捕获不同子空间的信息 其中: 常见配置:
|
注意力头的分工:
|
Position Encoding (位置编码)
由于Transformer没有递归结构,需要显式编码位置信息:
Feed-Forward Network (前馈网络)
Layer Normalization (层归一化)
| 模型 | 参数 | 训练数据 | 关键创新 | 发布时间 |
|---|---|---|---|---|
| GPT-1 | 117M | BookCorpus | 生成式预训练 | 2018.06 |
| GPT-2 | 1.5B | WebText | Zero-shot能力涌现 | 2019.02 |
| GPT-3 | 175B | Common Crawl | In-context learning | 2020.05 |
| GPT-3.5 | 175B | Code+Text | RLHF, Instruction Tuning | 2022.03 |
| GPT-4 | ~1.8T* | 多模态数据 | 多模态, 更强推理 | 2023.03 |
| GPT-4o | ~1.8T* | 多模态数据 | 全模态实时交互 | 2024.05 |
*注:OpenAI未公开确切参数,为外界估计值
|
In-Context Learning
|
Chain-of-Thought
|
Instruction Following
|
金融工程中的涌现能力应用:
|
幻觉(Hallucination)
知识截止日期
数学计算不精确
|
上下文长度限制
可解释性不足
成本与延迟
|
| 模型 | 开发方 | 参数量 | 金融工程适用场景 |
|---|---|---|---|
| GPT-5.4 | OpenAI | 未公开(官方未披露参数量;强调最高可达 1M 上下文) | 复杂数学推理 + 量化代码生成、长链路策略/回测方案整理、Agent化的“分析-验证-交付”工作流 |
| Claude Opus 4.6 | Anthropic | 未公开(Anthropic 不披露参数量) | 长文档财报/研报的结构化抽取、合规/风控口径推导、严谨推理与“可审计”输出风格 |
| Claude Sonnet 4 | Anthropic | 未公开(官方未披露参数量;定位为更均衡的能力档) | 高频代码/规则生成、偏工程化的金融工具调用编排、需要更低延迟的推理与文书辅助 |
| Grok-4 | xAI | MoE 量级约 1.7T 参数(公开资料口径) | 需要结合实时信息/检索的市场解读、事件驱动的结构化分析、面向交易/风控的快速迭代原型 |
| Gemini 3.1 Pro | Google/DeepMind | 未公开(公开资料未披露参数量) | 金融图表/多模态理解、与 Google 生态(如工作流、表格)相关的分析与交付;多源证据整合 |
| 模型 | 开发方 | 参数量 | 金融工程适用场景 |
|---|---|---|---|
| GLM-5.1 | Z.AI | 约 754B 参数(公开资料口径) | 长上下文的策略推导、量化研究叙事与代码落地、面向“较长期限/较复杂约束”的规划型任务 |
| MiniMax-2.7 | MiniMax | 约 230B 参数(公开资料口径) | 工程交付/代码生成、批量报表处理逻辑、偏“工具链编排”的金融软件开发辅助 |
| Kimi-2.6 | Moonshot AI | MoE:约 1T 总参数、激活约 32B(公开资料口径) | 中文长文档理解、研报/公告的结构化抽取、用于回测数据口径梳理与一致性检查 |
| MiMo(MiMo-V2-Pro) | 小米 | MoE:总参数约 1T+、激活约 42B(公开资料口径) | 面向 Agent/工具调用的金融工作流编排、长上下文多步任务(尽调/研究/交付)与代码化输出 |
| Qwen 3 max | 阿里巴巴 | 超过 1T 参数(公开资料口径) | 复杂中文指令下的代码与表格/脚本生成、量化研究的多轮推导、对齐“可复现实验”的脚本输出 |
| DeepSeek v4 | DeepSeek | MoE:总参数约 1.6T,推理激活约 49B(公开资料口径) | 金融数学推理(期权/定价/推导)、需要高质量推理的策略验证、开源生态中可复用的研究范式 |
DeepSeek v4:强推理、可复用研究范式(期权定价 / 参数推导 / 策略验证)GPT-5.4:把推导转成可执行代码/流程(多步实现与落地)Claude Opus 4.6:长链路严谨推理 + “计划-生成-校验”(更适合持续任务)Claude Opus 4.6:长文本阅读 + 可追溯结构化输出(口径写清、依据拆出)Kimi-2.6:中文长文档结构化抽取、口径一致性检查、公告/研报关键信息整理GLM-5.1:较长上下文的策略叙事与规划型任务(把“假设-口径-步骤”串起来)Gemini 3.1 Pro:读图/读表 + 结构化提取 + 生成解释/结论Qwen 3 max:把理解结果进一步转成脚本/表格/可复现实验代码与流程Grok-4:事件驱动快速解读、市场叙事原型、快速形成可用框架/草案MiniMax-2.7:工程交付与工具链编排(把逻辑批处理成可跑模块)Claude Sonnet 4:高效代码生成 + 多步工具调用编排(工程化、性价比)Qwen 3 max:中文指令下输出更完整的脚本/工作流/可复现实验产物MiMo:Agent式工作流/快速迭代补位,用于自动化执行链路、减少人工中断关键趋势:LLM从"对话助手"演变为"AI Agent"——自主规划、工具调用、多步推理。
1.3 提示工程Prompt Engineering for Finance |
|
|
1. 明确具体 (Specific) |
2. 提供上下文 (Contextual) |
3. 指定输出格式 (Structured) |
|
|
|
|
|
|
|
|
Few-shot示例:情感分析应用于金融新闻
对以下金融新闻进行情感分类(positive/negative/neutral):
新闻1:"公司宣布盈利超预期,股价上涨5%"
情感:positive
新闻2:"监管机构对行业展开反垄断调查"
情感:negative
新闻3:"公司发布董事会改选公告"
情感:neutral
新闻4:"央行维持利率不变,符合市场预期"
情感:
原则:提供3-5个高质量示例,覆盖不同类别,保持一致格式。
零样本CoT:在提示后加 "Let's think step by step" 或 "请逐步分析"
金融分析示例:
请分析:如果美联储在通胀率3.5%的情况下降息25bp,
对10年期国债收益率可能产生什么影响?请逐步分析。
步骤1:当前通胀率3.5%高于美联储2%目标
步骤2:在此背景下降息是鸽派信号,可能被市场解读为...
步骤3:历史上类似情况下,收益率曲线通常...
步骤4:综合判断,10年期收益率可能...
CoT-SC (Self-Consistency):
ReAct在金融中的应用:
第1版 — 模糊提示:
Prompt: "分析这只股票"
LLM输出: "这是一只中等市值的科技股,有一定的增长潜力..."
问题: 太泛,没有具体的分析框架和量化指标
第2版 — 结构化提示:
Prompt: "分析茅台(600519)的投资价值。请从以下维度分析:
1. 财务指标(PE/PB/ROE/毛利率)
2. 行业地位
3. 近期催化剂
4. 风险因素"
LLM输出: 有结构的分析,但仍然主观,缺少量化基准
第3版 — 量化约束提示:
Prompt: "分析茅台(600519)。要求:
- 对比近5年PE中位数和当前PE,计算偏离度
- 用Z-score评估当前估值水位
- 列出未来3个月已知催化剂及历史同类事件的市场反应
- 用FinBERT评估最近1个月新闻的情感分数
格式: Markdown表格 + 每项附量化数据"
LLM输出: 高度结构化、可量化验证的分析
模板1:财报分析
你是一位资深金融分析师。请分析以下财务数据:
公司:{company_name}
财报期间:{period}
关键数据:{financial_data}
请从以下维度分析:
1. 营收增长趋势与驱动因素
2. 利润率变化及原因
3. 现金流质量
4. 风险提示
5. 投资建议(基于数据,非预测)
格式:Markdown,每个维度2-3个要点。
模板2:策略回测代码生成
你是一个量化交易研究员。请用Python Backtrader框架实现一个策略:
策略类型:{strategy_type}
参数:{parameters}
数据格式:{data_format}
输出要求:{output_requirements}
请包含完整的策略类定义、参数设置和运行代码。
并添加注释说明关键逻辑。
模板3 — 研报分析:
分析以下研报的核心观点:
[研报内容]
要求:
1. 提取3个核心论断,每个100字以内
2. 给出每个论断的可信度评分(1-10)及理由
3. 识别潜在的乐观/悲观偏见
4. 列出研报中提到的具体数字(目标价、EPS预测等)
模板4 — 风险评估:
评估以下投资组合的风险:
投资组合: [持仓列表+权重]
要求:
1. 行业集中度分析
2. 风格暴露(大盘/小盘/价值/成长)
3. 压力测试:假设沪深300下跌20%,估算组合损失
4. 给出3条降低风险的具体建议
Few-shot注意事项:
JSON Mode 示例:
从以下新闻中提取金融实体和事件:
新闻:"2025年3月15日,宁德时代宣布2024年全年营收
同比增长15.4%,净利润突破500亿元。同时公司宣布
10送8的分红方案。"
请输出JSON格式:
{
"company": "宁德时代",
"date": "2025-03-15",
"financial_metrics": [
{"metric": "营收增长率", "value": 15.4, "unit": "%"},
{"metric": "净利润", "value": 500, "unit": "亿元"}
],
"events": [
{"event": "分红方案", "detail": "10送8"}
],
"sentiment": "positive"
}
1.4 RAG技术Retrieval-Augmented Generation |
|
RAG vs 纯LLM:RAG让LLM可以访问外部知识,缓解幻觉问题,适用于需要最新信息的金融场景。
| 策略 | 方法 | 优点 | 缺点 | 适用场景 |
|---|---|---|---|---|
| 固定大小分块 | 按字符/token数切分 | 简单统一 | 可能切断语义 | 通用文档 |
| 递归分块 | 按段落 → 句子层级 | 语义完整 | 块大小不统一 | 结构化文档 |
| 语义分块 | 按语义边界切分 | 语义完整 | 需要额外模型 | 高质量需求 |
| 滑动窗口 | 重叠分块 | 信息不丢失 | 数据冗余 | 关键信息密集 |
金融文档推荐:
|
常用Embedding模型
|
常用向量数据库
|
基础检索:直接检索与Query最相似的Top-K文档块
|
HyDE (假设性文档嵌入):
|
RAG-Fusion:
|
金融RAG实践:
案例:实时财报问答系统
场景:分析师需要快速查询多家公司的财务指标
数据源:过去5年A股上市公司年报(PDF格式)
分块策略:按章节+表格分块,保留章节标题元数据
检索策略:先检索章节标题,再检索内容
增强策略:将检索到的数据与当前市场数据结合
用户Query:
"宁德时代2024年的研发投入占营收比例是多少?"
RAG流程:
1. 检索"宁德时代 2024 研发投入"相关内容
2. 找到财报"研发投入"章节的具体数据
3. 将数据+Query送入LLM
4. LLM计算比例并给出分析
1.5 Multi-Agent框架多智能体协作系统 |
|
|
graph LR
User --> Agent1["Agent
全能型"] Agent1 --> Tool1["工具1"] Agent1 --> Tool2["工具2"] Agent1 --> Tool3["工具3"] |
graph LR
User2["用户"] --> Orchestrator["协调者
Orchestrator"] Orchestrator --> Analyst["分析师Agent 数据分析"] Orchestrator --> Strategist["策略师Agent 策略制定"] Orchestrator --> RiskManager["风控Agent 风险评估"] Orchestrator --> Executor["执行Agent 交易执行"] |
多Agent优势:专业化分工、相互校验、风险隔离、可扩展
核心架构:基于多Agent协作的股票交易系统
TradingAgents/
├── Analyst Agent # 分析Agent: 市场数据、财务报表、新闻
├── Strategist Agent # 策略Agent: 生成交易信号
├── Risk Manager Agent # 风控Agent: 评估风险敞口
├── Portfolio Manager Agent # 组合Agent: 最终决策
├── Executor Agent # 执行Agent: 下单执行
└── Memory Module # 记忆模块: 历史经验存储
关键特性:
AutoGen框架 (微软)核心概念:
|
|
Function Calling:LLM生成结构化的函数调用请求
|
|
1.6 Obsidian + Claude Code个人知识库搭建 |
|
|
知识碎片化挑战
|
AI时代的知识管理
|
核心理念:知识不是孤立的点,而是相互连接的网。个人知识库让你构建自己的"第二大脑"。
|
本地优先
|
双向链接
|
插件生态
|
Claude Code 可以直接在终端中操作Markdown文件,实现AI辅助知识管理:
# 在Obsidian仓库中直接使用Claude Code
cd path/to/your/obsidian/vault
# Claude Code可以:
# 1. 阅读和理解现有笔记
# 2. 总结和提炼关键信息
# 3. 创建新的笔记并建立链接
# 4. 跨笔记分析和综合
# 5. 重构和重组知识结构
工作模式:
fe-knowledge-vault/
├──
01-理论基础/
│ ├── 随机过程.md
│ ├── 时间序列分析.md
│ ├── 金融计量经济学.md
│ └── 优化理论.md
├──
02-资产定价/
│ ├── BS模型.md
│ ├── 二叉树方法.md
│ ├── 蒙特卡洛模拟.md
│ └── 随机波动率模型.md
├──
03-量化交易/
│ ├── 因子模型/
│ │ ├── Fama-French三因子.md
│ │ └── 机器学习因子.md
│ ├── 统计套利.md
│ ├── 高频交易.md
│ └── Backtrader框架.md
├──
04-风险管理/
│ ├── VaR与CVaR.md
│ ├── 压力测试.md
│ ├── 组合优化.md
│ └── 风险平价.md
├──
05-LLM与AI/
│ ├── Transformer架构.md
│ ├── Prompt工程.md
│ ├── RAG技术.md
│ └── AI Agent框架.md
├──
06-市场数据/
│ ├── A股市场特征.md
│ ├── 衍生品市场.md
│ └── 宏观指标.md
├──
07-课程笔记/
│ └── 金融工程前沿/
└──
08-研究项目/
├── 正在进行的项目.md
└── 论文阅读笔记/
---
tags: [论文, 量化交易, 2025]
authors: [作者1, 作者2]
journal: 期刊名称
year: 2025
---
# 论文标题
## 核心问题
<!-- 本文试图解决什么金融工程问题? -->
## 方法与创新
<!-- 使用了什么新方法/模型? -->
## 数据与实验
- 数据来源:
- 时间跨度:
- 主要结果:
## 关键结论
## 与[[相关笔记]]的联系
## 我的思考
<!-- 对本人的研究/实践的启示 -->
---
tags: [交易策略, 因子, 回测]
status: 实验中
---
# 策略名称
## 策略逻辑
<!-- 核心逻辑和假设 -->
## 实现方式
- 工具/框架:
- 代码位置:`code/strategies/`
## 回测结果
| 指标 | 数值 |
|------|------|
| 年化收益 | |
| Sharpe | |
| Max DD | |
## 风险评估
## 改进方向
|
场景1:论文阅读与总结
|
场景2:知识综合与对比
|
|
场景3:代码与笔记关联
|
场景4:定期知识回顾
|
|
原子化笔记
渐进式归纳
|
双向链接
Claude Code协作
|
|
步骤1:安装Obsidian
|
步骤2:创建目录结构
|
|
步骤3:安装关键插件
|
步骤4:编写第一篇笔记
|
|
步骤5:集成Claude Code
|
步骤6(可选):跨设备同步 |
1.7 LLM本地部署Local LLM Deployment |
|
| 维度 | 本地部署 | API调用 |
|---|---|---|
| 数据安全 | ||
| 延迟 | ||
| 成本 | 一次性硬件 | 按量付费 |
| 模型能力 | 开源模型(LLaMA, Qwen等) | 闭源顶尖(GPT-4, Claude) |
| 维护成本 | 需要自行维护 | 服务商维护 |
| 定制化 | 可微调 | 有限定制 |
金融场景建议:
# 安装Ollama(支持Windows/macOS/Linux)
# 下载地址:https://ollama.ai
# 拉取模型
ollama pull llama3.1:8b
ollama pull qwen2.5:7b
ollama pull mistral:7b
# 运行模型
ollama run llama3.1:8b
# API接口(兼容OpenAI格式)
curl http://localhost:11434/api/chat \
-d '{
"model": "llama3.1:8b",
"messages": [
{"role": "user", "content": "解释什么是VaR"}
]
}'
Ollama优势:一键部署、OpenAI兼容API、模型管理、GPU加速
| 框架 | 部署难度 | 性能 | 金融特性 | 最佳场景 |
|---|---|---|---|---|
| Ollama | 极简 | 良好 | 一键部署、本地私有 | 个人投研、课程项目 |
| vLLM | 中等 | 极佳 | 企业级高性能推理 | 机构量化分析、高频处理 |
| LangChain | 中等 | 良好 | 多源数据链接、工具调用 | 复杂金融应用、RAG系统 |
| FastChat | 简单 | 良好 | OpenAI接口兼容 | 量化交易API、研究原型 |
| FinNLP | 中等 | 良好 | 金融NLP专用、财报处理 | 财经文本分析、舆情监控 |
功能特性对比:
| 特性 | Ollama | vLLM | LangChain | FastChat | FinNLP |
|---|---|---|---|---|---|
| 一键部署 | △ | △ | |||
| 量化支持 | △ | ||||
| 金融API集成 | △ | △ | |||
| 数据隐私保护 | |||||
| 多模型协作 | △ | △ | |||
| 金融知识增强 |
选型建议:
课程项目: Ollama (快速上手)
研究原型: FastChat + LangChain
机构部署: vLLM + LangChain
金融NLP : FinNLP + LangChain
核心参数:
| 参数 | 范围 | 默认值 | 作用 |
|---|---|---|---|
| Temperature | 0.0-2.0 | 0.7 | 控制随机性/创造性 |
| Top_p (核采样) | 0.0-1.0 | 0.9 | 累积概率阈值 |
| Top_k | 0-100 | 50 | 限制候选词数量 |
| Presence Penalty | -2.0-2.0 | 0.0 | 抑制已出现内容 |
| Frequency Penalty | -2.0-2.0 | 0.0 | 抑制高频词 |
| Max Tokens | 1-∞ | 模型相关 | 限制生成长度 |
场景化推荐配置:
| 场景 | Temperature | Top_p | Max_tokens | 说明 |
|---|---|---|---|---|
| 金融分析/问答 | 0.1-0.3 | 0.8 | 1000-2000 | 低随机性,高准确性 |
| 代码生成 | 0.0-0.2 | 0.9 | 2000-4000 | 确定性输出 |
| 产品说明书/报告 | 0.3-0.5 | 0.9 | 2000-4000 | 适度创造性 |
| 情景分析/头脑风暴 | 0.6-0.8 | 0.95 | 1500-3000 | 高多样性 |
| 合规审查 | 0.0-0.1 | 0.8 | 1000-2000 | 严格一致性 |
常见问题排查:
| 模型 | 参数量 | 中文能力 | 金融专长 | 硬件需求 |
|---|---|---|---|---|
| Qwen2.5 | 7B-72B | 通用强 | 7B: 8GB VRAM | |
| LLaMA 3.1 | 8B-70B | 英文强 | 8B: 8GB VRAM | |
| Mistral | 7B-8x22B | 推理强 | 7B: 8GB VRAM | |
| DeepSeek-Coder | 6.7B-33B | 代码强 | 6.7B: 8GB VRAM | |
| FinMA | 7B-30B | 金融专用 | 7B: 8GB VRAM | |
| BLOOM | 7.1B-176B | 多语言 | 7.1B: 8GB VRAM |
量化级别:Q4_K_M (4bit) 可在8GB显存运行7B模型,Q8_0 (8bit) 需要16GB
金融专用模型:FinMA (金融领域预训练)、BloombergGPT (金融数据训练)
# 使用本地Ollama模型构建金融RAG系统
from langchain_community.llms import Ollama
from langchain_community.embeddings import OllamaEmbeddings
from langchain_community.vectorstores import ChromaDB
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.chains import RetrievalQA
# 初始化本地LLM
llm = Ollama(
model="qwen2.5:7b",
temperature=0.1,
top_p=0.9
)
# 初始化Embedding
embeddings = OllamaEmbeddings(
model="nomic-embed-text"
)
# 文档处理
text_splitter = RecursiveCharacterTextSplitter(
chunk_size=1000,
chunk_overlap=200
)
# 构建金融RAG链
qa_chain = RetrievalQA.from_chain_type(
llm=llm,
chain_type="stuff",
retriever=vector_store.as_retriever(
search_kwargs={"k": 5}
)
)
# 金融问题查询
response = qa_chain.run(
"根据2024年年报,该公司的资产负债率变化趋势如何?"
)
Chain类型对比:
| Chain | 特点 | 金融应用 |
|---|---|---|
| LLMChain | 单次LLM调用 | 简单分析 |
| SequentialChain | 多步骤串联,前一步输出→后一步输入 | 分析→信号→决策 |
| RouterChain | 根据输入路由到不同Chain | 不同市场状态→不同策略 |
| MapReduceChain | 并行处理→汇总 | 批量研报分析 |
| ConversationChain | 多轮对话+记忆 | 投资顾问对话 |
Memory在金融对话中的应用:
from langchain.memory import ConversationSummaryMemory
memory = ConversationSummaryMemory(
llm=llm,
max_token_limit=500 # 金融对话信息密度高
)
# 保留"用户风险偏好R4、投资期限2年、关注新能源"等关键信息
# 而非保留完整对话历史 → 省token + 聚焦
完整RAG Pipeline:
from langchain.document_loaders import PyPDFLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.vectorstores import Chroma
from langchain.chains import RetrievalQA
# 1. 加载金融文档
loader = PyPDFLoader("annual_report_2024.pdf")
docs = loader.load()
# 2. 文档切分 (金融文档用较大的chunk保持上下文)
splitter = RecursiveCharacterTextSplitter(
chunk_size=1000, chunk_overlap=150,
separators=["\n##", "\n#", "\n", "。", "."]
)
chunks = splitter.split_documents(docs)
# 3. 向量化存储
vectorstore = Chroma.from_documents(
chunks, embedding=OllamaEmbeddings(model="nomic-embed-text")
)
# 4. 检索增强回答
qa = RetrievalQA.from_chain_type(
llm=llm, chain_type="stuff",
retriever=vectorstore.as_retriever(search_kwargs={"k": 5})
)
qa.run("公司在2024年的研发投入占比是多少?趋势如何?")
1.8 实践环节Hands-on Practice |
|
# 步骤1:安装Ollama
# 访问 https://ollama.ai 下载安装
# 步骤2:拉取模型
ollama pull qwen2.5:7b
ollama pull nomic-embed-text
# 步骤3:验证安装
ollama list
# 步骤4:安装Python依赖
pip install langchain langchain-community chromadb
pip install jupyter notebook
# 步骤5:测试API
curl http://localhost:11434/api/generate \
-d '{
"model": "qwen2.5:7b",
"prompt": "什么是金融工程?用一句话回答"
}'
# Jupyter Notebook: 01_basic_llm_call.ipynb
from openai import OpenAI
# 连接本地Ollama(兼容OpenAI接口)
client = OpenAI(
base_url="http://localhost:11434/v1",
api_key="ollama" # Ollama不需要真实API key
)
# 基础对话
response = client.chat.completions.create(
model="qwen2.5:7b",
messages=[
{"role": "system", "content": "你是一个金融工程助手"},
{"role": "user", "content": "解释Black-Scholes公式的假设条件"}
],
temperature=0.1
)
print(response.choices[0].message.content)
# 结构化输出
response = client.chat.completions.create(
model="qwen2.5:7b",
messages=[
{"role": "user", "content": """
分析以下股票的优缺点,输出JSON格式:
- 代码:600519.SH
- 名称:贵州茅台
格式:{"ticker": str, "strengths": list[str], "risks": list[str]}
"""}
],
temperature=0.1
)
# Jupyter Notebook: 02_finance_agent.ipynb
from langchain.agents import Tool, AgentExecutor, create_react_agent
from langchain_community.llms import Ollama
from langchain.prompts import PromptTemplate
from langchain_community.utilities import DuckDuckGoSearchAPIWrapper
# 1. 定义金融工具
tools = [
Tool(
name="金融计算器",
func=lambda expr: f"计算结果: {eval(expr)}",
description="执行数学计算,输入应为数学表达式"
),
Tool(
name="信息检索",
func=DuckDuckGoSearchAPIWrapper().run,
description="搜索金融相关信息"
)
]
# 2. 创建ReAct Agent
prompt = PromptTemplate.from_template("""
你是一个金融工程研究助手。你有以下工具可用:
{tools}
请使用中文回答问题。
问题: {input}
{agent_scratchpad}
""")
# 3. Agent执行
llm = Ollama(model="qwen2.5:7b", temperature=0)
agent = create_react_agent(llm, tools, prompt)
agent_executor = AgentExecutor(
agent=agent,
tools=tools,
verbose=True,
handle_parsing_errors=True
)
# 4. 测试
result = agent_executor.invoke({
"input": "计算贵州茅台(600519)如果PE从30倍变为25倍,股价变化百分比是多少?"
})
print(result["output"])
任务:创建本周学习笔记
---
tags: [W1, LLM, AI-Agent]
created: 2025-09-xx
---
# Week 1 学习笔记
## 核心概念
1. **Transformer注意力机制**:QKV三矩阵计算注意力权重
- 关联:[[自注意力机制详解]]
2. **RAG技术**:检索增强生成解决幻觉问题
- 关联:[[RAG架构]]
3. **Multi-Agent框架**:多智能体协作交易系统
- 关联:[[TradingAgents]]
## 关键代码片段
## 疑问与思考
- [ ] Transformer的KV-Cache到底如何工作?
- [ ] RAG的分块策略对金融文档检索精度的影响?
- [ ] 多Agent框架的通信开销问题?
## 延伸阅读
- [[Attention Is All You Need]] 论文笔记
- [[TradingAgents框架分析]]
|
核心收获
预习准备
|
下周预告
|
金融工程领域AI伦理核心议题:
|
数据安全与隐私
学术诚信
|
公平与包容性
负责任使用原则
|
金融AI伦理红线:
经典论文
金融LLM研究
工具文档
### 实践报告要求 ``` 提交内容: 1. Jupyter Notebook(.ipynb) - 包含实践2和3的完整代码和输出 - 添加Markdown注释说明关键步骤 2. Obsidian笔记(.md) - 本周核心概念笔记 - 至少3个内部链接 - 包含代码片段或公式 3. 简短的反思报告(200-300字) - 遇到了什么问题?如何解决的? - LLM在金融中的优缺点体会 - 对知识管理的理解 提交方式:Git提交到课程仓库 截止时间:下次课前24小时 ```