FinGPT:革新金融领域的开源大语言模型
在人工智能飞速发展的今天,大型语言模型(LLMs)正逐步渗透到各行各业。金融科技(FinTech)领域也不例外,对能够理解和处理复杂金融数据的LLMs有着巨大需求。然而,华尔街的机构通常不会开源其专有的大语言模型或开放API,这使得中小企业和研究机构难以接触到顶级的金融AI能力。正是在这样的背景下,FinGPT项目应运而生,旨在通过开源的方式,彻底改变金融大语言模型的格局。
FinGPT是一个致力于开发开源金融大语言模型的项目,它不仅发布了经过训练的模型在HuggingFace上,还提供了一整套解决方案,以实现金融领域的人工智能民主化。
FinGPT为何脱颖而出?
FinGPT的出现并非偶然,它精准地解决了当前金融AI领域的几个核心痛点:
动态金融环境下的高效适应性:金融市场瞬息万变,数据更新速度极快。像BloombergGPT这样的大模型,训练一次耗资约300万美元,耗时约53天。每月或每周重新训练这样的模型是极其昂贵的。FinGPT采用轻量级适应策略,能够迅速整合新数据进行微调,将每次微调的成本显著降低至300美元以下,这使得模型能够及时响应市场变化。
互联网级金融数据的普惠化:BloombergGPT拥有特权数据访问和API,而FinGPT则致力于使互联网规模的金融数据更易获取。通过自动化数据整理管道,FinGPT实现了模型的及时更新(例如每月或每周更新),利用最优秀的开源LLMs提供了一个更具可访问性的替代方案。
融入RLHF,实现个性化服务:BloombergGPT缺乏“人类反馈强化学习”(RLHF)技术,而这正是ChatGPT和GPT-4成功的“秘密武器”。RLHF使LLM模型能够学习个人偏好,如风险承受能力、投资习惯等,从而提供个性化的智能投顾服务。FinGPT将RLHF纳入其核心技术,为实现高度定制化的金融咨询服务奠定了基础。
最新进展速览
FinGPT项目自发布以来,持续取得显著进展,不断丰富其功能和生态系统:
- FinGPT-Forecaster发布:2023年11月,FinGPT-Forecaster正式推出,这是AI智能投顾发展的重要里程碑。用户可以在HuggingFace Spaces上体验其演示,获取个股分析和未来一周股价预测。
- 多项研究论文被顶会接受:FinGPT在2023年10月和7月有多篇关于指令微调、数据民主化和检索增强型LLMs的论文被NeurIPS和IJCAI FinLLM等顶级会议和研讨会接受,证明了其研究的领先性。
- 多任务金融LLMs和情感分析模型发布:FinGPT持续在HuggingFace上发布经过微调的金融多任务LLMs和专门的金融情感分析模型,为开发者和研究人员提供强大的工具。
FinGPT核心演示与性能
FinGPT提供了一系列强大的功能演示,尤其在金融情感分析领域表现卓越:
金融情感分析的领先表现
FinGPT V3系列模型通过使用LoRA方法对新闻和推文情感分析数据集进行微调,在单张RTX 3090显卡上即可实现最佳可训练和可推理的性能。其在多个金融情感分析数据集上的表现甚至超越了GPT-4和ChatGPT微调模型,同时成本极低。
加权F1分数 | FPB | FiQA-SA | TFNS | NWGI | 设备 | 时间 | 成本 |
---|---|---|---|---|---|---|---|
FinGPT v3.3 | 0.882 | 0.874 | 0.903 | 0.643 | 1 × RTX 3090 | 17.25小时 | $17.25 |
OpenAI Fine-tune | 0.878 | 0.887 | 0.883 | - | - | - | - |
GPT-4 | 0.833 | 0.630 | 0.808 | - | - | - | - |
BloombergGPT | 0.511 | 0.751 | - | - | 512 × A100 | 53天 | $2.67百万 |
成本效益:FinGPT的微调成本远低于商业模型。例如,BloombergGPT的估计成本高达267万美元,而FinGPT V3.3在RTX 3090上的训练成本仅为17.25美元,展现了无与伦比的成本优势。
指令微调数据集与模型
FinGPT在HuggingFace上提供了丰富的指令微调数据集和多任务金融LLM模型,涵盖了金融情感分析、关系抽取、新闻标题分析和命名实体识别等任务。这使得开发者可以轻松地复现结果或基于这些资源进行二次开发。
FinGPT生态系统概览
FinGPT构建了一个完整的金融大语言模型全栈框架,包含五个核心层级:
- 数据源层:确保全面的市场覆盖,通过实时信息捕获解决金融数据的时间敏感性问题。
- 数据工程层:专为实时NLP数据处理设计,应对金融数据固有的高时间敏感性和低信噪比挑战。
- LLMs层:专注于LoRA等多种微调方法,旨在缓解金融数据的高度动态性,确保模型的相关性和准确性。
- 任务层:负责执行基础任务,作为FinLLMs性能评估和跨模型比较的基准。
- 应用层:展示实际应用和演示,突显FinGPT在金融领域的潜在能力。
此外,FinGPT生态系统还包括:
- FinGPT-RAG:一个为金融情感分析设计的检索增强型大语言模型框架,通过外部知识检索优化信息深度和上下文。
- FinGPT-FinNLP:为所有对LLMs和金融NLP感兴趣的人提供了一个训练和微调的完整管道。
- FinGPT-Benchmark:引入了一种新颖的指令微调范式,以增强开源LLMs在金融数据集中的适应性,并促进成本效益高的系统基准测试。
支持的开源基础模型
FinGPT的LLMs层支持多种开源基础模型,并鼓励贡献更多针对特定语言金融市场的模型:
基础模型 | 预训练Token数 | 上下文长度 | 模型优势 | 模型尺寸 | 实验结果 | 应用领域 |
---|---|---|---|---|---|---|
Llama-2 | 2万亿 | 4096 | 擅长英文市场数据 | 7b, 13b | 持续展现卓越的微调效果 | 金融情感分析,智能投顾 |
ChatGLM2 | 1.4万亿 | 32K | 卓越的中文语言表达能力 | 6b | 在中文市场数据上表现出色 | 金融情感分析,财务报告摘要 |
Qwen | 2.2万亿 | 8k | 快速响应和高准确性 | 7b | 对中文市场数据有效 | 金融情感分析 |
Falcon | 1,500亿 | 2048 | 保持高质量结果,资源效率更高 | 7b | 适用于英文市场数据 | 金融情感分析 |
MPT | 1万亿 | 2048 | 训练吞吐量高,收敛稳定 | 7b | 适用于英文市场数据 | 金融情感分析 |
Bloom | 3660亿 | 2048 | 全球最大的开放多语言模型 | 7b1 | 适用于英文市场数据 | 金融情感分析 |
InternLM | 1.8万亿 | 8k | 可灵活独立构建工作流 | 7b | 对中文市场数据有效 | 金融情感分析 |
FinGPT在金融情感分析任务中对这些开源基础模型进行了基准测试,结果证明了不同模型在处理金融数据方面的潜力,尤其是在成本效益和特定语言市场的表现。
总结与展望
FinGPT项目通过其开源策略、创新的轻量级适应方法、RLHF的应用以及构建全面的生态系统,正在积极推动金融大语言模型的民主化进程。它不仅为研究人员和开发者提供了强大的工具和资源,也为金融机构提供了一个成本效益高、响应迅速的AI解决方案。随着FinGPT生态的不断完善和社区的持续贡献,它有望成为金融科技领域不可或缺的基石,引领智能金融新时代。
免责声明
我们出于学术目的,在MIT教育许可下分享代码。本文所含内容并非金融建议,也不构成任何真实资金交易的推荐。请运用常识,并在进行交易或投资前务必咨询专业人士。