🧠 欢迎来到我的生成式人工智能应用展示页,在这里我分享一些我在生成式人工智能领域的实践和思考。我专注于探索 Agents 设计、插件和 API 生态,以及 Langchain 和 CrewAI 等基础框架,并致力于将这些技术应用于解决实际商业问题。
🚀 我相信,生成式人工智能的力量将彻底改变企业的战略管理和营销方式。我希望能与更多志同道合的人一起,共同探索生成式人工智能的无限可能,并帮助中国企业在海外市场取得成功!
战略管理服务: 利用生成式人工智能技术,分析海量数据,识别趋势,洞察市场,为企业提供精准的战略制定和决策支持。
营销工具: 开发基于生成式人工智能的营销工具,帮助企业实现自动化内容创作、精准目标受众分析、个性化推荐等功能,提升营销效率。
我拥有高级工商管理硕士学位,NPDP新产品开发专家认证持证,致力于将生成式人工智能技术应用于商业实践。
我的专长在于 Agents 设计、插件和 API 生态,以及 Langchain 和 CrewAI 等基础框架的应用。
我热衷于探索人工智能的无限可能,并持续学习最新的技术和应用。
欢迎访问我的网站 5loi.com,了解更多信息,并与我交流您的想法!
产品社区资源:
- 欢迎加入 🌿觅识 社区 AI PM「人工智能产品管理」
技术研究资源:
目标: 深入理解生成式AI核心概念、模型架构、训练方法以及应用,并了解领域前沿研究。
计划安排:
日期 | 学习内容 | 学习材料 & 链接 | 目标 & 要求 |
---|---|---|---|
第一周:基础与Transformer架构 | |||
Day 1 | 生成式AI生命周期 | Generative AI on AWS: Building Context-Aware, Multimodal Reasoning Applications (第一章) * Link 链接 🔗 | 了解生成式AI生命周期各个阶段 |
Day 2 | 词向量与语言模型 | Vector Space Models (DeepLearning.AI NLP Specialization) * Link 链接 🔗 | 回顾词向量和语言模型基础 |
Day 3 | Transformer架构与自注意力机制 | Attention Is All You Need * Download 下载 ⏬ | 掌握Transformer架构核心,理解自注意力机制 |
Day 4 | 大型语言模型训练:BLOOM | BLOOM: BigScience 176B Model * Link 链接 🔗 | 了解大型语言模型训练过程,以BLOOM为例 |
Day 5 | 模型缩放法则 | Scaling Laws for Neural Language Models * Download 下载 ⏬ | 理解模型缩放法则,学习如何选择合适的模型大小和训练数据量 |
Day 6 | 模型架构与预训练目标选择 | What Language Model Architecture and Pretraining Objective Work Best for Zero-Shot Generalization? * Download 下载 ⏬ | 了解不同模型架构和预训练目标对零样本泛化能力的影响 |
Day 7 | HuggingFace模型库与高效LLM | HuggingFace Tasks and Model Hub, LLaMA: Open and Efficient Foundation Language Models | 学习使用HuggingFace模型库,了解高效LLM设计思路 |
第二周:微调、评估与参数高效微调 | |||
Day 8 | 指令微调与缩放 | Scaling Instruction-Finetuned Language Models * Download 下载 ⏬ | 掌握指令微调方法,了解其缩放规律 |
Day 9 | FLAN: 基于指令微调的模型 | Introducing FLAN: More generalizable Language Models with Instruction Fine-Tuning - Link 链接 🔗 | 了解FLAN模型,学习如何构建更通用的语言模型 |
Day 10 | 语言模型评估指标:HELM | * HELM - Holistic Evaluation of Language Models - Link 链接 🔗 | 了解全面的语言模型评估方法,重点关注HELM |
Day 11 | 参数高效微调:LoRA | LoRA: Low-Rank Adaptation of Large Language Models - Download 下载 ⏬ | 深入理解LoRA的工作原理,学习如何使用低秩矩阵进行模型微调 |
Day 12 | 参数高效微调:Prompt Tuning | The Power of Scale for Parameter-Efficient Prompt Tuning - Download 下载 ⏬ | 掌握Prompt Tuning技术,学习如何通过优化Prompt来提高模型性能 |
Day 13 | 参数高效微调方法综述 | Scaling Down to Scale Up: A Guide to Parameter-Efficient Fine-Tuning - Download 下载 ⏬ | 了解不同参数高效微调方法的优缺点和适用场景 |
Day 14 | PEFT方法有效性分析 | On the Effectiveness of Parameter-Efficient Fine-Tuning - Download 下载 ⏬ | 学习如何评估和比较不同参数高效微调方法的有效性 |
第三周:强化学习、应用架构和前沿技术 | |||
Day 15 | 基于人类反馈的强化学习 (RLHF) | Training language models to follow instructions with human feedback - Download 下载 ⏬ | 理解RLHF的基本原理,学习如何利用人类反馈来训练语言模型 |
Day 16 | 近端策略优化算法 (PPO) | * Proximal Policy Optimization Algorithms - Download 下载 ⏬ | 掌握PPO算法,学习如何利用强化学习来优化语言模型 |
Day 17 | 思维链提示 | * Chain-of-thought Prompting Elicits Reasoning in Large Language Models - Download 下载 ⏬ | 了解思维链提示技术,学习如何设计有效的Prompt来引导模型进行推理 |
Day 18 | ReAct: 结合推理与行动 | * ReAct: Synergizing Reasoning and Acting in Language Models - Download 下载 ⏬ | 掌握ReAct框架,学习如何构建能够与外部环境交互的语言模型 |
Day 19 | LLM应用架构:LangChain | * LangChain Library (GitHub) - GitHub Repo 🔗 | 学习使用LangChain构建LLM应用,尝试完成一个简单的应用案例 |
Day 20 | Constitutional AI:安全与伦理 | * Constitutional AI: Harmlessness from AI Feedback - Download 下载 ⏬ | 了解Constitutional AI,思考如何构建安全可控的AI系统 |
Day 21 | 生成式AI平台的商业模式 | * Who Owns the Generative AI Platform? - Link 链接 🔗 | 思考生成式AI的商业模式和平台归属问题 |
学习方法:
- 主动阅读: 阅读过程中记录问题和想法,并尝试解答。
- 实践应用: 尝试复现论文中的代码或进行相关实验。
- 交流讨论: 与他人分享学习心得,参与线上线下讨论。 加入🌿觅识 社区 AI PM「人工智能产品管理」
学习顺利!