
会员
AI短视频文案写作从入门到精通
更新时间:2025-03-28 09:33:06
最新章节:10.2 短视频策划文案写作公式开会员,本书免费读 >
本书共分为10章。第1章介绍短视频文案与AIGC;第2章为AIGC工具助力文案选题策划;第3章为短视频标题撰写与优化;第4章为短视频脚本与情节设计;第5章为短视频带货文案写作;第6章为评论区互动文案写作;第7章为段子文案写作;第8章为短视频内容标签化;第9章为短视频营销文案写作;第10章为短视频与AI的有机结合。
品牌:北大出版社
上架时间:2024-05-01 00:00:00
出版社:北京大学出版社
本书数字版权由北大出版社提供,并由其授权上海阅文信息技术有限公司制作发行
最新章节
最新上架
- 会员
硅基物语·AI大爆炸:ChatGPT→AIGC→GPT-X→AGI进化→魔法时代→人类未来
本书以第一人称视角,讲述AI的来龙去脉,表达AI的技术原理。从历史到未来,跨越百年时空;从理论到实践,解读AI大爆炸;从技术到哲学,穿越多个维度;从语言到绘画,落地实战演练。ChatGPT的诞生,引发了奇点降临,点亮了AGI(通用人工智能),并涉及大模型、深度神经网络、Transformer、AIGC、涌现效应等一系列技术前沿。计算机8.6万字 - 会员
ChatGPT进阶:提示工程入门
本书共分为9章,内容涵盖三个层次:介绍与解读、入门学习、进阶提升。第1-2章介绍与剖析了ChatGPT与提示工程,并从多个学科的角度探讨了提示工程学科。第3-5章演示了ChatGPT的实际运用,教你如何使用ChatGPT解决自然语言处理问题,并为你提供了一套可操作、可重复的提示设计框架,让你能够熟练驾驭ChatGPT。第6-9章讲解了来自学术界的提示工程方法,以及如何围绕ChatGPT进行创新。计算机9.7万字 - 会员
人机沟通法则:理解数字世界的设计与形成
随着ChatGPT等人工智能和语言模型不断进步,了解这些技术的含义和潜在陷阱比以往任何时候都更加重要。作为享誉全球的跨技术和设计学科思想家,前田约翰利用他的丰富经验,为企业、产品设计师和决策者提供了可行的指导。通过深思熟虑和偶尔异想天开的例子,他构造了一个可以描述任何机器学习系统的关键功能的框架,并展望了可以如何使用它们来创造富有包容性和改变世界的产品。对任何想要深入了解机器如何“思考”以及未来可计算机9.6万字 - 会员
贝叶斯算法与机器学习
本书共分为10章,涵盖了贝叶斯概率、概率估计、贝叶斯分类、随机场、参数估计、机器学习、深度学习、贝叶斯网络、动态贝叶斯网络、贝叶斯深度学习等。本书涉及的应用领域包含机器学习、图像处理、语音识别、语义分析等。计算机0字 - 会员
人工智能算法基础
本书分为4章,共20章。其中第1篇为基础算法篇,从第1章到第9章,讲述排序、查找、线性结构、树、散列、图、堆栈等基本数据结构算法;第2篇为机器学习算法篇,从第10章到第14章,讲述分类算法、回归算法、聚类算法、降维算法和集成学习算法;第3篇为强化学习算法篇,从第15章到第16章,讲述基于价值的强化学习算法和基于策略的强化学习算法;第4篇为深度学习算法篇,从第17章到第19章,讲述神经网络模型算法、计算机0字 - 会员
Keras深度学习与神经网络
本书从人工智能导论入手,阐述人工智能的发展及现状,重点介绍了机器学习和神经网络基础、反向传播原理、卷积神经网络和循环神经网络等内容。本书内容由浅入深,循序渐进,从神经元和感知机入手,逐步讲解深度学习中神经网络基础、反向传播以及更深层次的卷积神经网络、循环神经网络。本书知识体系完整,内容覆盖面广,介绍了深度学习中常用的模型和算法,助力读者多方位掌握深度学习的相关知识。本书可作为高等院校计算机等相关专计算机11万字 - 会员
人工智能治理研究
本书从技术和规制两个角度入手,以人工智能治理的法律、公共政策以及伦理规范等相关社会行为和社会关系的规则建立和运行为主要思考方向和研究进路,在梳理人工智能发展情况、欧盟及其他国家人工智能立法与政策发布现状的基础上,对人工智能治理的基础、基本路径及我国人工智能产业、政策与规制思路进行了全面和有益的探索。计算机23.9万字 - 会员
AI时代程序员开发之道:ChatGPT让程序员插上翅膀
本书从介绍“ChatGPT第一次接触”开始,分析如何使用该工具来提高开发效率和质量。书中每一章都涵盖了ChatGPT的不同应用场景,从编写各种文档,到辅助进行需求分析和系统设计,以及数据库设计和开发高质量代码等均有讲解。还介绍了如何使用ChatGPT辅助进行系统测试以及任务管理,并对源代码底层逻辑进行了分析。计算机8.8万字 - 会员
预训练语言模型:方法、实践与应用
近年来,在自然语言处理领域,基于预训练语言模型的方法已形成全新范式。本书内容分为基础知识、预训练语言模型,以及实践与应用3个部分,共9章。第一部分全面、系统地介绍自然语言处理、神经网络和预训练语言模型的相关知识。第二部分介绍几种具有代表性的预训练语言模型的原理和机制(涉及注意力机制和Transformer模型),包括BERT及其变种,以及近年来发展迅猛的GPT和提示工程。第三部分介绍了基于Lang计算机12.7万字