本课程项目建立一套开放共享的人工智能和机器人理论和实践教学的人才培养体系,将部分教师的经验和学校各类优质的资源、科研成果、社会服务和实践等有机整合,让研究和教学结合,从而促进教学科研并行发展。
本课程的建设总体目标是探索面向新经济和新技术的计算机学科改造升级路径,重点针对创新型、复合型、系统应用型等的人才培养来更新教学内容,开展多领域交叉融合的在线慕课教学实践活动。逐步探讨形成新的慕课教学课程体系。
人工智能理论包括《人工智能及其数学基础》、《机器学习》、《深度学习》、《强化学习》等部分,需要让学生掌握基本概念、基本原理方法和重要算法,掌握人工智能的一些主要思想和方法。
绪论
0.1 绪论
强化学习板块Ⅰ-基础知识
1.1 强化学习的基本概念
1.2 马尔可夫决策问题模型
1.3 强化学习值函数(上)
1.3 强化学习值函数(下)
1.4从值函数计算最优策略
强化学习板块Ⅰ-课堂实录
强化学习板块Ⅰ-PPT
课后习题
强化学习板块Ⅱ-表格型求解法
2.1 动态规划算法(上)
2.1动态规划算法(下)
2.2 蒙特卡罗算法
2.3 时差分方法
2.4 Q-Learning算法
强化学习板块Ⅱ-课堂实录
强化学习板块Ⅱ-文档下载
强化学习板块Ⅱ-单元测验
强化学习板块Ⅲ-深度强化学习基础
3.1 深度神经网络与值函数
3.2 DQN算法
3.3 DQN算法原理
3.4 策略梯度原理
3.5 策略梯度示例
3.6 DPG算法
3.7 TRPO算法
3.8 PPO算法
深度强化学习-课堂实录I
深度强化学习-课堂实录II
强化学习板块Ⅲ-代码
强化学习板块Ⅲ-单元测验
强化学习板块Ⅳ-多智能体强化学习
4.1 多智能体强化学习基础
4.2 MADDPG算法
4.3 QMIX算法
多智能体强化学习算法-课堂实录
强化学习板块Ⅳ-单元测验
深度学习板块Ⅰ
1.1 人脑神经网络和人工神经网络
1.2 人工神经元
1.3 前馈神经网络
深度学习板块Ⅰ-课堂实录
深度学习板块Ⅰ-文档下载
深度学习板块Ⅰ-课后习题
深度学习板块Ⅱ
2.1 多层神经网络的参数学习
2.2 梯度下降方法
2.3 反向传播算法
深度学习板块Ⅱ-课堂实录
深度学习板块Ⅱ-PPT
深度学习板块Ⅱ-课后习题
深度学习板块Ⅰ&Ⅱ-公开课
人工神经网络(上)-公开课
多层全连接前馈神经网络-公开课
深度学习板块Ⅲ-卷积神经网络
3.1 卷积神经网络(上)
3.1 卷积神经网络(下)
3.2-3.4 其他卷积种类
深度学习板块Ⅲ-课堂实录PPT
深度学习板块Ⅳ-循环神经网络
4.1 循环神经网络基础
4.2 LSTM
4.3 扩展到图结构
深度学习板块Ⅳ-文档下载
深度学习板块Ⅴ-TRANSFORMER
5.1 从RNN到TRANSFOMER
5.2 序列到序列的RNN模型
5.3 注意力机制
5.4-5 TRANSFORMER模型及应用
深度学习板块Ⅴ-课堂实录PPT
深度强化学习板块-多机器人集群控制
1.1 多机器人集群
1.2 多智能体信息融合
1.3 多智能体协调的学习控制方法
多智能体板块-课堂实录
机器人集群板块-PPT
深度强化学习板块-单元测验
搜索求解板块Ⅰ
1.1 搜索-问题定义
1.2 搜索-树搜索
1.3 搜索-广度优先
1.4 搜索-深度优先
1.5 搜索-一致代价
搜索求解板块Ⅰ-课后习题
搜索求解板块Ⅱ-启发搜索与博弈搜索
2.1 启发搜索-启发函数
2.2 启发搜索-A*算法
2.3 博弈搜索-对抗游戏
2.4 博弈搜索-MINMAX算法
2.5 博弈搜索-alpha_beta算法
搜索求解板块Ⅱ-课后习题
搜索求解板块Ⅲ-约束满足
3.1 约束满足-问题定义
3.2 约束满足-回溯搜索
3.3 约束满足-约束传播
3.4 约束满足-树结构
搜索求解板块Ⅲ-单元测验
机器学习板块
机器学习-绪论
机器学习板块-数学基础
机器学习-高等代数
机器学习-高等数学Ⅰ
机器学习-高等数学Ⅱ
机器学习-高等数学Ⅲ
机器学习-概率初步
机器学习-统计回归
机器学习-增量计算
知识推理板块
知识表示-一阶谓词
知识表示-产生式
确定性推理-推理概念
确定性推理-自然演绎
不确定性推理-概率回顾I
不确定性推理-概率回顾II
不确定性推理-概率回顾III
不确定推理-贝叶斯网络I
不确定性推理-贝叶斯网络II
不确定性推理-贝叶斯网络III
不确定性推理-D-分离I
不确定性推理-D-分离II
不确定性推理-D-分离III
知识推理板块-单元测验
实践内容
DQN程序
A3C程序
Pybullet安装
GYM
通用强化学习框架
裂缝检测实践
论文报告
IJCAI 2022-Efficient Neural Neighborhood Search for Pickup and Delivery Problems
NeurIPS 2020-Early-Learning Regularization Prevents Memorization of Noisy Labels
NeurIPS 2021-Medical Dead-ends and Learning to Identify High-Risk States and Treatments
ICML 2023-LoSparse: structured compression of large language models based on low-rank and sparse approximation
NeurIPS 2022-Outlier Suppression: Pushing the Limit of Low-bit Transformer Language Models