学术动态

学术动态

当前位置: 网站首页-> 学术动态-> 正文

元宇宙研究院第17次研讨会

发布时间:2024-01-17

时间:2024年  1月16日  下午2:00-5:20

地点:广州大学 (大学城校区) 理科南314

 

报告1:

报告人:钟俊赢

报告老师:李福芳

报告题目:seq2seq+attention机制预测文本


在本次报告中,钟俊赢同学为大家分享最近的学习,并介绍在文本预测领域中使用Seq2Seq+Attention机制的背景和进展,重点介绍这一模型的原理和应用。Seq2Seq(Sequence-to-Sequence)模型是一种序列到序列的神经网络模型,常用于机器翻译和文本生成任务。它由编码器(Encoder)和解码器(Decoder)组成,编码器将输入序列编码为一个固定长度的向量表示,解码器根据该向量生成目标序列。然而,传统的Seq2Seq模型在处理长序列和捕捉输入序列的重要信息方面存在一定的局限性。为了改进这一问题,引入了Attention机制。Attention机制允许解码器在生成目标序列的每个位置时,动态地关注编码器输出的不同部分。通过计算注意力权重,解码器可以更加准确地选择与当前位置相关的编码器输出,从而提高生成结果的质量和流畅度。他分享的是一篇发表在2019年的论文《Attention Is All You Need》的内容。该论文提出了一种名为Transformer的Seq2Seq模型,完全基于Attention机制,摒弃了传统的循环神经网络(RNN)结构。Transformer模型通过自注意力机制在编码器和解码器之间进行信息传递,有效地捕捉了输入序列的全局依赖关系,并取得了在机器翻译任务上优秀的性能。将Attention机制引入到Seq2Seq模型中,使得模型能够更好地预测下一个词或字符。通过学习输入序列的上下文信息和关键词的重要性,模型能够生成更准确、连贯的文本。钟俊赢同学对Seq2Seq+Attention模型提出了一些新的想法和改进的思路,但需要进行后续实践验证。同时,也展示了一些实验结果,其中有一些取得了较好的效果。对于实验结果不理想的情况,结合老师同学们的意见,为进一步提高文本预测模型性能提供了重要的参考价值。


FCC48

 

 

报告2:

报告人:黄梓熙(硕士生)

指导老师:方美娥

报告题目:3D面部对齐与面部标志定位


在本次的报告中,黄梓熙同学首先介绍了3D面部标志定位的重要性和应用范围,接着围绕着3D面部对齐与面部标志定位,分享了一篇相关领域研究的文章,该文章中说到的工作包含:先使用形状指数对面部各个点进行筛选,凹陷点作为眼角和嘴角的候选点,凸起点作为鼻尖和下巴尖的候选点,再用旋转图对候选点进行二次筛选,得到了数量更少且更加稳健的候选点,再将候选点每八个进行组合,与标志点的平均形状进行对齐,如果误差在一定的范围内就视为候选组合,再从候选组合中选择与平均形状误差最小的组合作为我们最终的结果。这篇文章提出的方法的优点在于即使面部有大遮挡,也能稳健地定位到扫描到的面部部分的标志点。


15A942

 

报告3:

报告人:陈龙(硕士生)

指导老师:谭恒良

报告题目:多流形联合表征的图像集分类算法


在本次的报告中,陈龙同学首先介绍了流形和流形学习的背景,重点介绍了计算机视觉和模式识别中常用于数据表征的黎曼流形,如:对称正定流形、高斯流形和格拉斯曼流形等。接着分享了两篇相关领域研究的文章,第一篇是2022年发表在IEEE TRANSACTIONS ON BIG DATA期刊上的文章,该文章提出了一个基于多流形联合表征和多核度量学习的图像集分类算法。作者利用不同的黎曼流形间存在统计信息的互补性的原理,使用上述三种不同的黎曼描述符对图像集进行建模,并设计多核度量学习框架将生成的特征融合到低维公共子空间进行分类。第二篇是2023年同样发表在IEEE TRANSACTIONS ON BIG DATA期刊上的文章,该文章作者在上一篇文章的工作上,提出了一种新颖的基于稀疏图嵌入的多流形度量学习方法,通过构建注意力图引导模型专注于最有价值的样本对,从而提高了算法效率。在对这两篇文章分享后,陈龙同学对上述两种算法进行总结,分析了其各自优点和不足,并提出可能改进的新思路,也得到老师们的宝贵建议,为后续进一步提升多流形学习框架效率提供了重要的参考价值。


12C772