SLAM前沿动态序列的跟踪IROS2018
本文提到的文章已经上传到百度云盘,看原文就能得到
虚拟输入输出
1.视觉(惯性)里程计的定量轨迹评估指南
(https://github.com/uzh-rpg/rpg_trajectory_evaluation)
2.单目视觉里程计光度校准、运动偏差和滚动快门效应的挑战
3.协同视觉惯性SLAM
4.视觉惯性里程计中实时密集映射的嵌入时间一致性深度恢复
5.利用因子图进行视觉惯性接触状态估计的混合接触预集成
(https://youtu.be/WDPhdl5g2MQ)
6.视觉惯性里程计中的信息稀疏
7.无持续特征的VIO快速图像尺度变化和零运动中的关键帧策略
8.基于优化的视觉惯性状态估计中规范自由度处理的比较
9.单目视觉惯性系统的在线时间标定
(https://github.com/HKUST-Aerial-Robotics/VINS-Mono)
10.移动平台上的实时全增量场景理解
11.用于评估视觉惯性里程计的TUM VI基准
(https://vision . in . tum . de/data/dataset/visual-惯性-dataset)
12.使用点和线的三重VIO稳健高效立体视觉惯性里程计
面向视觉惯性SLAM应用的13π片上系统异构片上系统架构
14.机器人视觉惯性里程计
15.超宽FOV立体视觉微型飞行器多里程计鲁棒视觉惯性状态估计及有效映射
16.视觉惯性里程计的李群无迹卡尔曼滤波
颜色和深度
1.任务约束下具有自适应脚步补偿的仿人机器人感知运动系统
2.基于点和体积融合的实时三维重建
3.基于边缘的鲁棒RGB-D视觉里程计_使用二维边缘散度最小化
激光雷达
1.从二维激光距离扫描中提取折线的最大似然方法
(https://github.com/acschaefer/ple)
2.一种用于城市尺度激光雷达制图的鲁棒姿态图方法
3.精确三维正态分布变换配准的动态协方差比例因子
4.将深度语义分割融入三维点云配准
5.激光雷达-单目视觉里程计
(代码发布给社区。)
6.激光雷达-惯性三维平面SLAM
(https://github.com/rpng/lips)
7.PoseMap终身多环境三维激光雷达定位
(https://youtu.be/BWxDRWdIpY)
(https://youtu.be/KSxuxDnfiko)
8.稳定基于激光雷达的位置识别的无监督特征学习
9.三维激光雷达地图中的立体摄像机定位
10.轻型和地面优化激光雷达里程计和可变地形测绘
(https://github.com/RobustFieldAutonomyLab/LeGO-LOAM)
11.基于传感器融合里程计运动估计的激光雷达和摄像机标定
12.扫描上下文_以自我为中心的空间数据_用于三维点云地图中的位置识别
事件摄像机
1.异步角检测和跟踪前端摄像机实时
(https://youtu.be/bKUAZ7IQcf0)
地图
1.长期自主操作的B样条映射框架
2.一种可扩展且一致的基于TSDF的稠密映射方法
(https://github.com/ethz-asl/c-blox)
3.动态环境中的高效长期映射
(https://gitlab.com/srrg-software/srrg·mapper 2d)
4.用于环境表示的混合高度体素图
5.人在回路增强映射
6.用于三维重建的紧凑数据结构
Slamsystem
1.用于微创骨科手术的多传感器鲁棒视觉定位
2.动态场景中的动态跟踪、映射和修复
(https://youtu.be/EabI政府职能部门)
3.通过自动评估SLAM算法提高实验的可重复性
(https://github.com/AIRLab-POLIMI/predictivebenchmarking)
4.利用智能手机的机会感知为行人进行室内绘图和定位
5.基于异构计算的微创手术实时大规模密集变形系统
6.鱼眼镜头全向直射式稀疏里程计
7.一个用于变化条件下视觉位置识别的开源工具箱
(http://tiny.cc/openseqslam2)
8.移动摄像机的概率密集重建
(https://github.com/ygling2008/probabilistic_mapping)
9.精准农业中无人机农田图像的鲁棒长期配准
10.利用地下自主车辆上的低成本传感器进行位置跟踪的半监督SLAM
11.基于多摄像机系统的鲁棒视觉里程计
(https://cvg.ethz.ch/research/visual-odometry/)
12.视觉里程计中深度相机的快速柱面和平面提取
13.基于几何的HDR立体序列线段跟踪
(https://github.com/rubengooj/StVO-PL)
14.多运动视觉里程计(MVO)_摄像机和第三方运动的同时估计
15.水下定位黑盒估计的可靠融合
16.室内环境中基于立体视觉里程计和语义的空中机器人定位
(https://vimeo.com/259349563)
后端
1.闭环LDSO直接稀疏里程计
(https://vision.in.tum.de/research/vslam/ldso)
2.位姿图优化中目标函数变化的预测
3.基于扫描相似度的图形SLAM姿态图构建方法
4.一个健壮的视觉探索和定位系统
5.三维环境下基于子地图的位姿图SLAM和规划的虚拟占用网格图
前端
1.一种基于类人视觉的立体视觉合成深度探测器
(https://www.hrl.uni-bonn.de/research/DLab)
2.基于最小二乘姿态优化的特征选择
3.基于特征的视觉位置识别的HBST汉明距离嵌入二叉查找树
4.基于关键帧的光度在线校准和颜色校正
(https://www.ais.uni-bonn.de/videos/IROS_2018_
光度校准)
5.优化对比度增强以提高SLAM再定位环境中视觉跟踪的鲁棒性
6.基于光线束和矢量场一致性的鲁棒摄像机姿态估计
7.视觉导航中点特征的单位四元数参数化
8.基于像素处理器阵列的敏捷微型飞行器视角校正视觉里程计
深度撞击
1.一种面向概率语义SLAM的三维对象变分特征编码方法
2.面向概率推理的贝叶斯信息恢复
3.一种面向动态环境的语义可视化SLAM
4.通过基于几何的增量分割实现快速准确的语义映射
5.将深度语义分割融入三维点云配准
6.从密集3D流学习具有密集3D映射的单目视觉里程计
(https://youtu.be/Ccj1O7yndIk)
7.基于非参数统计和聚类的SLAM分类目标定位
8.面向神经形态SLAM的脉冲神经网络姿态估计和地图生成
9.多假设数据关联的稳健探索
10.面向高动态环境的语义单目SLAM
11.内窥镜胶囊机器人的无监督里程计和深度学习
(https://github.com/mpi/deepunsupervised-endovo)
1.《humanoids 【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《humanoids 【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/shehui/1029445.html