目錄
第 1 章 智能車(chē)自主定位概述
1.4.1 研究目標(biāo)
1.4.2 研究?jī)?nèi)容與組織架構(gòu)
1.3.1 視覺(jué) SLAM 的發(fā)展與研究現(xiàn)狀
1.3.2 視覺(jué)慣性 SLAM 的發(fā)展與研究現(xiàn)狀
1.1 智能車(chē)自動(dòng)駕駛技術(shù)發(fā)展
1.2 智能車(chē)定位技術(shù)發(fā)展
1.3 視覺(jué) / 慣性定位技術(shù)發(fā)展
1.4 研究目標(biāo)、內(nèi)容和組織架構(gòu)
參考文獻(xiàn)
第 2 章 視覺(jué) / 慣性定位理論基礎(chǔ)
2.6.1 姿態(tài)角的計(jì)算
2.6.2 姿態(tài)速度的計(jì)算
2.6.3 姿態(tài)矩陣的更新
2.4.1 相機(jī)與 IMU 聯(lián)合時(shí)間標(biāo)定
2.4.2 相機(jī)與 IMU 硬件同步
2.2.1 特征點(diǎn)的提取
2.2.2 圖像特征的匹配與跟蹤
2.1 視覺(jué)傳感器類(lèi)型及應(yīng)用
2.2 特征點(diǎn)的提取與跟蹤
2.3 視覺(jué)慣性導(dǎo)航系統(tǒng)
2.4 視覺(jué)慣性聯(lián)合標(biāo)定
2.5 轉(zhuǎn)換與擾動(dòng)模型
2.6 捷聯(lián)式慣性導(dǎo)航系統(tǒng)
2.7 本章小結(jié)
參考文獻(xiàn)
第 3 章 基于車(chē)輛運(yùn)動(dòng)估計(jì)的立體視覺(jué)定位
3.5.1 車(chē)輛運(yùn)動(dòng)估計(jì)算法
3.5.2 基于隨機(jī)抽樣一致的非線性最小二乘優(yōu)化
3.2.1 對(duì)極幾何約束
3.2.2 本質(zhì)矩陣
3.1 雙目相機(jī)模型
3.2 多視角幾何知識(shí)
3.3 立體視覺(jué)定位框架
3.4 車(chē)輛運(yùn)動(dòng)模型
3.5 基于車(chē)輛運(yùn)動(dòng)估計(jì)的立體視覺(jué)定位算法
3.6 實(shí)驗(yàn)與分析
3.7 本章小結(jié)
參考文獻(xiàn)
第 4 章 基于像素 / 亞像素融合的特征檢測(cè)方法
4.4.1 算法性能分析
4.4.2 定位精度分析
4.1 亞像素級(jí)特征檢測(cè)算法
4.2 點(diǎn)線特征匹配
4.3 像素 / 亞像素特征融合檢測(cè)算法流程
4.4 實(shí)驗(yàn)與分析
4.5 本章小結(jié)
參考文獻(xiàn)
第 5 章 基于點(diǎn)線特征結(jié)合的前端處理算法
5.5.1 算法流程框架
5.5.2 實(shí)驗(yàn)與分析
5.4.1 算法流程框架
5.4.2 實(shí)驗(yàn)與分析
5.3.1 點(diǎn)特征重投影誤差模型
5.3.2 線特征重投影誤差模型
5.2.1 LSD 線特征提取算法
5.2.2 LBD 線特征提取算法
5.2.3 EDLines 線特征提取算法
5.1 點(diǎn)線融合 VSLAM 的發(fā)展與研究現(xiàn)狀
5.2 特征線的提取
5.3 點(diǎn)線特征誤差模型構(gòu)建
5.4 亞像素級(jí)點(diǎn)線特征融合的定位算法
5.5 亞像素級(jí)點(diǎn)線特征融合優(yōu)化的定位算法
5.6 本章小結(jié)
參考文獻(xiàn)
第 6 章 基于點(diǎn)線特征合并的后端優(yōu)化
6.4.1 定位精度實(shí)驗(yàn)分析
6.4.2 真實(shí)場(chǎng)景實(shí)驗(yàn)分析
6.3.1 滑動(dòng)窗口算法
6.3.2 SPML-VIO 算法流程
6.2.1 關(guān)鍵幀的選擇
6.2.2 融合視覺(jué)慣性信息的后端優(yōu)化
6.2.3 基于圖像信息熵的點(diǎn)線融合模式
6.2.4 邊緣化策略
6.1 慣性測(cè)量誤差模型與預(yù)積分
6.2 基于滑動(dòng)窗口的后端優(yōu)化
6.3 亞像素級(jí)點(diǎn)線特征合并優(yōu)化的定位算法
6.4 實(shí)驗(yàn)與分析
6.5 本章小結(jié)
參考文獻(xiàn)
第 7 章 總結(jié)與展望
附錄
附 1.1.1 相機(jī)幾何模型
附 1.1.2 視覺(jué)相關(guān)坐標(biāo)系
附 1.1.3 坐標(biāo)系間的轉(zhuǎn)換
附 1.1 坐標(biāo)系及轉(zhuǎn)換
附 1.2 IMU 預(yù)積分
附 1.3 李群與李代數(shù)