National Chung Cheng University Institutional Repository:Item A095B0000Q/396
English  |  正體中文  |  简体中文  |  全文笔数/总笔数 : 888/888 (100%)
造访人次 : 13688639      在线人数 : 269
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by NTU Library IR team.
搜寻范围 查询小技巧:
  • 您可在西文检索词汇前后加上"双引号",以获取较精准的检索结果
  • 若欲以作者姓名搜寻,建议至进阶搜寻限定作者字段,可获得较完整数据
  • 进阶搜寻
    主页登入上传说明关于CCUR管理 到手机版


    jsp.display-item.identifier=請使用永久網址來引用或連結此文件: http://ccur.lib.ccu.edu.tw/handle/A095B0000Q/396


    题名: 利用RGB-D 攝影機及離散邊緣點之視覺里程計;Sparse Edge Visual Odometry with an RGB-D Camera
    作者: 許志磊;SYU, JHIH-LEI
    贡献者: 電機工程研究所
    关键词: 直接法;視覺里程計;關鍵幀;Direct Method;Visual Odometry;Keyframe
    日期: 2017
    上传时间: 2019-07-17
    出版者: 電機工程研究所
    摘要: 我們提出了基於彩色與深度圖像(RGB- Method)將特徵匹配與相機運動計算合併進行。我們可以根據光度誤差(Photometric Error)調整光束平差法(Bundle Adjustment)權重以減小離群點產生的影響,然而每個特徵點都會受傳感器的深度噪聲影響,使計算相機姿態時會產生誤差,所以我們使用對極幾何模型與混合分佈模型來更這些特徵點的深度值。根據深度值的更新結果,我們可以使用N點透視法(Perspective-n-Point, PnP) 再次調整相機姿態,減少相機運動在實際運動軌跡上的漂移。我們最後以實驗結果評估本篇方法在修正軌跡的性能與可行性。關鍵詞:視覺里程計、直接法、關鍵幀
    We propose a sparse edge visual odometer model based on the RGB-D camera using direct method to match intenity of the image. Compared with the we use the edge information on the image to keep the robustness of the matching in environment, and merging feature matching into pose estimation. According to photometric error, we can revise the bundle adjustment of weight to reduce the effect of outliers. However, all points is affected by the depth of the sensor noise, that are still producing difference for motion estimations. So we use epipolar geometry and mixture model to update. We will use PnP to adjust pose according to result, and reduce camera motion drift. Finally, evaluate our method in the experiment.Keywords: Visual Odometry, Direct method, Keyframe
    显示于类别:[電機工程研究所] 學位論文

    文件中的档案:

    档案 描述 大小格式浏览次数
    index.html0KbHTML433检视/开启


    在CCUR中所有的数据项都受到原著作权保护.

    TAIR相关文章

    版權聲明 © 國立中正大學圖書館網頁內容著作權屬國立中正大學圖書館

    隱私權及資訊安全政策

    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library IR team Copyright ©   - 回馈