PDF Giáo trình thị giác máy tính và ứng dụng, Lê Mỹ Hà

Tin đăng trong 'Lập trình, Công Nghệ Thông Tin | IT docs' bởi mod_luong, Cập nhật cuối: 24/02/2023.

  1. mod_luong

    mod_luong Moderator Staff Member Quản trị viên Thành viên VIP

    Tham gia :
    09/10/2019
    Bài viết:
    5.089
    Lượt thích:
    135
    Điểm thành tích:
    48.003
    [​IMG]

    [​IMG]

    [​IMG]

    Giáo trình thị giác máy tính và ứng dụng, Lê Mỹ Hà
    322 trang
     
    pdf : Bạn cần để tải tài liệu
    Đang tải...
  2. mod_luong

    mod_luong Moderator Staff Member Quản trị viên Thành viên VIP

    Tham gia :
    09/10/2019
    Bài viết:
    5.089
    Lượt thích:
    135
    Điểm thành tích:
    48.003
    MỤC LỤC
    LỜI NÓI ĐẦU ......................................................................................... 9
    Chương 1: XỬ LÝ ẢNH CƠ BẢN VÀ NGÔN NGỮ LẬP TRÌNH
    PYTHON............................................................................ 13
    1.1. PIL - THƯ VIỆN HÌNH ẢNH TRONG PYTHON.................... 13
    1.1.1. Chuyển đổi hình ảnh sang định dạng khác............................. 14
    1.1.2. Tạo hình thu nhỏ..................................................................... 15
    1.1.3. Sao chép và dán các vùng....................................................... 15
    1.1.4. Thay đổi kích thước và xoay.................................................. 15
    1.2. MATPLOTLIB............................................................................ 15
    1.2.1. Vẽ hình ảnh, điểm và đường.................................................. 16
    1.2.2. Đường biên ảnh và lược đồ.................................................... 17
    1.2.3. Chú thích tương tác................................................................ 19
    1.3. NUMPY...................................................................................... 19
    1.3.1. Thể hiện hình ảnh dưới dạng mảng........................................ 20
    1.3.2. Biến đổi cấp độ xám............................................................... 21
    1.3.3. Cân bằng lược đồ ảnh............................................................. 23
    1.3.4. Phép tính trung bình pixel ảnh............................................... 25
    1.3.5. Phân tích thành phần chính (PCA) của hình ảnh.................... 26
    1.3.6. Sử dụng Module Pickle.......................................................... 29
    1.4. SCIPY......................................................................................... 30
    1.4.1. Làm mờ ảnh............................................................................ 30
    1.4.2. Tính đạo hàm của ảnh (Image derivatives)............................ 32
    1.4.3. Các module SciPy hữu ích khác............................................. 36
    1.5. VÍ DỤ NÂNG CAO: GIẢM NHIỄU HÌNH ẢNH..................... 37
    1.6. BÀI TẬP..................................................................................... 41
    Chương 2: MÔ TẢ ĐẶC TRƯNG HÌNH ẢNH................................. 42
    2.1. XÁC ĐỊNH ĐẶC TRƯNG GÓC HARRIS................................ 42
    2.2. ĐẶC TRƯNG BẤT BIẾN VỚI SỰ THAY ĐỔI TỶ LỆ ẢNH
    (SCALE-INVARIANT FEATURE TRANSFORM- SIFT)........ 49
    2.2.1. Lập trình xác định đặc trưng SIFT trong ảnh......................... 53
    2.2.2. Đối sánh các mô tả của điểm đặc trưng.................................. 54
    2.3. BÀI TẬP..................................................................................... 60
    4
    Chương 3: PHÉP ÁNH XẠ HÌNH ẢNH............................................ 61
    3.1. HOMOGRAPHIES..................................................................... 63
    3.1.1. Thuật toán biến đổi tuyến tính trực tiếp................................. 64
    3.1.2. Biến đổi Affine....................................................................... 69
    3.2. Nắn ảnh ....................................................................................... 66
    3.2.1. Đặt một ảnh trong một ảnh khác............................................ 67
    3.2.2. Nắn ảnh Affine theo từng cặp................................................. 70
    3.2.3. Hiển thị hình ảnh.................................................................... 74
    3.3. Tạo ảnh toàn cảnh....................................................................... 79
    3.3.1. Thuật toán RANSAC.............................................................. 79
    3.3.2. Ước tính hệ tọa độ đồng nhất bền vững................................. 81
    3.3.3. Ghép các hình ảnh lại với nhau.............................................. 85
    3.4. BÀI TẬP..................................................................................... 88
    Chương 4: MÔ HÌNH MÁY ẢNH VÀ THỰC TẾ ẢO...................... 89
    4.1. MÔ HÌNH MÁY ẢNH LỖ KIM (PIN- HOLE CAMERA)....... 89
    4.1.1. Điểm chiếu 3D........................................................................ 91
    4.1.2. Hệ số ma trận camera............................................................. 93
    4.1.3. Tính toán điểm trung tâm camera........................................... 94
    4.2. HIỆU CHỈNH MÁY ẢNH.......................................................... 94
    4.3. ƯỚC LƯỢNG VỊ TRÍ CAMERA TỪ MẶT PHẲNG
    VÀ ĐIỂM MỐC.......................................................................... 96
    4.4. THỰC TẾ ẢO........................................................................... 100
    4.4.1. PyGame và PyOpenGL........................................................ 101
    4.4.2. Từ ma trận camera đến định dạng OpenGL......................... 102
    4.4.3. Đặt các đối tượng ảo trong ảnh............................................ 104
    4.4.4. Kết nối tất cả ảnh.................................................................. 105
    4.4.5. Tải mô hình.......................................................................... 107
    4.5. BÀI TẬP................................................................................... 109
    Chương 5: HÌNH HỌC ĐA GÓC NHÌN (MULTIPLE VIEW
    GEOMETRY)................................................................... 110
    5.1. EPIPOLAR GEOMETRY......................................................... 110
    5.1.1. Một tập dữ liệu mẫu............................................................. 112
    5.1.2. Vẽ dữ liệu 3D với Matplotlib............................................... 114
    5.1.3. Epipole và các đường thẳng epipole.................................... 117
    5
    5.2. TÍNH TOÁN VỚI MÁY ẢNH VÀ CẤU TRÚC 3D................ 119
    5.2.1. Tính toán ma trận camera từ các điểm 3D........................... 121
    5.2.2. Tính toán ma trận camera từ ma trận cơ bản........................ 123
    5.2.3. Trường hợp không được hiệu chỉnh - tái cấu trúc hình chiếu... 123
    5.2.4. Trường hợp được hiệu chỉnh - tái cấu trúc chính xác mô hình.. 124
    5.3. TÁI CẤU TRÚC NHIỀU GÓC NHÌN..................................... 125
    5.3.1. Ước lượng ma trận cơ bản bền vững.................................... 125
    5.3.2. Ví dụ tái tạo 3D.................................................................... 128
    5.3.3. Phần mở rộng và nhiều hơn hai góc nhìn............................. 131
    5.4. ẢNH STEREO.......................................................................... 132
    5.5. BÀI TẬP................................................................................... 138
    Chương 6: PHÂN CỤM ẢNH........................................................... 139
    6.1. THUẬT TOÁN PHÂN CỤM K-MEANS................................ 139
    6.1.1. Thư viện phân cụm SciPy.................................................... 140
    6.1.2. Phân cụm ảnh....................................................................... 141
    6.1.3. Biểu diễn trực quan ảnh các thành phần chính..................... 143
    6.1.4. Phân cụm các Pixels............................................................. 154
    6.2. PHÂN CỤM THEO THỨ BẬC............................................... 146
    6.3. Phân cụm ảnh............................................................................ 150
    6.4. PHÂN CỤM PHỔ..................................................................... 155
    6.5. BÀI TẬP................................................................................... 159
    Chương 7: TÌM KIẾM ẢNH............................................................. 160
    7.1. TRUY XUẤT ẢNH DỰA TRÊN NỘI DUNG......................... 160
    7.2. TỪ NGỮ TRỰC QUAN (VISUAL WORDS)......................... 161
    7.3. LẬP CHỈ MỤC ẢNH................................................................ 165
    7.3.1. Thiết lập cơ sở dữ liệu.......................................................... 165
    7.3.2. Thêm ảnh.............................................................................. 166
    7.4. TÌM KIẾM CƠ SỞ DỮ LIỆU CHO ẢNH............................... 168
    7.4.1. Tìm kiếm bằng ảnh............................................................... 170
    7.4.2. Kiểm chuẩn và biểu diễn kết quả......................................... 171
    7.5. XẾP HẠNG KẾT QUẢ BẰNG HÌNH HỌC............................ 173
    7.6. XÂY DỰNG CÁC DEMO VÀ ỨNG DỤNG WEB................ 176
    7.7. BÀI TẬP................................................................................... 179
    6
    Chương 8: PHÂN LOẠI NỘI DUNG HÌNH ẢNH.......................... 181
    8.1. K-NEAREST NEIGHBORS..................................................... 181
    8.1.1. Một ví dụ 2D đơn giản......................................................... 182
    8.1.2. Đặc trưng hình ảnh dùng dense SIFT (SIFT dày đặc).......... 185
    8.1.3. Phân loại hình ảnh - nhận dạng cử chỉ tay........................... 187
    8.2. BỘ PHÂN LOẠI BAYES......................................................... 190
    8.3. SUPPORT VECTOR MACHINES........................................... 195
    8.3.1. Sử dụng LibSVM................................................................. 196
    8.3.2. Nhận dạng cử chỉ tay lại bằng phương pháp SVM.............. 198
    8.4. NHẬN DẠNG KÝ TỰ QUANG HỌC (OPTICAL
    CHARACTER RECOGNITION)............................................. 200
    8.4.1. Huấn luyện một bộ phân loại............................................... 200
    8.4.2. Chọn đặc trưng..................................................................... 201
    8.4.3. SVM nhiều lớp..................................................................... 201
    8.4.4. Trích xuất các hàng và nhận dạng ký tự............................... 202
    8.4.5. Chỉnh sửa hình ảnh............................................................... 205
    8.5. BÀI TẬP................................................................................... 206
    Chương 9: PHÂN ĐOẠN ẢNH......................................................... 208
    9.1. PHƯƠNG PHÁP CẮT ĐỒ THỊ (GRAPH CUTS)................... 208
    9.1.1. Đồ thị từ các hình ảnh.......................................................... 210
    9.1.2. Phân đoạn với đầu vào của người dùng............................... 215
    9.2. PHÂN ĐOẠN BẰNG CÁCH SỬ DỤNG PHÂN CỤM.......... 217
    9.3. PHƯƠNG PHÁP BIẾN PHÂN................................................ 222
    9.4. BÀI TẬP................................................................................... 224
    Chương 10: GIỚI THIỆU THƯ VIỆN OpenCV............................. 226
    10.1. GIAO DIỆN PYTHON OPENCV......................................... 226
    10.2. KHÁI NIỆM CƠ BẢN VỀ OPENCV................................... 226
    10.2.1. Đọc và viết hình ảnh........................................................... 227
    10.2.2. Không gian màu.................................................................. 227
    10.2.3. Hiển thị hình ảnh và kết quả............................................... 228
    10.3. XỬ LÝ VIDEO...................................................................... 231
    10.3.1. Đầu vào video..................................................................... 231
    10.3.2. Đọc video vào mảng NumPy.............................................. 233
    10.4. THEO VẾT (TRACKING).................................................... 233
    7
    10.4.1. Luồng quang học................................................................ 233
    10.4.2. Thuật toán Lucas-Kanade................................................... 236
    10.4.3. Sử dụng generators............................................................. 241
    10.5. CÁC VÍ DỤ KHÁC................................................................. 242
    10.5.1. Vá lỗi ảnh (Inpainting)....................................................... 243
    10.5.2. Phát hiện đường thẳng với phép biến đổi Hough............... 244
    10.6. BÀI TẬP................................................................................. 245
    Chương 11: ỨNG DỤNG HÌNH HỌC ĐA GÓC NHÌN VÀO XÂY
    DỰNG MÔ HÌNH 3D KẾT HỢP PHÂN TÍCH NGỮ
    NGHĨA VÀ PHƯƠNG PHÁP TỐI ƯU LỒI............... 247
    11.1. GIỚI THIỆU.......................................................................... 247
    11.2. MÔ TẢ THUẬT TOÁN......................................................... 248
    11.2.1. Phân tích ngữ nghĩa............................................................ 249
    11.2.2. Xây dựng lại cảnh quan trong trường hợp đặc biệt............ 253
    11.2.3. Đối sánh theo phương pháp cặp ảnh stereo........................ 259
    11.3. THỰC NGHIỆM TRÊN TẬP DỮ LIỆU THỰC................... 260
    11.4. KẾT LUẬN............................................................................ 263
    Chương 12: ỨNG DỤNG HÌNH HỌC ĐA GÓC NHÌN TRONG
    ĐỊNH VỊ CHO MÁY ẢNH ĐA HƯỚNG.................... 264
    12.1. GIỚI THIỆU.......................................................................... 264
    12.2. MÔ TẢ THUẬT TOÁN......................................................... 264
    12.2.1. Ước tính các cặp chuyển động xoay................................... 265
    12.2.2. Biến đổi camera đa hướng trong mô hình cầu.................... 266
    12.2.3. Trích đặc trưng đường........................................................ 267
    12.2.4. Phát hiện điểm vô cực dựa trên phương pháp RANSAC....... 270
    12.2.5. Tìm các điểm vô cực tương đồng dựa trên phương pháp ước
    lượng chuyển động xoay...................................................... 271
    12.3. TÍNH TOÁN GÓC XOAY TOÀN CỤC CỦA CAMERA..... 273
    12.4. SỰ PHỤC HỒI CHUYỂN ĐỘNG CỦA CAMERA............. 273
    12.4.1. Điểm tương đồng trên gương cầu....................................... 273
    12.4.2. Chuyển động của camera với ma trận xoay đã biết............ 273
    12.4.3. Tối ưu hóa trong mô hình hình cầu.................................... 275
    12.4.3. Tối ưu gần lồi sử dụng ngưỡng giữa.................................. 277
    12.5. THỰC NGHIỆM.................................................................... 278
    8
    12.6. KẾT LUẬN............................................................................ 284
    Chương 13: ỨNG DỤNG THỊ GIÁC MÁY TÍNH KẾT HỢP
    BIẾN GPS TRONG ĐỊNH VỊ ROBOT....................... 281
    13.1. GIỚI THIỆU.......................................................................... 281
    13.2. MÔ TẢ THUẬT TOÁN......................................................... 284
    13.3. HỆ THỐNG ĐO LƯỜNG BẰNG THỊ GIÁC DỰA TRÊN
    CAMERA ĐA HƯỚNG............................................................ 286
    13.3.1. Phân tích mô hình di chuyển.............................................. 286
    13.3.2. Hệ thống đo lường bằng hình ảnh...................................... 290
    13.4. SỰ HIỆU CHỈNH SAI SỐ ĐO VỊ TRÍ CỦA HỆ THỐNG NHỜ
    VÀO THÔNG TIN DẪN ĐƯỜNG QUA VỆ TINH (GPS)..... 293
    13.4.1. Đánh giá giá trị đo từ hệ thống định vị toàn cầu................ 293
    13.4.2. Hiệu chỉnh vị trí dựa trên hệ thống định vị toàn cầu.......... 295
    13.5. KẾT QUẢ THỰC NGHIỆM................................................. 295
    13.6. KẾT LUẬN............................................................................ 298
    Phụ lục A............................................................................................... 300
    Phụ lục B............................................................................................... 306
    TÀI LIỆU THAM KHẢO.................................................................... 310
     
  3. mod_luong

    mod_luong Moderator Staff Member Quản trị viên Thành viên VIP

    Tham gia :
    09/10/2019
    Bài viết:
    5.089
    Lượt thích:
    135
    Điểm thành tích:
    48.003
    TÀI LIỆU THAM KHẢO
    [1] Herbert Bay, Tinne Tuytelaars, and Luc Van Gool. SURF: Speeded
    up robust features. In European Conference on Computer Vision,
    2006.
    [2] Yuri Boykov, Olga Veksler, and Ramin Zabih. Fast approximate
    energy minimization via graph cuts. IEEE Transactions on Pattern
    Analysis and Machine Intelligence, 23:2001, 2001.
    [3] Gary Bradski and Adrian Kaehler. Learning OpenCV. O’Reilly
    Media Inc., 2008.
    [4] Martin Byröd. An optical sudoku solver. In Swedish Symposium
    on Image Analysis, SSBA, 2007.
    [5] Antonin Chambolle. Total variation minimization and a class of
    binary mrf models. In Energy Minimization Methods in Computer
    Vision and Pattern Recognition, Lecture Notes in Computer
    Science, pages 136–152. Springer Berlin /Heidelberg, 2005.
    [6] T. Chan and L. Vese. Active contours without edges. IEEE Trans.
    Image Processing, 10(2):266–277, 2001.
    [7] Chih-Chung Chang and Chih-Jen Lin. LIBSVM: a library for
    support vector machines, 2001. Software available at http://www.
    csie.ntu.edu.tw/~cjlin/libsvm.
    [8] D. Cremers, T. Pock, K. Kolev, and A. Chambolle. Convex
    relaxation techniques for segmentation, stereo and multiview
    reconstruction. In Advances in Markov Random Fields for Vision
    and Image Processing. MIT Press, 2011.
    [9] Nello Cristianini and John Shawe-Taylor. An Introduction to
    Support Vector Machines and Other Kernel-based Learning
    Methods. Cambridge University Press,2000.
    [10] Gunnar Farnebäck. Two-frame motion estimation based on
    311
    polynomial expansion in Proceedings of the 13th Scandinavian
    Conference on Image Analysis, pages 363–370, 2003.
    [11] M. A. Fischler and R. C. Bolles. Random sample consensus: a
    paradigm for model fitting with applications to image analysis
    and automated cartography. Communications-of-the-ACM,
    24(6):381–95, 1981.
    [12] C. Harris and M. Stephens. A combined corner and edge detector.
    In Proc. Alvey Conf., pages 189–192, 1988.
    [13] R. I. Hartley and A. Zisserman. Multiple View Geometry in
    Computer Vision. Cambridge University Press, ISBN: 0521540518,
    second edition, 2004.
    [14] Richard Hartley. In defense of the eight-point algorithm. IEEE
    Transactions on Pattern Analysis and Machine Intelligence,
    19:580–593, 1997.
    [15] Berthold K. P. Horn and Brian G. Schunck. Determining optical
    flow. Artifical Intelligence, 17:185–203, 1981.
    [16] Vladimir Kolmogorov and Ramin Zabih. What energy functions
    can be minimized via graph cuts. IEEE Transactions on Pattern
    Analysis and Machine Intelligence, 26:65–81, 2004.
    [17] David G. Lowe. Object recognition from local scale-invariant
    features. In International Conference on Computer Vision, pages
    1150–1157, 1999.
    [18] David G. Lowe. Distinctive image features from scale-invariant
    keypoints. Int. J. Comput. Vision, 60(2):91–110, 2004.
    [19] Bruce D. Lucas and Takeo Kanade. An iterative image registration
    technique with an application to stereo vision. pages 674–679,
    1981.
    [20] Mark Lutz. Learning Python. O’Reilly Media Inc., 2009.
    312
    [21] Will McGugan. Beginning Game Development with Python and
    Pygame. Apress, 2007.
    [22] F. Meyer. Color image segmentation. In Proc. of the 4th Conference
    on Image Processing and its Applications, pages 302–306, 1992.
    [23] D. Nistér and H. Stewénius. Scalable recognition with a vocabulary
    tree. In IEEE Conference on Computer Vision and Pattern
    Recognition (CVPR), volume 2, pages 2161–2168, 2006.
    [24] Travis E. Oliphant. Guide to NumPy. http://www.tramy.us/
    numpybook.pdf, 2006.
    [25] M. Pollefeys, L. Van Gool, M. Vergauwen, F. Verbiest, K. Cornelis,
    J. Tops, and R. Koch. Visual modeling with a hand-held camera.
    International Journal of Computer Vision, 59(3):207–232, 2004.
    [26] Marc Pollefeys. Visual 3d modeling from images – tutorial notes.
    Technical report, University of North Carolina âA¸S- Chapel Hill.
    ˘
    [27] Carsten Rother, Vladimir Kolmogorov, and Andrew Blake.
    Grabcut: Interactive foreground extraction using iterated graph
    cuts. ACM Transactions on Graphics, 23:309–314, 2004.
    [28] L. I. Rudin, S. J. Osher, and E. Fatemi. Nonlinear total variation
    based noise removal algorithms. Physica D, 60:259–268, 1992.
    [29] Daniel Scharstein and Richard Szeliski. A taxonomy and
    evaluation of dense two-frame stereo correspondence algorithms.
    International Journal of Computer Vision, 2001.
    [30] Daniel Scharstein and Richard Szeliski. High-accuracy stereo
    depth maps using structured light. In IEEE Computer Society
    Conference on Computer Vision and Pattern Recognition, 2003.
    [31] Toby Segaran. Programming Collective Intelligence. O’Reilly
    Media, 2007.
    313
    [32] Jianbo Shi and Jitendra Malik. Normalized cuts and image
    segmentation. IEEE Trans. Pattern Anal. Mach. Intell., 22:888–
    905, August 2000.
    [33] Jianbo Shi and Carlo Tomasi. Good features to track. In 1994
    IEEE Conference on Computer Vision and Pattern Recognition
    (CVPR’94), pages 593 – 600, 1994.
    [34] Noah Snavely, Steven M. Seitz, and Richard Szeliski. Photo
    tourism: Exploring photo collections in 3d. In SIGGRAPH
    Conference Proceedings, pages 835–846. ACM Press, 2006.
    [35] Bill Triggs, Philip F. McLauchlan, Richard I. Hartley, and Andrew W.
    Fitzgibbon. Bundle adjustment - a modern synthesis. In Proceedings
    of the International Workshop on Vision Algorithms: Theory and
    Practice, ICCV ’99, pages 298–372. Springer-Verlag, 2000.
    [36] A. Vedaldi and B. Fulkerson. VLFeat: An open and portable library
    of computer vision algorithms. http://www.vlfeat.org/, 2008
    [37] Deepak Verma and Marina Meila. A comparison of spectral
    clustering algorithms. Technical report, 2003.
    [38] Luminita A. Vese and Tony F. Chan. A multiphase level set
    framework for image segmentation using the mumford and shah
    model. Int. J. Comput. Vision, 50:271– 293, December 2002.
    [39] Paul Viola and Michael Jones. Robust real-time object detection.
    In International Journal of Computer Vision, 2001.
    [40] Marco Zuliani. Ransac for dummies. Technical report, Vision
    Research Lab, UCSB, 2011.
    [41] Triggs, P.M., R. Hartley, and A. Fitzgibbon, Bundle adjustment – a
    modern synthesis. 2000.
    [42] Kanade, C.T.a.T., Shape and motion from image streams under
    orthography: a factorization method. European Conf. on Computer
    Vision, 1992.
    314
    [43] Sturm, P.F. and B. Triggs, A Factorization Based Algorithm for
    Multi-Image Projective Structure and Motion, in Proceedings of
    the 4th European Conference on Computer Vision-Volume II -
    Volume II. 1996, Springer-Verlag. p. 709-720.
    [44] J.-P. Tardif, A.B., M. Trudeau, N. Guilbert, and S. Roy, Algorithms
    for batch matrix factorization with application to structure from
    motion. Conf. Computer Vision and Patern Recognition, 2007.
    [45] Nister, D., Reconstruction from uncalibrated sequences with a
    hierarchy of trifocal tesors. European Conf. on Computer Vision,
    2000.
    [46] R. Gherardi, M.F., and A. Fusiello, Improving the efficiency of
    hierarchical struc-ture-and-motion. Conf. Computer Vision and
    Pattern Recognition, 2010.
    [47] T. Thormaehlen, H.B., and A. Weissenfeld, Keyframe selection
    for camera motion and structure estimation from multiple views.
    European Conf. on Computer Vision, 2004.
    [48] P. Torr, A.F., and A. Zisserman, The problem of degeneracy in
    structure and mo-tion recovery from uncalibrated image sequences.
    Int.Journal of Computer Vision, 1999.
    [49] K. Cornelis, F.V., and L. Van Gool Drift detection and removal for
    sequential structure from motion algorithms. IEEE Transactions
    on Pattern Analysis and Machine Intelligence, 2004.
    [50] Andrey Vavilin, K.-H.J., Moon-Ho Jeong, Jong-Eun Ha and Dong
    Joong Kang, Automatic Context Analysis for Image Classification
    and Retrieval. LNCS, 2011. 6838: p. 377-382.
    [51] Andrey Vavilin, M.-H.L.a.K.-H.J., Optimal Feature Subset
    Selection for Urban Scenes Understanding. URAI, 2010
    [52] Lowe, D., Distinctive Image Features from Scale-Invariant Interest
    Points. International Journal of Computer Vision, 2004. 60: p. 91-110.
    315
    [53] Govindu, V., Robustness in motion averaging. In Eur. Conf.
    Computer Vision, 2006.
    [54] Hartley, F.K.a.R., Multiple view geometry under the L∞-norm.
    IEEE Transations on Pattern Analysis and Machine Intelligence,
    2008.
    [55] C. Olsson, A.E., R. Hartley, Outlier Removal using Duality. IEEE
    Conference on Computer Vision and Pattern Recognition, 2010.
    [56] Ponce, Y.F.a.J., Accurate, Dense, and Robust Multi-View
    Stereopsis. IEEE Transactions on Pattern Analysis and Machine
    Intelligence, 2009.
    [57] Celenk, M., A Color Clustering Technique for Image Segmentation.
    Computer Vision, Graphics and Image Processing, 1990. 52: p.
    145-170.
    [58] R. Haralick, K.S., I. Dunstein, Textural features for image
    classification. IEEE Transactions on Systems, Man, and
    Cybernetics, 1973. 3: p. 610–621.
    [59] Sturm, P., Critical motion sequences for monocular self-calibration
    and uncalibrated eu-clidean reconstruction. Conference on
    Computer Vision and Pattern Recognition, 1997.
    [60] F. Kahl, R.H., and K. Astraom, Critical congurations for
    n-view projective recon-struction. Computer Vision and Pattern
    Recognition, 2001.
    [61] O. Enqvist, F.K., Fredrik and C. Olsson, Carl, Non-Sequential
    Structure from Motion. Workshop on Omnidirectional Vision,
    Camera Networks and Non-Classical Cameras, 2011.
    [62] Harris, M.S., A combined corner and edge detector. Alvey Vision
    Conference, 1998: p. 147-151.
    [63] Herbert Bay, T.T., Luc Van Gool, SURF: speeched up robust
    features. ECCV, 2006. 3951: p. 404-417.
    316
    [64] Schmid, K.M.a.C., A performance evaluation of local descriptors.
    Trans. Pattern Analysis and Machine Intelligence, 2005.
    [65] R. I. Hartley and A. Zisserman., Multiple View Geometry in
    Computer Vision. 2004.
    [66] C. Zach, M.K., and M. Pollefeys, Disambiguating visual relations
    using loop constraints. Conf. Computer Vision and Pattern
    Recognition, 2010.
    [67] Pajdla, D.M.a.T., Robust rotation and translation estimation in
    multiview reconstruction. CVPR, 2007: p. 1–8.
    [68] Kahl, R.H.a.F., Global optimization through rotation space search.
    IJCV, 2009.
    [69] Hartley, K.S.a.R., Removing outliers using the L∞-norm. Conf.
    Computer Vision and Pattern Recognition, 2006: p. 485–492.
    [70] Keriven, A.D.a.R., L1-penalized robust estimation for a class
    of inverse problems arising in multiview geometry. Neural
    Information Processing Systems, 2009.
    [71] Vandenberghe, S.B.a.L., Convex Optimization. Cambridge
    University Press, 2004.
    [72] Geyer, C., Daniilidis, K., Catadioptric projective geometry. Int. J.
    Comput. Vis., 2001. 45(3): p. 223–243.
    [73] Rives, C.M.a.P., Single View Point Omnidirectional Camera
    Calibration from Planar Grids. IEEE International Conference on
    Robotics and Automation, 2007.
    [74] J.C. Bazin, C.D., P. Vasseur, I.S. Kweon, Motion estimation
    by decoupling rotation and translation in catadioptric vision.
    Computer Vision and Image Understanding, 2010. 114(2010): p.
    254-273.
    [75] J.P. Barreto, H.A., Fitting conics to paracatadioptric projections of
    317
    lines. Computer Vision and Image Understanding 2006. 101(3): p.
    151–165.
    [76] D. Nistér, O.N., and J. Bergen Visual odometer. Computer Vision
    and Pattern Recognition, 2004: p. I652–I659.
    [77] E. Royer, M.L., M. Dhome, and J. M. Lavest, Monocular vision for
    mobile robot localization and autonomous navigation. International
    Journal of Computer Vision, 2007. 74(3): p. 237–260.
    [78] R. García-García, M.A.S., I. Parra, D. Fernández, J. E. Naranjo,
    and M. Gavilán, 3D visual odometry for road vehicles. Journal of
    Intelligent and Robotic Systems, 2008. 51(1): p. 1 13-134.
    [79] K. Konolige, M.A., and J. Solà, Large-scale visual odometry for
    rough terrain. International Symposium on Robotics Research,
    2007.
    [80] Scaramuzza, D., 1-Point-RANSAC Structure from Motion
    for Vehicle-Mounted Cameras by Exploiting Non-Holonomic
    Constraints. International Journal of Computer Vision, 2011. 95:
    p. 74-85.
    [81] Trivedi, T.G.a.M., Parametric ego-motion estimation for vehicle
    surround analysis using an omnidirectional camera. Machine
    Vision and Applications, 2005. 16(2): p. 85–95.
    [82] J. P. Tardif, Y.P., and K. Daniilidis, Monocular visual odometry in
    urban environments using an omnidirectional camera. Proceedings
    of the IEEE/RSJ International Conference on Intelligent Robots
    and Systems, 2008: p. 2531–2538.
    [83] S. Y. Kim, K.S.Y., D. H. Lee, and M. H. Lee, The Localization of
    a Mobile Robot Using a Pseudolite Ultrasonic System and a Dead
    Reckoning Integrated System. International Journal of Control,
    Automation, and Systems, 2011. 9(2): p. 339-347.
    318
    [84] S. Sukkarieh, E.M.N., and H. F. Durrant-Whyte, A high
    integrity IMU/GPS navigation loop for autonomous land vehicle
    applications. IEEE Transactions on Robotics and Automation,
    1999. 15(3): p. 572–578.
    [85] J.-H. Choi, Y.-W.P., J.-B. Song, and I.-S. Kweon, “,”, vol. 9, no.
    4, pp.,. Localization using GPS and VISION aided INS with an
    Image Database and a Network of a Ground-based Reference
    Station in Outdoor Environments. International Journal of Control,
    Automation, and Systems, 2011. 9(4): p. 716-725.
    [86] Y.-J. Lee, B.-D.Y., and J.-B. Song, Mobile Robot Localization
    based on Effective Combination of Vision and Range Sensors.
    International Journal of Control, Automation, and Systems, 2009.
    7(1): p. 97-104.
    [87] Lijun Wei, C.C., Yassine Ruichek, and Frédérick Zann, GPS
    and Stereovision-Based Visual Odometry: Application to Urban
    Scene Mapping and Intelligent Vehicle Localization. International
    Journal of Vehicular Technology, 2011. 2011.
    [88] Siegwart, R., Nourbakhsh, I., Introduction to Autonomous Mobile
    Robots. MIT Press, 2004.
    [89] Nister, D., Preemptive ransac for live structure and motion
    estimation. Machine Vision and Applications, 2005. 16: p. 321–
    329.
    [90] H. G. Barrow, J.M.T., R.C. Bolles, H.C. Wolf, Parametric
    correspondence and chamfer matching: two new techniques
    for image matching. Proceedings of the 5th international joint
    conference on Artificial intelligence, 1977: p. 659-663.
    [91] Bonnifait, M.E.E.N.a.P., A road-matching method for precise
    vehicle localization using belief theory and kalman filtering.
    Auton. Robots, 2005. 19: p. 173–191.
    319
    H- M., H.-K.L., K.-W. Choi, and S.-W. Bang, Mobile Robot
    Localization with Gyroscope and Constrained Kalman Filter.
    International Journal of Control, Automation, and Systems, 2010.
    8(3): p. 667-676.
     

Chia sẻ trang này