Phát triển hệ thống bắt bám mục tiêu thời gian thực bằng Raspberry Pi

210 lượt xem

Các tác giả

  • Lê Vũ Nam (Tác giả đại diện) Viện Vật lý kỹ thuật, Viện Khoa học và Công nghệ quân sự
  • Khổng Vũ Liêm Viện Công nghệ thông tin, Viện Khoa học và Công nghệ quân sự
  • Nguyễn Văn Thư Viện Vật lý kỹ thuật, Viện Khoa học và Công nghệ quân sự
  • Phạm Đình Quý Viện Vật lý kỹ thuật, Viện Khoa học và Công nghệ quân sự

DOI:

https://doi.org/10.54939/1859-1043.j.mst.90.2023.127-133

Từ khóa:

Bắt bám mục tiêu; Raspberry Pi; KCF.

Tóm tắt

Kỹ thuật bắt bám mục tiêu sử dụng các thuật toán tìm kiếm và dự đoán của máy tính để định vị và dõi theo các mục tiêu một cách tự động mà không cần con người can thiệp. Việc áp dụng kỹ thuật bắt bám mục tiêu vào nhiệm vụ theo dõi, quan sát sẽ giúp nhiệm vụ này trở nên hiệu quả và dễ dàng hơn. Một yêu cầu quan trọng của nhiệm vụ này đó là tốc độ bắt bám phải đủ nhanh để đảm bảo yêu cầu thời gian thực, đồng thời vẫn đảm bảo độ chính xác và ổn định. Ngoài ra, các thiết bị quan sát thường sử dụng phần cứng nhỏ gọn như máy tính nhúng với hiệu năng thấp, các camera lại có độ phân giải cao. Trong bài báo này, một thuật toán bắt bám dựa trên lọc tương quan Kernel (KCF) được sử dụng trên máy tính Raspberry Pi 4B để thực hiện bắt bám tàu thuyền trên biển. Kết quả thử nghiệm cho thấy bắt bám chính xác, ổn định, tốc độ bắt bám đạt tới 20 FPS với độ phân giải của camera là 1280×720 pixel.

Tài liệu tham khảo

[1]. T. Collins et al., “Introduction to the Special Section on Video Surveillance”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 22, No. 8, 745-746, (2000).

[2]. J. Zhao, M. Wang, “A Study on Missile Plume Tracking and Localizing by Means of Forward Looking Infrared (FLIR)”, Journal of Solid Rocket Technology, Vol. 23, No. 4, 64-68, (2000).

[3]. V. Kastrinaki et al., “A Survey of Video Processing Techniques for Traffic Applications”, Image and Vision Computing, Vol. 21, No. 4, 359-381, (2003).

[4]. F. Bonin-Font et al., “Visual Navigation for Mobile Robots: A Survey”, Journal of Intelligent and Robotic Systems, Vol. 53, No. 3, 263-296, (2008).

[5]. D. Comaniciu et al., “Real-Time Tracking of Non-rigid Objects Using Mean Shift”, Proc of the IEEE CCV and PR, Washington, (2000).

[6]. Y. Cheng, “Mean Shift, Mode Seeking, and Clustering”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 17, No. 8, 790-799, (1995).

[7]. A. Adam et al., “Robust Fragments-Based Tracking Using the Integral Histogram”, Proc of the IEEE CSCCV and PR, Washington, 798-805, (2006).

[8]. F. Wang et al., “Robust and Efficient Fragments Based Tracking Using Mean Shift”, AEU-International Journal of Electronics and Communications, Vol. 64, No. 7, 614-623, (2010).

[9]. M. Turk, A. Pentland, “Eigenfaces for Recognition”, Journal of Cognitive Neuroscience, Vol. 3, No. 1, 71-86, (1991).

[10]. S. Yan et al., “Graph Embedding and Extensions: A General Framework for Dimensionality Reduction”, IEEE Transactions on PA and MI, Vol. 29, No.1, 40-51, (2007).

[11]. D. Donoho, “Compressed Sensing”, IEEE Transactions on Information Theory, Vol. 52, No.4, 1289-1306, (2006).

[12]. J. Wright, et al, “Sparse Representation for Computer Vision and Pattern Recognition”, IEEE, Vol. 98, No. 6, 1031-1044, (2010).

[13]. D. Bolme, et al., “Visual Object Tracking Using Adaptive Correlation Filter”, Proc of the IEEE CCV and PR, Washington, 2544-2550, (2010).

[14]. J. Henriques et al., “Exploiting the Circulant Structure of Tracking-by-Detection with Kernels”, Proc of the 12th ECCV, Berlin, 702-715, (2012).

[15]. J. Henriques et al., “High-Speed Tracking with Kernelized Correlation Filter”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 37, No. 3, 583-596, (2014).

[16]. L. Bertinetto, et al., “Staple: Complementary Learners for Real-Time Tracking”, Proc of the IEEE ICCV&PR, Washington, 1401-1409, (2016).

[17]. M. Tang, J. Feng, “Multi-kernel Correlation Filter for Visual Tracking”, Proc of the IEEE ICCV, Washington, 3038-3046, (2016).

[18]. J. Choi et al., “Attentional Correlation Filter Network for Adaptive Visual Tracking”, Proc of the IEEE ICCV&PR, Washington, 4807-4816, (2017).

[19]. C. Ma, et al., “Hierarchical Convolutional Features for Visual Tracking”, Proc of the IEEE ICCV, Washington, 3074-3082, (2015).

[20]. M. Danelljan et al., “Learning Spatially Regularized Correlation Filters for Visual Tracking”, Proc of the IEEE ICCV, Washington, 4310-4318, (2015).

[21]. D. Meimetis, et al., “Real-time multiple object tracking using deep learning methods”, Neural Computing and Applications, Vol. 35, 89-118, (2023).

[22]. Z. Soleimanitaleb, M. A. Keyvanrad, “Single Object Tracking: A Survey of Methods, Datasets, and Evaluation Metrics”, Computer Vision and Pattern Recognition, (2022).

[23]. H. Huadi et al., “Survey of Target Tracking Based on Improved Block Algorithm of Correlation Filtering”, Software Guide, Vol. 22, No. 3, 245-252, (2023).

[24]. H. Grabner, et al., “Real-Time Tracking via On-line Boosting”, Proc of the British Machine Vision Conference, Edinburgh, (2006).

Tải xuống

Đã Xuất bản

25-10-2023

Cách trích dẫn

Lê, V. N., V. L. Khổng, V. T. Nguyễn, và Đình Q. Phạm. “Phát triển hệ thống bắt bám mục Tiêu thời Gian thực bằng Raspberry Pi”. Tạp Chí Nghiên cứu Khoa học Và Công nghệ quân sự, vol 90, số p.h 90, Tháng Mười 2023, tr 127-33, doi:10.54939/1859-1043.j.mst.90.2023.127-133.

Số

Chuyên mục

Nghiên cứu khoa học

##category.category##