طراحی و ساخت سامانه ی ردیابی بلادرنگ اهداف متحرک مبتنی بر الگوریتم TLD با استفاده از سخت افزار رزبری پای

نوع مقاله: پژوهشی

نویسندگان

1 دانشجوی کارشناسی ارشد رشته ی برق-مخابرات سیستم، دانشگاه آزاد اسلامی واحد سیرجان، سیرجان

2 استادیار گروه برق، دانشگاه آزاد اسلامی واحد بافت، بافت

چکیده

TLD مخفف ردیابی، یادگیری و آشکارسازی است. همان طور که از نام آن پیداست، این ردیاب، کار ردیابی طولانی مدت را به سه جزء کوتاه مدت ردیابی، یادگیری و آشکارسازی، تجزیه می‌کند. ردیاب، شئ را به صورت فریم به فریم دنبال می‌کند. آشکارساز همه مواردی که تاکنون مشاهده شده‌اند را دسته بندی می‌کند و در صورت لزوم ردیاب را اصلاح می‌کند. بخش یادگیری، خطاهای آشکارساز را محاسبه کرده و آن را به روز می‌کند تا از بروز این اشتباهات در آینده جلوگیری شود. خروجی این ردیاب تمایل به حرکت در اطراف بسیار کمی دارد. به نظر می‌رسد این ردیاب بتواند یک شی در یک مقیاس، حرکت و انسداد بزرگتر را دنبال کند. اگر یک دنباله ویدئویی داشته باشیم که در آن شی مورد نظر در پشت یک شی دیگر پنهان باشد، این ردیاب می تواند انتخاب خوبی باشد. در این مقاله، ما در ابتدا به تشریح کامل این الگوریتم پرداختیم و سپس در سه آزمایش مجزا بر روی سکانس ها و دنباله فریم های معیار و ویدئوهای زنده از این الگوریتم با سخت افزار رزبری پای و زبان برنامه نویسی پایتون استفاده کردیم و نتایج را ارائه نمودیم. سپس با استفاده از الگوریتم TLD و مینی کامپیوتر تک بوردی رزبری پای و با کمک یک دوربین که به وسیله ی سرووموتورها قابلیت چرخش در سمت و ارتفاع را دارد، سامانه ای را طراحی کرده و ساخته ایم که به وسیله ی آن اهداف متحرک موجود در تصاویر زنده دریافتی از دوربین را به صورت بلادرنگ دنبال کنیم.

کلیدواژه‌ها


عنوان مقاله [English]

Designing and building a real-time moving object tracking system based on tracking learning detection(TLD) algorithm using raspberry pi hardware

نویسندگان [English]

  • Hassan Darvishi 1
  • Mehran Abdali 2
1 ISLAMIC AZAD UNIVERSITY,Sirjan Branch,Faculty of Engineering and Technology,Department of Telecommunication Engineering
2 ISLAMIC AZAD UNIVERSITY,Baft Branch,Faculty of Engineering and Technology,Department of Telecommunication Engineering
چکیده [English]

TLD stands for Tracking, Learning and Detection. As its name implies, this tracker breaks down the long-term tracking task into three short-term components of tracking, learning, and detection. The tracker tracks the object frame by frame. The detector categorizes all that has been observed so far and corrects the detector if necessary. The Learning section calculates and updates the detector errors to prevent future errors. The output of this detector tends to move around very little. For example, if we track one pedestrian and there are other pedestrians on the scene, this tracker may sometimes temporarily track a pedestrian other than we intended to, and by revealing Repeat the desired object immediately follow it. On the positive side, this detector looks to be able to track an object on a larger scale, move, and block. If you have a video sequence where the object is hidden behind another object, this detector can be a good choice.
In this research, we were able to tracking the moving objects in the live videos captured by the camera by using the TLD algorithms applying on a Raspberry Pi (single board mini computer) with the help of two servomotors that rotate the camera vertically and horizontally. We followed the objects in real time.

کلیدواژه‌ها [English]

  • real-time tracking
  • Tracking-Learning-Detection algorithm
  • Raspberry Pi mini computer
  • moving camera
  • P-N learning
[1] Zdenek Kalal, Krystian Mikolajczyk, and Jiri TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 6, NO. 1, JANUARY 2010
[2]  O. Williams, A. Blake, and R. Cipolla, “Sparse bayesian learning for efficient visual tracking,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 27, no. 8, pp. 1292–1304, 2005.
[3]  M. Isard and A. Blake, “CONDENSATION Conditional Density Propagation for Visual Tracking,” International Journal of Computer Vision, vol. 29, no. 1, pp. 5–28, 1998.
[4]  Y. Li, H. Ai, T. Yamashita, S. Lao, and M. Kawade, “Tracking in Low Frame Rate Video: A Cascade Particle Filter with Discriminative Observers of Different Lifespans,” Conference on Computer Vision and Pattern Recognition, 2007.
[5]  K. Okuma, A. Taleghani, N. de Freitas, J. J. Little, and D. G. Lowe, “A boosted particle filter: Multitarget detection and tracking,” European Conference on Computer Vision, 2004.
[6]  B. Leibe, K. Schindler, and L. Van Gool, “Coupled Detection and Trajectory Estimation for Multi-Object Tracking,” 2007 IEEE 11th International Conference on Computer Vision, pp. 1–8, Oct. 2007.
[7]  H. Grabner and H. Bischof, “On-line boosting and vision,” Conference on Computer Vision and Pattern Recognition, 2006.
[8]  B. Babenko, M.-H. Yang, and S. Belongie, “Visual Tracking with Online Multiple Instance Learning,” Conference on Computer Vision and Pattern Recognition, 2009.
[9]  H. Grabner, C. Leistner, and H. Bischof, “Semi-Supervised On-line Boosting for Robust Tracking,” European Conference on Computer Vision, 2008.
[10]  F. Tang, S. Brennan, Q. Zhao, H. Tao, and U. C. Santa Cruz, “Cotracking using semi-supervised support vector machines,” International Conference on Computer Vision, pp. 1–8, 2007.
[11]  Q. Yu, T. B. Dinh, and G. Medioni, “Online tracking and reacquisition using co-trained generative and discriminative trackers,” European Conference on Computer Vision, 2008.
[12]  K. K. Sung and T. Poggio, “Example-based learning for view-based human face detection,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 20, no. 1, pp. 39–51, 1998.
[13]  P. Viola and M. Jones, “Rapid object detection using a boosted cascade of simple features,” Conference on Computer Vision and Pattern Recognition, 2001.
[14] V. Lepetit and P. Fua, “Keypoint recognition using randomized trees.,” IEEE transactions on pattern analysis and machine intelligence, vol. 28, pp. 1465–79, Sept. 2006.
[15]  M. Ozuysal, P. Fua, and V. Lepetit, “Fast Keypoint Recognition in Ten Lines of Code,” Conference on Computer Vision and Pattern Recognition, 2007.
[16]  M. Calonder, V. Lepetit, and P. Fua, “BRIEF : Binary Robust Independent Elementary Features,” European Conference on Computer Vision, 2010.
[17]  J. Y. Bouguet, “Pyramidal Implementation of the Lucas Kanade Feature Tracker Description of the algorithm,” Technical Report, Intel Microprocessor Research Labs, 1999.
[18]  Z. Kalal, K. Mikolajczyk, and J. Matas, “Forward-Backward Error: Automatic Detection of Tracking Failures,” International Conference on Pattern Recognition, pp. 23–26, 2010.
[19]  Z. Kalal, J. Matas, and K. Mikolajczyk, “Online learning of robust object detectors during unstable tracking,” On-line Learning for Computer Vision Workshop, 2009.