Detección de obstáculos basada en aprendizaje profundo en el marco de IoT para ayudar a personas con discapacidad visual
DOI:
https://doi.org/10.15649/2346030X.3789Palabras clave:
detección de obstáculos, optimización de la solubilidad del gas henry, segmentación profunda de juntas, red neuronal convolucional profunda, características cnnResumen
Los problemas de discapacidad visual no se pueden aliviar por completo, pero con la ayuda de tecnología avanzada, se pueden disminuir sus sufrimientos mediante la introducción de métodos de detección de obstáculos. El objetivo de este estudio es idear una nueva técnica, a saber, optimización de la solubilidad del gas Henri con detección de obstáculos basada en redes neuronales convolucionales profundas (HGSO + DeepCNN) para personas ciegas. Los pasos de procesamiento involucrados en la detección de obstáculos implican simulación, enrutamiento y detección de obstáculos de IoT. La red IoT simulada está compuesta por múltiples nodos capaces de recopilar vídeos. La información recopilada se transmite a través del protocolo de enrutamiento basado en optimización, denominado HGSO, donde se seleccionan las medidas de aptitud, como energía, distancia y retraso. La detección de obstáculos a partir del vídeo se lleva a cabo en la estación base de IoT, lo que implica varios procesos, a saber, extracción de fotogramas de vídeo, extracción de características, detección de objetos y reconocimiento de objetos. El proceso de conversión de cuadros de video convierte los videos en varios cuadros. Además, el proceso de detección de objetos se realiza en función de las potentes funciones de CNN extraídas mediante la segmentación de articulaciones profundas. Finalmente se detectan los obstáculos que existen en el encuadre mediante Deep CNN. Los resultados experimentales demuestran que el modelo HGSO+Deep CNN desarrollado logró un mejor rendimiento basado en precisión, sensibilidad, especificidad, retraso, energía y rendimiento de 0,959, 0,9683, 0,9987, 0,0236 segundos, 0,3564 J y 0,7835 Mbps, respectivamente.
Referencias
V. A. Vignesh and K. Madheswari, "Object detection application for visually challenged people using internet of things," International Journal for Research in Engineering Application & Management, vol. 2, no. 6, pp. 72–76, Mar. 2017.
K. Potdar, C. D. Pai, and S. Akolkar, "A convolutional neural network based live object recognition system as blind aid,"Computer Vision and Pattern Recognition, 2018.
S. Bhole and A. Dhok, "Deep Learning based Object Detection and Recognition Framework for the Visually-Impaired," in Proceedings of Fourth International Conference on Computing Methodologies and Communication (ICCMC), pp. 725–728, Mar. 2020.
M. M. Islam, M. S. Sadi, K. Z. Zamli, and M. M. Ahmed, "Developing walking assistants for visually impaired people: A review," IEEE Sensors Journal, vol. 19, no. 8, pp. 2814–2828, Jan. 2019.
R. Haque, M. Islam, K. S. Alam, H. Iqbal, and E. Shaik, A Computer Vision based Lane Detection Approach," International Journal of Image, Graphics & Signal Processing, vol. 11, no. 3, Mar. 2019.
M. M. Islam, M. R. Islam, and M. S. Islam, "An efficient human computer interaction through hand gesture using deep convolutional neural network," SN Computer Science, vol. 1, no. 4, pp. 1–9, Jul. 2020.
M. R. Puttaswamy, "Improved Deer Hunting Optimization Algorithm for video based salient object detection," Multimedia Research, vol. 3, no. 3, 2020.
J. Monteiro, J. P. Aires, R. Granada, R. C. Barros, and F. Meneguzzi, "Virtual guide dog: An application to support visually-impaired people through deep convolutional neural networks," in 2017 International Joint Conference on Neural Networks (IJCNN), pp. 2267–2274, 2017.
A. Renjit, "DeepJoint segmentation for the classification of severity-levels of glioma tumour using multimodal MRI images," IET Image Processing, vol. 14, no. 11, pp. 2541–2552, 2020.
J. R. Tapu, B. Mocanu, and T. Zaharia, "Seeing without sight-an automatic cognition system dedicated to blind and visually impaired people," in Proceedings of the IEEE International Conference on Computer Vision Workshops, pp. 1452–1459, 2017.
B.-S. Lin, C.-C. Lee, and P.-Y. Chiang, "Simple smartphone-based guiding system for visually impaired people," Sensors, vol. 17, no. 6, pp. 1371, 2017.
F. A. Hashim, E. H. Houssein, M. S. Mabrouk, W. Al-Atabany, and S. Mirjalili, "Henry gas solubility optimization: A novel physics-based algorithm," Future Generation Computer Systems, vol. 101, pp. 646–667, Dec. 2019.
F. Tu et al., "Deep convolutional neural network architecture with reconfigurable computation patterns," IEEE Transactions on Very Large Scale Integration (VLSI) Systems, vol. 25, no. 8, pp. 2220–2233, 2017.
R. Kumar and S. Meher, "A novel method for visually impaired using object recognition," in 2015 International Conference on Communications and Signal Processing (ICCSP), IEEE, pp. 772–776, 2015.
H. Kusuma, M. Attamimi, and H. Fahrudin, "Deep learning based facial expressions recognition system for assisting visually impaired persons," Bulletin of Electrical Engineering and Informatics, vol. 9, no. 3, pp. 1208–1219, Jun. 2020.
A. Hengle et al., "Smart Cap: A Deep Learning and IoT Based Assistant for the Visually Impaired," in 2020 Third International Conference on Smart Systems and Inventive Technology (ICSSIT), pp. 1109–1116, Aug. 2020.
P. M. Kumar et al., "Intelligent face recognition and navigation system using neural learning for smart security in Internet of Things," Cluster Computing, vol. 22, no. 4, pp. 7733–7744, Jul. 2019.
A. Ashraf, S. Noor, M. A. Farooq, A. Ali, and A. Hasham, "Iot Empowered Smart Stick Assistance for Visually Impaired People," International Journal of Science and Technology, vol. 9, no. 10, Oct. 2020.
"Video object tracking dataset," [Online]. Available: https://www.kaggle.com/kmader/videoobjecttracking. [Accessed: May. 2021].
R. Kumar and D. Kumar, "Multi-objective fractional artificial bee colony algorithm to energy aware routing protocol in wireless sensor network," Wireless Networks, vol. 22, no. 5, pp. 1461–1474, 2016.
F. Z. Aadi and A. Sadiq, "Proposed real-time obstacle detection system for visually impaired assistance based on deep learning," International Journal of Advanced Trends in Computer Science and Engineering, vol. 9, no. 4, Jul. 2020.
F. S. Bashiri, E. LaRose, J. C. Badger, R. M. D’Souza, Z. Yu, and P. Peissig, "Object detection to assist visually impaired people: A deep neural network adventure," in International Symposium on Visual Computing, pp. 500–510, Nov. 2018.
J. C. Ying, C. Y. Li, G. W. Wu, J. X. Li, W. J. Chen, and D. L. Yang, "A deep learning approach to sensory navigation device for blind guidance," in Proceedings of IEEE 20th International Conference on High Performance Computing and Communications, IEEE 16th International Conference on Smart City, IEEE 4th International Conference on Data Science and Systems, pp. 1195–1200, Jun. 2018.
Descargas
Publicado
Cómo citar
Número
Sección
Altmetrics
Descargas
Licencia
Derechos de autor 2024 AiBi Revista de Investigación, Administración e Ingeniería
Esta obra está bajo una licencia internacional Creative Commons Atribución 4.0.
La revista ofrece acceso abierto bajo una Licencia Creative Commons Attibution License
Esta obra está bajo una licencia Creative Commons Attribution (CC BY 4.0).