Vol. 24 Núm. 2 (2025): Revista UIS Ingenierías
Artículos

Bocellibot: Robot para asistir en movilidad a personas con limitación visual avanzada

Helber Vegara- Vargas
Universidad Nacional Abierta y a Distancia
Andrés Diaz- Toro
Universidad de Pamplona
Aylen Jaimes-Mogollón
Universidad de Pamplona

Publicado 2025-06-09

Palabras clave

  • discapacidad visual,
  • inclusión social,
  • calidad de vida,
  • robot lazarillo,
  • asistente en navegación,
  • seguridad en desplazamiento,
  • movilidad asistida,
  • espacios interiores,
  • robótica móvil,
  • lugares desconocidos,
  • velocidad de desplazamiento,
  • internet de las cosas
  • ...Más
    Menos

Cómo citar

Vegara- Vargas, H., Diaz- Toro, A., & Jaimes-Mogollón , A. (2025). Bocellibot: Robot para asistir en movilidad a personas con limitación visual avanzada. Revista UIS Ingenierías, 24(2), 1–16. https://doi.org/10.18273/revuin.v24n2-2025001

Resumen

Las personas con discapacidades enfrentan diariamente múltiples desafíos, como dificultades en la interacción social, desplazamiento en espacios públicos, acceso a bienes y servicios, transporte público, oportunidades de empleo y educación, entre otros. En Colombia, el Ministerio de Salud y Protección Social ha liderado la construcción de la Política Pública Nacional de Discapacidad e Inclusión Social, una iniciativa orientada a implementar estrategias que mejoren la calidad de vida de las personas con discapacidad y sus familias. Según el censo de 2018, 3´134.036 personas (el 7,1% de la población nacional) presenta alguna discapacidad, y de este grupo, 1´948.332 personas presentan discapacidad visual, lo que representa un reto significativo para su autonomía y desarrollo personal. Estas personas enfrentan dificultades para desplazarse en ambientes desconocidos, ya que su limitación visual impide identificar logotipos, objetos o símbolos, además de la dificultad en la percepción de distancia, formas, profundidad o colores. Esto afecta negativamente su independencia y compromete aspectos fundamentales como la seguridad, autoestima, participación social y autorrealización. En este contexto, el presente proyecto desarrolla un robot lazarillo con un enfoque en Internet de las Cosas, diseñado para asistir a personas con discapacidad visual en desplazamientos en espacios interiores como centros comerciales, entidades gubernamentales y centros de salud. El robot aumenta la autonomía en la toma de decisiones, respetando la privacidad y libertad del usuario. Las pruebas realizadas demuestran que el sistema guía de manera segura y eficiente hacia puntos de interés, logrando una interacción efectiva a través de comandos de voz y velocidades de desplazamiento adecuadas, contribuyendo así al fortalecimiento de la independencia de las personas con discapacidad visual.

 

Descargas

Los datos de descargas todavía no están disponibles.

Referencias

  1. C. Parra Dussan, “Los ciegos en el Censo 2018 - Instituto Nacional para Ciegos INCI”. [En línea]. Disponible en: https://www.inci.gov.co/blog/los-ciegos-en-el-censo-2018#:~:text=De%20otro%20lado%20la%20poblaci%C3%B3n,948.332%20personas%20con%20discapacidad%20visual.
  2. Ministerio de Salud y Protección Social, Política Pública Nacional de Discapacidad e Inclusión Social 2013 - 2022. 2014. [En línea]. Disponible en: https://www.minsalud.gov.co/sites/rid/Lists/BibliotecaDigital/RIDE/DE/PS/politica-publica-discapacidad-2013-2022.pdf
  3. S. D. Ontiveros-Paredes, D. Rojas-Balbuena, J. Martínez-Paredes, “Diseño y construcción de un bastón blanco electrónico para personas invidentes”, Científica, vol. 18, n.o 2, pp. 63-70, 2014.
  4. M. Monllor, F. Roberti, J. M. Toibero, R. Carelli, y A. F. Neto, “Design of a robotic cane to assist people with disabilities”, 2015 16th Workshop on Information Processing and Control, RPIC 2015, jun. 2016, doi: https://doi.org/10.1109/RPIC.2015.7497084
  5. C. R. Rojas Olaya y M. Silva Quiceno, “Implementación de un bastón detector de obstáculos elevados para personas invidentes”, Universidad de los Llanos, Villavicencio, 2016. [En línea]. Disponible en: https://repositorio.unillanos.edu.co/entities/publication/112a80d7-8525-4039-8c0f-9f6e9c95df72
  6. F. Shaikh, V. Kuvar, y M. Meghani, “Ultrasonic sound-based navigation and assistive system for visually impaired with real time location tracking and Panic button”, 2nd International Conference on Communication and Electronics Systems (ICCES), Coimbatore, India, 2017. doi: https://doi.org/10.1109/CESYS.2017.8321259
  7. N. S. Khan, S. Kundu, S. Al Ahsan, M. Sarker, M. N. Islam, “An Assistive System of Walking for Visually Impaired”, International Conference on Computer, Communication, Chemical, Material and Electronic Engineering, IC4ME2 2018, doi: https://doi.org/10.1109/IC4ME2.2018.8465669
  8. R. A. Baque-Soledispa y V. Romero-Castro, “Desarrollo de un prototipo de guante ultrasónico para personas con discapacidad visual para el laboratorio de robótica”, 2018. [En línea]. Disponible en: https://repositorio.unesum.edu.ec/handle/53000/1470
  9. D. A. Espinoza Moncayo, C. D. Peña Mendoza, “Diseño e implementación de un prototipo de gafas electrónicas con comunicación bluetooth a un celular para la detección de objetos circundantes que servirá como”, Universidad Politécnica Salesiana, Guayaquil, 2015. [En línea]. Disponible en: https://dspace.ups.edu.ec/handle/123456789/10424
  10. A. J. Villacreses-Córdova, K. G. Marcillo Parrales, “Desarrollo de un Prototipo de Gafas Electrónicas con Sensores Ultrasónicos Orientado a Personas no Videntes para el Laboratorio de Robótica en la Carrera de Ingeniería en Computación y Redes”, Universidad Estatal del Sur de Manabí, Manabí, 2019. [En línea]. Disponible en: https://repositorio.unesum.edu.ec/handle/53000/1551
  11. S. Busaeed, R. Mehmood, I. Katib, y J. M. Corchado, “LidSonic for Visually Impaired: Green Machine Learning-Based Assistive Smart Glasses with Smart App and Arduino”, Electronics, Vol. 11, Page 1076, vol. 11, n.o 7, p. 1076, 2022, doi: https://doi.org/10.3390/ELECTRONICS11071076
  12. J. Varela-Aldás, J. Guamán, B. Paredes, y F. A. Chicaiza, “Robotic cane for the visually impaired”, Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), vol. 12188 LNCS, pp. 506-517, 2020, doi: https://doi.org/10.1007/978-3-030-49282-3_36/TABLES/1
  13. Y. Zhang et al., “I am the follower, also the boss”: Exploring Different Levels of Autonomy and Machine Forms of Guiding Robots for the Visually Impaired”, Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems, 2023, p. 22, 2023, doi: https://doi.org/10.1145/3544548.3580884
  14. M. F. Jiménez, R. C. Mello, T. Bastos, y A. Frizera, “Assistive locomotion device with haptic feedback for guiding visually impaired people”, Med Eng Phys, vol. 80, pp. 18-25, 2020, doi: https://doi.org/10.1016/J.MEDENGPHY.2020.04.002
  15. M. Farina, P. Rattamasanaprapai, P. Marson, F. Camuncoli, y M. Galli, “Design, realization, control, and validation of a smart tether system for a robotic guide for blind and visually impaired users”, IFAC-PapersOnLine, vol. 56, n.o 2, pp. 1115-1120, 2023, doi: https://doi.org/10.1016/J.IFACOL.2023.10.1713
  16. J. Li, M. Corno, y M. Farina, “A method to detect the sudden stopping in an assistive robot for the visually impaired people”, IFAC-PapersOnLine, vol. 58, no. 28, pp. 624-629, 2024, doi: https://doi.org/10.1016/J.IFACOL.2025.01.035
  17. B. L. Due, “Guide dog versus robot dog: assembling visually impaired people with non-human agents and achieving assisted mobility through distributed co-constructed perception”, Mobilities, vol. 18, n.o 1, pp. 148-166, 2023, doi: https://doi.org/10.1080/17450101.2022.2086059
  18. J. Zhu, J. Hu, M. Zhang, Y. Chen, y S. Bi, “A fog computing model for implementing motion guide to visually impaired”, Simul Model Pract Theory, vol. 101, p. 102015, 2020, doi: https://doi.org/10.1016/J.SIMPAT.2019.102015
  19. L. Hu, Y. Jiang, F. Wang, K. Hwang, M. S. Hossain, G. Muhammad, “Follow me Robot-Mind: Cloud brain based personalized robot service with migration”, Future Generation Computer Systems, vol. 107, pp. 324-332, 2020, doi: https://doi.org/10.1016/J.FUTURE.2020.01.041
  20. A. Warmbein et al., “Robot-assisted early mobilization for intensive care unit patients: Feasibility and first-time clinical use”, Int J Nurs Stud, vol. 152, p. 104702, 2024, doi: https://doi.org/10.1016/J.IJNURSTU.2024.104702
  21. D. Dapena Pérez y A. Pérez Jiménez, “APP de control remoto de un robot sobre plataforma ANDROID”, Universitat Politècnica de València, Valencia, 2015. [En línea]. Disponible en: https://riunet.upv.es/handle/10251/48404
  22. A. Abdolrahmani, M. Gupta, M. L. Vader, “Towards more transactional voice assistants: Investigating the potential for a multimodal voice-activated indoor navigation assistant for blind and sighted travelers”, Conference on Human Factors in Computing Systems - Proceedings, doi: https://doi.org/10.1145/3411764.3445638/SUPPL_FILE/3411764.3445638_VIDEOPREVIEW.MP4.
  23. Pololu Robotics and Electronics, “QTR-8RC Reflectance Sensor Array”. [En línea]. Disponible en: https://www.pololu.com/product/961
  24. ETT CO. LTD, “Manual of IR Sensor Switch E18-D80NK-N”. Accedido: 8 de enero de 2025. [En línea]. Disponible en: https://www.ett.co.th/productSensor/E18-D80NK/Manual_IR-Sensor%20Switch%20E18.pdf
  25. TuriBOT Electrónica y Robótica, “Módulo RFID RC522 con tarjeta y mando”. [En línea]. Disponible en: https://www.turibot.es/modulo-rfid-rc522-de-135mhz-con-tarjeta-y-etiqueta?srsltid=AfmBOoqXmAq8ZLvjBgoamSc2jHCnhDiWAeMgIZAIR2V9UDL0PtDgdDjN
  26. Z. R. Kahaki, A. R. Safarpour, H. Daneshmandi, “The spatiotemporal gait parameters among people with visual impairment: A literature review study”, Oman J Ophthalmol, vol. 16, n.o 3, pp. 427-433, 2023, doi: https://doi.org/10.4103/OJO.OJO_24_23
  27. A. A. Diáz-Toro, S. E. Campanã-Bastidas, y E. F. Caicedo-Bravo, “Vision-Based System for Assisting Blind People to Wander Unknown Environments in a Safe Way”, J Sens, vol. 2021, n.o 1, p. 6685686, 2021, doi: https://doi.org/10.1155/2021/6685686
  28. H. C. Wang, R. K. Katzschmann, S. Teng, B. Araki, L. Giarre, D. Rus, “Enabling independent navigation for visually impaired people through a wearable vision-based feedback system”, Proceedings - IEEE International Conference on Robotics and Automation, Institute of Electrical and Electronics Engineers Inc., jul. 2017, pp. 6533-6540, doi: https://doi.org/10.1109/ICRA.2017.7989772
  29. Q. He, Y. He, Q. Liu, y C. Ma, “Acceptance of social assistant robots for the older adults living in the community in China”, Geriatr Nurs (Minneap), vol. 52, pp. 191-198, 2023, doi: https://doi.org/10.1016/J.GERINURSE.2023.06.006
  30. R. Szekely, C. Holloway, M. Bandukda, “Understanding the Psychosocial Impact of Assistive Technologies for People With Visual Impairments: Protocol for a Scoping Review”, JMIR Res Protoc, vol. 14, n.o 1, p. e65056, 2025, doi: https://doi.org/10.2196/65056
  31. J. P. Boada, B. R. Maestre, y C. T. Genís, “The ethical issues of social assistive robotics: A critical literature review”, Technol Soc, vol. 67, p. 101726, nov. 2021, doi: https://doi.org/10.1016/J.TECHSOC.2021.101726