APLICACIÓN EN MATLAb PARA LA
ESTIMACIÓN DE LA VARIAbILIDAD DE LA
PRESIÓN ARTERIAL

JUAN CARLOS MALDONADO BELTRÁN
Ingeniero de Sistemas
Universidad Industrial de Santander
Escuela de Ingeniería de Sistemas e Informática
juan.maldonado@correo.uis.edu.co
COLOMBIA

RONALD GERARDO GARCÍA GÓMEZ
Médico, Ph.D. en Ciencias de la Salud
Fundación Cardiovascular de Colombia
Director del Grupo de Investigación en Sistema Nervioso Autónomo
Departamento de Investigaciones
ronaldgarcia@fcv.org
COLOMBIA

INFORMACIÓN DE LA INVESTIGACIÓN O DEL PROYECTO: Este trabajo se realizó con el aval del Grupo de Investigación en Ingeniería Biomédica (GIIB) de la Escuela de Ingeniería de Sistemas de la Universidad Industrial de Santander, y con el respaldo del Grupo de Investigación en Sistema Nervioso Autónomo de la Fundación Cardiovascular de Colombia (FCV), producto del trabajo de investigación titulado: Sistema de clasifi cación de pacientes a partir de variables clínicas y factores de riesgo cardiovascular.

TEMÁTICA: IAplicaciones en Ingeniería Biomédica.

TIPO DE ARTÍCULO: Reporte de Caso

RECEPCIÓN: 12 de Julio de 2012
ACEPTACIÓN: 6 de Agosto de 2012



RESUMEN ANALÍTICO

En el presente trabajo se abordan los conceptos fundamentales para la estimación de la variabilidad de la presión arterial a partir de registros digitalizados, empleando metodologías basadas en la implementación de métodos matemáticos para el procesamiento de la señal de presión arterial, con el objetivo de estimar los índices de variabilidad en el dominio del tiempo y frecuencia. En el dominio del tiempo se estimó la presión arterial máxima, mínima, promedio y desviación estándar, y en el dominio de la frecuencia, el índice de bajas frecuencias (LF, por sus siglas en ingles, low frequency), de altas frecuencias (HF, por sus siglas en ingles, high frequency), la relación entre bajas y altas frecuencias (LF/HF) y la potencia total (TP, por sus siglas en ingles, total power). Se desarrolló una aplicación usando el entorno de desarrollo integrado de Matlab, que implementa el algoritmo de Pan-Tompkins para la detección de los picos máximos de presión arterial y el método de Welch para la estimación de la densidad espectral de potencia. La herramienta se validó usando 20 señales correspondientes a 13 mujeres y 7 hombres entre los 12 y 87 años de edad y se comprobó la similitud entre los resultados obtenidos a partir de las estimaciones de variabilidad de la presión arterial arrojadas por la aplicación desarrollada, respecto a las estimaciones realizadas para los mismos índices usando el software WinCPRS (Absolute Aliens, Finland).

PALABRAS CLAVES: Variabilidad de la presión arterial, Análisis espectral, Método de Welch, Algoritmo de Pan-Tompkins.

MATLAb APPLICATION FOR THE ESTIMATION OF
bLOOD PRESSURE VARIAbILITY

ANALYTICAL SUMMARY

This work presents an approach of the fundamental concepts to estimate blood pressure variability from digitalized records, using methodologies based on implementation of mathematical methods for blood pressure signal processing, with the objective to estimate the indicators of variability in time domain and in frequency domain. On the time domain it were estimated the maximum blood pressure, minimum, average and standard deviation, and in frequency domain it was calculated the index of low frequency (LF), high frequency (HF), the relationship between low and high frequencies (LF/HF) and the total power (TP). It was developed a software application using the integrated development environment of Matlab that implements the Pan-Tompkins algorithm for detection of maximum blood pressure peaks and also the Welch method for estimation of power spectral density. The tool was validated using 20 signals corresponding to 13 women and 7 men between 12 and 87 years old and it was confirmed the similarity among the results obtained from the estimation of blood pressure variability by the developed application, with the estimation made for the same indicators by WinCPRS (Absolute Aliens, Finland) software.

Keywords: Blood pressure variability, Spectral Analysis, Welch’s method, Pan-Tompkins algorithm.



INTRODUCCIÓN

Investigaciones recientes en biología vascular y dinámica del flujo sanguíneo a través de la arteria coronaria sugieren que la variabilidad de la presión arterial (VPA) puede ser un factor de riesgo cardiovascular independientemente del valor promedio de presión arterial (PA) [1] y que una alternativa para estimarla es a través de los índices en el dominio del tiempo y frecuencia.

Desafortunadamente, la escala de los sistemas implicados hace que el problema sea difícil de comprender y más aún de resolver. Por ejemplo, el carbono adicional en los gases de efecto invernadero tiende a permanecer circulando por siglos en el sistema atmósfera-océano, lo que significa que las emisiones del pasado comprometen un mayor calentamiento a lo largo de este siglo, incluso si se reduce drásticamente las nuevas emisiones [4]. La respuesta humana es lenta y tomará décadas completar un cambio global con fuentes de energía carbononeutrales, tiempo en el que la concentración atmosférica de estos gases seguirá en aumento. Este escenario se puede interpretar como que es inevitable un aumento en el calentamiento, y que probablemente la alteración catastrófica del clima será un problema de lo cotidiano.

En estas circunstancias la civilización se enfrenta a un triple desafío: 1) mitigación, para evitar los peores efectos del cambio climático a través de una rápida transición hacia una economía con baja emisión de carbono, 2) aplicar reingeniería a la infraestructura de la sociedad moderna, para sobrevivir y prosperar en un planeta cada vez más caliente y 3) formación, para mejorar la comprensión pública de las inter-relaciones entre el sistema climático planetario y los sistemas de la actividad humana, y de la escala y urgencia del problema. Estos desafíos son de naturaleza global e impregnan todos los aspectos de la sociedad. Para hacerles frente se necesita que los investigadores, ingenieros, políticos y formadores, desde muchas y diferentes disciplinas, se sienten a la mesa y se pregunten en qué pueden contribuir.

En el corto plazo será necesario desplegar la tecnología existente para producir energía renovable [5], a la vez que diseñar políticas gubernamentales y tratados internacionales para controlar las emisiones de gases perjudiciales, y a más largo plazo se deberá completar la transición hacia una sociedad global carbononeutral [1]. Hacer frente a estos desafíos requerirá la movilización de amplias comunidades de investigadores con experiencia suficiente en el tema.

Alrededor de este contexto el software desempeña un papel destacado, porque es parte del problema tanto como de la solución. En las últimas décadas gran parte del crecimiento masivo del consumo de energía se debe al desarrollo y uso de las TIC, y de los avances tecnológicos que generan. Tradicionalmente la eficiencia energética no ha sido un requisito que se tiene en cuenta en el desarrollo de tecnologías intensivas de software, y por lo tanto existe un amplio potencial para investigar cómo mejorarla [6].

Además, el software proporciona la infraestructura crítica que soporta el estudio científico del cambio climático, y de qué o cuál ciencia utiliza la sociedad, y permite procesar las enormes cantidades de datos geocientíficos para simular los procesos de los sistemas de la Tierra, lo mismo que para evaluar sus implicaciones y explorar posibles respuestas políticas. La estructura de los modelos software debe permitir que los científicos, los activistas y los políticos compartan datos, exploren escenarios y validen hipótesis. La extensión de esta infraestructura a menudo es invisible, tanto para aquellos que confían y la utilizan, como para el público en general [7]. Sin embargo, las debilidades de los productos de la Ingeniería de Software –reales o imaginarias– disminuyen las capacidades de los actores para progresar en la lucha contra el Cambio Climático. Es necesario resolver esos problemas para mejorar la forma en que la sociedad encuentra, evalúa y utiliza el conocimiento para apoyar la toma de decisiones colectivas.

En este artículo se analiza el rol y los desafíos de los productos de la Ingeniería de Software para hacer frente al problema del Cambio Climático, y el potencial que tiene su infraestructura para salvar las brechas entre las disciplinas científicas, los políticos responsables, los medios de comunicación y la opinión pública. Además, se identifica las debilidades de la capacidad de la comunidad para desarrollar y validar esta infraestructura, especialmente en lo que tiene que ver con los métodos tradicionales de esta Ingeniería para construir una mejor infraestructura, teniendo en cuenta el conocimiento intensivo existente. Es un trabajo cuya audiencia no requiere fronteras ni delimitaciones continentales, porque el problema y la solución son globales. La Ingeniería de Software es un área del conocimiento cuyos contenidos y objetivos formativos se deben modificar en todo el mundo, con lo que sería posible mejorar sus productos y por tanto colaborar para lograr una huella de carbono inferior a la proyectada desde la tecnología.


1. CONTEXTO DEL PROBLEMA.

Rara vez en este siglo la cuestión del Cambio Climático ha estado por fuera de los medios de comunicación: los récords de temperatura en gran parte del planeta en los últimos años han puesto fin a una década sin precedentes [8], y para diseñar un protocolo sucesor para el de Kyoto los líderes mundiales se reunieron en Copenhague, pero en gran medida no lograron avances significativos; la legislación acerca del clima se estancó en su paso por el Congreso de los EE.UU., y para mostrar el comportamiento poco profesional de los científicos del clima un hacker envió miles de correos publicitarios desde East Anglia University. Este último caso estuvo pleno de afirmaciones “sensacionalistas” acerca de que los científicos fabrican datos, que niegan el acceso a los mismos y al código del programa, y que conspiran para subvertir el proceso de revisión por pares de la divulgación de los resultados de sus investigaciones. Aunque algunos trabajos posteriores demostraron que esas acusaciones eran falsas [9], quedan pendientes interrogantes persistentes acerca del rol del software en estas cuestiones, y de cómo las personas pueden tener acceso a información confiable en los temas de las ciencias del clima.

La calidad de los productos de la Ingeniería de Software es una preocupación particular, porque los mismos científicos del clima son los que construyen las herramientas software para soportar su trabajo. Tal es el caso de los Modelos de Circulación Global –GCM por sus siglas en inglés–, que simulan la atmósfera, los océanos, la criosfera y la biosfera para estudiar los procesos a escala global, y para generar futuras proyecciones que se utilizan en las evaluaciones de organismos como el Intergovernmental Panel on Climate Change –IPCC– [10]. Además, utilizan una variedad de herramientas para manipular y analizar los datos de las observaciones y los resultados de las simulaciones, y para intercambiar datos acerca del clima con la comunidad científica en general. La mayoría de estos productos los desarrollan los mismos científicos del clima, los cuales tienen poca o ninguna formación en Ingeniería de Software. Como resultado, la calidad del software varía enormemente: los GCM tienden a ser bien diseñados [11], mientras que algunas herramientas de procesamiento de datos apenas llegan a ser adecuadamente probadas [12].

La apertura y la capacidad de reproducción son temas cruciales para la comunidad, porque los científicos necesitan validar mutuamente los resultados y para poder repetir sus experimentos. Las bases de datos son complejas y de gran tamaño –los centros de datos climáticos manejan diariamente varios terabytes de información–, por lo que frecuentemente faltan datos o son sólo ruido, y tienen que ser reprocesados y analizados a diferentes escalas físicas y temporales. Debido a la complejidad de este procesamiento es casi irrelevante el libre acceso a los datos en bruto, porque para comprenderlos y utilizarlos es necesario conocer completamente su procedencia, incluyendo los pasos de procesamiento aplicados, las herramientas utilizadas –con sus valores–, la racionalidad de cada paso del proceso, y cualquier asunto de calidad conocido y supuesto. Los actuales frameworks para el análisis de datos sólo capturan una fracción de esta información, y tienden a funcionar separados de las bases de datos. Los esfuerzos de la comunidad, en lo que tiene que ver con los metadatos del modelado de sistemas de la Tierra [13], están orientados a hacerle frente a este desafío, pero todavía luchan con la normalización de descriptores, y la capacidad para capturar la procedencia de todos los datos sigue siendo un quimera. Por otro lado, los científicos no proporcionan acceso libre y gratuito a las bases de datos, porque casi siempre no se les reconoce el esfuerzo invertido en su creación y análisis. La reproducibilidad es difícil porque a menudo las grandes rutinas numéricas están vinculadas a la arquitectura particular de un supercomputador, y son sensibles a pequeñas perturbaciones en los cálculos, por lo que un cambio en el hardware, el compilador, o los archivos de configuración, hacen que sea imposible repetir un experimento previo.

La comunidad de científicos del modelado de sistemas de la Tierra entiende estos desafíos, y ha iniciado procesos para construir la infraestructura software necesaria para soportar de mejor forma el modelado, el análisis y el intercambio de datos [12]. Sin embargo, por fuera de esta comunidad los desafíos son poco estudiados y poco comprendidos. A menudo no se aplica las técnicas estándar de la Ingeniería de Software, porque los productos se construyen para resolver problemas, de los que de antemano no se conoce las respuestas, y sólo logran soluciones aproximadas. Del mismo modo, las métricas estándar de la calidad del software puede que no se apliquen bien, porque la validez científica no se corresponde directamente con las nociones tradicionales de correctitud del software [14]. Tal como dijo George Box [15]: “Todos los modelos están equivocados, pero algunos son útiles”, además, probar ese software es en sí un desafío.

Otra lección de las recientes representaciones de la ciencia del clima en los medios es que se requiere mucha y mejor comunicación de los resultados, de qué cómo se obtienen y de cuáles son sus implicaciones. Los medios de comunicación cometen serios errores al reportar la ciencia, porque a menudo tergiversan cómo se hace, y no llevan los acontecimientos que reportan a contextos más amplios. La rápida propagación de la desinformación –y en ocasiones de las salvajes acusaciones– especialmente a través de la blogosfera, ha demostrado que no se cuenta con las herramientas para evaluar la credibilidad de las fuentes de información, ni de la confiabilidad de las personas que las comentan. Los motores de búsqueda proporcionan acceso instantáneo a una amplia variedad de fuentes de información, pero sus sistemas de clasificación no son capaces de separar la desinformación motivada políticamente de los reportes científicos válidos, ni de ordenar por credibilidad los resultados ofrecidos. Irónicamente, luego de más de una década en la que la comunidad científica se ha vuelto cada vez más segura y más pesimista acerca del Cambio Climático, el público en general parece estar más inseguro y polarizado.


2. LA INVESTIGACIÓN EN EL ÁREA.

El desafío para la comunidad que investiga en Ingeniería de Software se puede enmarcar de la siguiente manera: como especialistas en tecnologías de software y como creadores de las futuras herramientas y técnicas de software, y en cómo aplicar sus conocimientos y experiencias particulares al desafío del Cambio Climático, y cómo comprender y aprovechar su capacidad intelectual particular. Los investigadores en Ingeniería de Software tienen habilidades para:

Es decir, esta comunidad posee un conjunto único de habilidades relacionadas con el análisis, el modelamiento y el diseño o re-diseño de sistemas técnicos y tecnológicos complejos. Entonces, ¿cómo aplicar estas fuerzas intelectuales para hacer contribuciones significativas a cada uno de los desafíos de la mitigación del Cambio Climático, la adaptación y la formación?

El Cambio Climático es un problema sistémico, por lo que una acción eficaz requiere un enfoque interdisciplinar. En las Ciencias Naturales la atención se centra en los procesos físicos de la atmósfera y la biosfera que conducen al Cambio Climático; las ciencias de la geografía y el medio ambiente se centran en los impactos y en la adaptación de los ecosistemas y los sistemas sociales; la economía se centra en las ventajas y desventajas de los diversos instrumentos políticos para controlar las emisiones de gases de efecto invernadero, y en diversos campos de la ingeniería se realizan esfuerzos para desarrollar y desplegar nuevas tecnologías de energías alternativas con emisiones bajas en carbono. El elemento común a todas estas disciplinas es la infraestructura software, la cual debe ser apropiada para la colaboración y el intercambio de datos.

Para comprender esta interacción se necesita integrar dos componentes: 1) los sistemas inteligentes, para comprender cómo interactúan los procesos sociales y psicológicos –el comportamiento humano, la presión social, los medios de comunicación– con los procesos políticos –formulación de políticas, liderazgo, patrones de votación–, y cómo se afectan ambos por el nivel de comprensión de los procesos físicos del Cambio Climático [16], y 2) el pensamiento computacional, para comprender cómo rediseñar la infraestructura de conocimiento que genera la información acerca de todos esos procesos, y para factorizarla en acciones globales eficaces [17].

El progreso en estas cuestiones será posible mediante la comprensión de las necesidades de un conjunto de actores diverso: 1) los científicos, que necesitan herramientas para mejorar su comprensión de los sistemas de la Tierra, 2) los sistemas formativos, que necesitan herramientas para llegar a más comunidades para explicar cómo se hace y qué dice la ciencia, 3) los comunicadores y escritores de ciencia, que necesitan el acceso al conocimiento para incrementar la conciencia social acerca de las cuestiones prioritarias, 4) los políticos, que necesitan herramientas para diseñar, analizar y monitorear un conjunto articulado de normas a nivel internacional, nacional y regional, 5) los activistas políticos y los organismos no gubernamentales, que necesitan coordinar sus campañas para presionar las acciones de los gobiernos, 6) los individuos y las comunidades, que necesitan reducir sus huellas de carbono y compartir información acerca de estrategias que funcionen y 7) los científicos e ingenieros, quienes desarrollan y despliegan sistemas de energía alternativa. Pero si no se trabaja de forma interdisciplinar, incluyendo a la Ingeniería de Software como eje integrador, todos los esfuerzos pueden llevar a fracasos.


3. El ROL DE LA INGENIERÍA DE SOFTWARE.

Estos desafíos y necesidades se analizaron en dos talleres acerca de la investigación en software y el Cambio Climático: el Object-Oriented Programming, Systems, Languages & Applications –OOPSLA–, en octubre de 2010 en Reno, Nevada, y la International Conference on Software Engineering –ICSE–, en mayo de 2011 en Honolulu, Hawaii. En estos talleres se identificaron algunos desafíos para la investigación en Ingeniería de Software, cada uno con un conjunto de problemas relacionados. A continuación se relacionan algunos de esos desafíos y se presenta la reflexión respectiva.

3.1 CIENCIA COLABORATIVA SOPORTADA POR COMPUTADOR.

El primer desafío consiste desarrollar una nueva infraestructura software para soportar y acelerar el trabajo interdisciplinar entre las ciencias del clima y sus disciplinas afines. Ejemplos de investigación en este espacio incluyen:

3.2 SOFTWARE PARA TOMAR DECISIONES COLECTIVAS.

Este desafío implica el desarrollo de una amplia gama de herramientas para compartir información, con el objetivo de mejorar la comprensión pública de la ciencia mediante el apoyo de decisiones a múltiples niveles: individual, comunitario, gubernamental e intergubernamental. Ejemplos de investigaciones en este espacio son:

3.3 GREEN IT.

El tercer desafío se orienta a optimizar la energía que los productos de la Ingeniería de Software, y de todas las cosas que controlan, requieren para funcionar. Este tipo de investigación incluye:


4. CONCLUSIONES.

El Cambio Climático es un problema serio y urgente cuya solución demanda una movilización de esfuerzos desde muchas y diferentes disciplinas. Los problemas que se discuten en este documento no se pueden resolver sólo con una adecuada aplicación de la Ingeniería de Software, pero sus productos y el pensamiento computacional son componentes críticos de la solución. Se identificaron tres áreas clave en las que se podrían enfocar los esfuerzos: 1) productos para apoyar a la ciencia en la comprensión del Cambio Climático, 2) productos para apoyar la toma de decisiones colectivas a nivel global y 3) productos para reducir la huella de carbono del desarrollo tecnológico moderno.

Además, se aboga por un debate continuo acerca de cómo enfocar las habilidades y el conocimiento de la comunidad y la investigación en Ingeniería de Software para hacer frente al desafío del Cambio Climático. Para lograrlo se necesita una movilización masiva de talentos, tal como lo han hecho otras disciplinas a través de respuestas disciplinares a este desafío [3, 19, 20]. Por todo esto es momento que la comunidad que investiga en Ingeniería de Software haga presencia con propuestas efectivas y eficientes.

La otra cuestión importante es que una adecuada formación en Ingeniería de Software, para los científicos y demás personas relacionadas con el problema del Cambio Climático, permitirá que en el futuro los productos software respondan a un menor consumo de energía, y a que los procesos involucrados aporten para lograr una huella de carbono mucho menor que se proyecta actualmente.


5. REFERENCIAS.

[1] ALLISON, Ian et al. The Copenhagen Diagnosis: Climate Science Report, 2009. Updating the World on the Latest Climate Science. Sydney: The University of New South Wales Climate Change Research Centre (CCRC), 2009. 62 p.

[2] PARRY, Martin L. et al. Contribution of Working Group II to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. UK: Cambridge University Press, 2007. 976 p.

[3] CAMPBELL-LENDRUM, Diarmid et al. Health and climate change: a roadmap for applied research. The Lancet Vol. 373, No. 9676, p. 1663-1665. USA: Elsevier, 2009.

[4] RAMANATHAN, Veerabhadran and YAN Feng. On avoiding dangerous anthropogenic interference with the climate system: Formidable challenges ahead. PNAS Vol. 105, No. 38, p. 14245-14250. USA: Harvard University, 2008.

[5] MACKAY, David J. C. Sustainable Energy - Without the hot air. Cambridge: UIT Press, 2009. 384 p.

[6] THE CLIMATE GROUP. SMART 2020: Enabling the low carbon economy in the information age. Brussels: The Global eSustainability Initiative, 2008. 87 p.

[7] EDWARDS, Paul N. A Vast Machine: Computer Models, Climate Data, and the Politics of Global Warming. Cambridge: MIT Press, 2010. 552 p.

[8] HANSEN, James et al. Global surface temperature change. Reviews of Geophysics Vol. 48, No. 4, p. 1-29. USA: Wiley, 2010.

[9] REED, Sarah. Oxburgh report clears controversial climate research unit. Science No. 328, p. 415. USA: AAAS, 2010.

[10] SLINGO, Julia Mary et al. Developing the nextgeneration climate system models: challenges and achievements. Philosophical Transactions of the Royal Society A Vol. 367, No. 1890, p. 815-831. UK: The Royal Society, 2009.

[11] EASTERBROOK, Steve M. and TIMOTHY C. Johns. Engineering the software for understanding climate change. Computing in Science and Engineering Vol. 11, No. 6, p. 65-74. USA: American Institute of Physics, 2009.

[12] COLLINS, Nancy et al. Design and implementation of components in the earth system modeling framework. International Journal of High Performance Computing Applications Vol. 19, No. 3, p. 341-350. UK: DeepDyve, 2005.

[13] DUNLAP, Rocky et al. Earth system curator: metadata infrastructure for climate modeling. Earth Science Informatics Vol. 1, No. 3-4, p. 131- 149. USA: Elsevier, 2008.

[14] PIPITONE, Jon. Software quality in climate modelling. Toronto, Canada, 2010, 75 p. Master’s thesis. University of Toronto. Department of Computer Science.

[15] BOX, George E.P. Science and Statistics. Journal of the American Statistical Association Vol. 71, No. 356, p. 791-799. USA: American Statistical Association, 1976.

[16] WEINBERG, Gerald M. An Introduction to General Systems Thinking. UK: Dorset House, 2001. 320 p.

[17] WING, Jeannette M. Computational thinking. Communications of the ACM Vol. 49, No. 3, p. 33- 35, 2006.

[18] AEBISCHERI, Bernardo. Hacia la eficiencia energética en la computación. Ing. USBMed Vol. 1, No. 1, p. 29-38. Medellín: Universidad de San Buenaventura, 2010.

[19] NAGEL Joane, DIETZ Thomas and BROADBENT Jeffrey. Workshop on Sociological Perspectives on Global Climate Change. Arlinton: National Science Foundation, 2009. 156 p.

[20] SWIM, Janet et al. Psychology & Global Climate Change. USA: American Psychological Association, 2009. 108 p.