Aprendizaje profundo y recurrente para la segmentación de sonidos cardíacos basado en características de frecuencia instantánea

Autores/as

  • Alvaro Joaquin Gaona Facultad de Ingeniería, Universidad de Buenos Aires
  • Pedro David Arini Instituto Argentino de Matemática ”Alberto P. Calderón”, CONICET

DOI:

https://doi.org/10.37537/rev.elektron.4.2.101.2020

Palabras clave:

fonocardiograma, transformada sincronizada de fourier, long short-term memory

Resumen

En este trabajo se presenta un conjunto de técnicas bien conocidas definiendo un método automático para determinar los sonidos fundamentales en un fonocardiograma (PCG). Mostraremos una red neuronal recurrente capaz de segmentar segmentar un fonocardiograma en sus principales componentes, y una forma muy específica de extraer frecuencias instantáneas que jugarán un importante rol en el entrenamiento y validación del modelo propuesto. Más específicamente, el método propuesto involucra una red neuronal Long Short-Term Memory (LSTM) acompañada de la Transformada Sincronizada de Fourier (FSST) usada para extraer atributos en tiempo-frecuencia en un PCG. El presente enfoque fue evaluado con señales de fonocardiogramas mayores a 5 segundos y menores a 35 segundos de duración extraı́dos de bases de datos públicas. Se demostró, que con una arquitectura relativamente pequeña, un conjunto de datos acotado y una buena elección de las características, este método alcanza una eficacia cercana a la del estado del arte, con una sensitividad promedio de 89.5%, una precisión promedio de 89.3% y una exactitud promedio de 91.3%.

Descargas

Los datos de descarga aún no están disponibles.

Referencias

H. Liang, L. Sakari, and H. Liro, “A heart sound segmentation algorithm using Wavelet Decomposition and reconstruction,” in Proceedings of the 19th Annual International Conference of the IEEE Engineering in Medicine and Biology Society. ’Magnificent Milestones and Emerging Opportunities in Medical Engineering’ (Cat. No.97CH36136), vol. 4, Chicago, IL, USA, Oct 1997, pp. 1630–1633.

S. E Schmidt, C. Holst-Hansen, C. Graff, E. Toft and JJ. Struijk, “Segmentation of heart sound recordings by a duration-dependent hidden Markov model,” Physiological measurement, vol. 31, no. 4, pp. 513–529, Mar. 2010.

D. B. Springer, L. Tarassenko, and G. D. Clifford, “Logistic Regression-HSMM-Based Heart Sound Segmentation,” IEEE Transactions on Biomedical Engineering, vol. 63, no. 4, pp. 822–832, April 2016.

F. Renna, J. H. Oliveira, and M. T. Coimbra, “Deep Convolutional Neural Networks for Heart Sound Segmentation,” IEEE Journal of Biomedical and Health Informatics, pp. 1–1, 2019.

P. F. O. Ronneberger and T. Brox, “U-Net: Convolutional Networks for Biomedical Image Segmentation,” CoRR, vol. abs/1505.04597, 2015. [Online]. Available: http://arxiv.org/abs/1505.04597

A. L. Goldberger, L. A. N. Amaral, L. Glass, J. M. Hausdorff, P. C. Ivanov, R. G. Mark, J. E. Mietus, G. B. Moody, C.-K. Peng, and H. E. Stanley, “PhysioBank, PhysioToolkit, and PhysioNet: Components of a new research resource for complex physiologic signals,” Circulation, vol. 101, no. 23, pp. e215–e220, 2000 (June 13), circulation Electronic Pages: http://circ.ahajournals.org/content/101/23/e215.full PMID:1085218; doi: 10.1161/01.CIR.101.23.e215.

T. Oberlin, S. Meignen, and V. Perrier, “The Fourier-based Synchrosqueezing Transform,” in ICASSP, IEEE International Conference on Acoustics, Speech and Signal Processing, 05 2014, pp. 315–319.

Publicado

2020-12-14

Número

Sección

Bioingeniería

Cómo citar

[1]
A. J. Gaona and P. D. Arini, “Aprendizaje profundo y recurrente para la segmentación de sonidos cardíacos basado en características de frecuencia instantánea”, Elektron, vol. 4, no. 2, pp. 52–57, Dec. 2020, doi: 10.37537/rev.elektron.4.2.101.2020.