
red de post-procesamiento son peque
˜
nas. Esto confirma dos
hip
´
otesis:
Hay una clara mejora en el proceso de reconstrucci
´
on
gracias a la etapa de post-procesamiento.
Hay una mejora tangible en el rendimiento de la etapa
de post-procesamiento debido a la aumentaci
´
on de
datos.
Si bien los valores obtenidos gracias al entrenamiento con
BV’ quedan dentro del rango de varianza de aquellos
obtenidos con el entrenamiento de BV, los valores medios
mejoran para todas las figuras de m
´
erito. Es importante
destacar que no se alcanz
´
o el l
´
ımite emp
´
ırico de cantidad de
im
´
agenes sint
´
eticas generadas. Se opt
´
o por generar la misma
cantidad de datos que los originales debido a limitaciones
de espacio de computo, pero la tendencia de las figuras de
m
´
erito fue creciente en pruebas con menos datos. De esta
manera queda entonces la posibilidad en futuros trabajos de
encontrar el l
´
ımite de nuestra red GAN. Lo que si podemos
afirmar es que las muestras generadas por nuestra red GAN
tienen un impacto real en aplicaciones de TOA. Si las
muestras sint
´
eticas hubiesen sido una aumentaci
´
on simple
de las originales, o la red hubiera aprendido a replicar la
base de datos BV, la diferencia entre entrenar a la red FD-
UNet con un conjunto o el otro ser
´
ıa despereciable o nula.
Dado que la red GAN genera nueva informaci
´
on a partir
de un ruido gaussiano, esto permite generar datos sint
´
eticos
que ayuden a mejorar el entrenamiento de nuestra red de
post-procesamiento.
VI. CONCLUSIONES
Este trabajo demuestra la factibilidad de utilizar redes
GAN para la generaci
´
on de muestras sint
´
eticas de TOA,
que luego pueden ser utilizadas para aumentar conjuntos
preexistentes y as
´
ı mejorar el rendimiento de redes neuro-
nales que se entrenen con los mismos. Tambi
´
en podemos
concluir que la FID es una m
´
etrica acertada para medir el
comportamiento de una red GAN al momento de generar
im
´
agenes a partir de ruido, donde no se cuenta con im
´
agenes
de entrada en la red a modo de referencia para comparar.
A continuaci
´
on se mencionan ciertas limitaciones que
podr
´
ıan ser solventadas en futuros trabajos, en b
´
usqueda
de mejores resultados. En primer lugar, el poder y espacio
de computo reducido impact
´
o en la generaci
´
on de datos
sint
´
eticos. Ser
´
ıa deseable seguir iterando sobre la cantidad
de muestras sint
´
eticas en el conjunto BV’, para encontrar el
l
´
ımite pr
´
actico de nuestra red GAN, aquel donde empiece
a generalizar y las im
´
agenes generadas dejen de aportar
informaci
´
on
´
util en el entrenamiento de la red U-Net. Por
otro lado, herramientas como barrido de par
´
ametros para
ambas redes tampoco fueron utilizadas. Por
´
ultimo, otro
tipo de caso que podr
´
ıa resultar de inter
´
es es la utilizaci
´
on
de un conjunto de datos BV’ que contenga menor cantidad
de datos reales que BV. Por ejemplo, se podr
´
ıa igualar la
cantidad de im
´
agenes en ambos conjuntos pero reducir la
cantidad total de muestras reales en el conjunto aumentado.
De esta manera la confianza en la calidad de las muestras
generadas ser
´
ıa todav
´
ıa mayor.
AGRADECIMIENTOS
Este trabajo fue financiado por la Universidad de Bue-
nos Aires (UBACYT 20020190100032BA), CONICET (PIP
11220200101826CO) y la Agencia I+D+i (PICT 2018-
04589, PICT 2020-01336).
REFERENCIAS
[1] C. Huang, K. Wang, L. Nie, and et al., “Full-wave iterative image
reconstruction in photoacoustic tomography with acoustically inho-
mogeneous media,” IEEE Transactions on Medical Imaging, vol. 32,
pp. 1097–1110, 2013.
[2] S. Arridge, P. Beard, M. Betcke, and et al., “Accelerated high-
resolution photoacoustic tomography via compressed sensing,” Phy-
sics in medicine and biology, vol. 61, pp. 8908–8940, 2016.
[3] Y. E. Boink, M. J. Lagerwerf, W. Steenbergen, and et al., “A frame-
work for directional and higher-order reconstruction in photoacoustic
tomography,” Physics in Medicine & Biology, vol. 63, 2018.
[4] I. Goodfellow, Y. Bengio, and A. Courville, Deep Learning. The
MIT Press, 2016.
[5] A. Hauptmann and B. Cox, “Deep learning in photoacoustic to-
mography: Current approaches and future directions,” Journal of
Biomedical Optics, vol. 25, 09 2020.
[6] O. Ronneberger, P. Fischer, and T. Brox, “U-Net: Convolutional
Networks for Biomedical Image Segmentation,” arXiv preprint ar-
Xiv:1505.04597, 2015.
[7] S. Guan, A. A. Khan, S. Sikdar, and P. V. Chitnis, “Fully Dense UNet
for 2-D Sparse Photoacoustic Tomography Artifact Removal,” IEEE
Journal of Biomedical and Health Informatics, vol. 24, no. 2, pp.
568–576, 2020.
[8] X. Ma, C. Peng, J. Yuan, Q. Cheng, G. Xu, X. Wang, and P. L. Carson,
“Multiple delay and sum with enveloping beamforming algorithm for
photoacoustic imaging,” IEEE Trans. on Medical Imaging, vol. 39,
pp. 1812–1821, 2019.
[9] L. Torrey and J. Shavlik, “Transfer learning,” Handbook of Research
on Machine Learning Applications, 01 2009.
[10] B. Liu, Y. Zhu, K. Song, and A. Elgammal, “Towards faster and
stabilized GAN training for high-fidelity few-shot image synthesis,”
arXiv preprint arXiv:2101.04775, 2021.
[11] M. Arjovsky and L. Bottou, “Towards principled methods for training
generative adversarial networks,” stat, vol. 1050, 01 2017.
[12] D. Zhang and A. Khoreva, “PA-GAN: Improving gan training by pro-
gressive augmentation,” arXiv preprint arXiv:1901.10422, 01 2019.
[13] H. Zhang, T. Xu, H. Li, S. Zhang, X. Wang, X. Huang, and D. N.
Metaxas, “Stackgan: Text to photo-realistic image synthesis with
stacked generative adversarial networks,” Proceedings of the IEEE
international conference on computer vision, pp. 5907–5915, 2017.
[14] K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for
image recognition,” Proceedings of the IEEE conference on computer
vision and pattern recognition, pp. 770–778, 2016.
[15] P. Isola, J.-Y. Zhu, T. Zhou, and A. Efros, “Image-to-image translation
with conditional adversarial networks,” 07 2017, pp. 5967–5976.
[16] D. Hendrycks, M. Mazeika, S. Kadavath, and D. Song, “Using self-
supervised learning can improve model robustness and uncertainty,”
Advances in Neural Information Processing Systems, pp. 15 663–
–15 674, 2019.
[17] J. Lim and J. C. Ye, “Geometric GAN,” arXiv preprint ar-
Xiv:1705.02894, 05 2017.
[18] “DRIVE: Digital retinal images for vessel extraction,” 2020. [Online].
Available: https://drive.grand-challenge.org/
[19] “STARE: Structured analysis of the retina,” 2000. [Online]. Available:
https://cecas.clemson.edu/
∼
ahoover/stare/
[20] “RITE: Retinal images vessel tree extraction,” 2013. [Online].
Available: https://medicine.uiowa.edu/eye/rite-dataset
[21] “ARIA: Automated retinal image analysis,” 2006. [Online]. Available:
http://www.damianjjfarnell.com/
[22] A. Hatamizadeh, H. Hosseini, N. Patel, J. Choi, C. Pole, C. Hoeferlin,
S. Schwartz, and D. Terzopoulos, “RAVIR: A dataset and methodo-
logy for the semantic segmentation and quantitative analysis of retinal
arteries and veins in infrared reflectance imaging,” IEEE Journal of
Biomedical and Health Informatics, 2022.
[23] A. Borji, “Pros and cons of gan evaluation measures,” Computer
Vision and Image Understanding, vol. 1793, pp. 41–65, 2019.
[24] M. Heusel, H. Ramsauer, T. Unterthiner, B. Nessler, and S. Hochreiter,
“Gans trained by a two time-scale update rule converge to a local nash
equilibrium,” Advances in neural information processing systems, pp.
6626–6637, 2017.
[25] C. Szegedy, V. Vanhoucke, S. Ioffe, J. Shlens, and Z. Wojna, “Rethin-
king the inception architecture for computer vision,” IEEE Conference
on Computer Vision and Pattern Recognition (CVPR), pp. 2818–2826,
2016.
Revista elektron, Vol. 7, No. 2, pp. 61-70 (2023)
http://elektron.fi.uba.ar