de datos de FINN, mostrando una latencia significativamente
menor y una mayor eficiencia energ
´
etica en comparaci
´
on
con Vitis AI.
Por otro lado, Vitis AI present
´
o ventajas en t
´
erminos de
precisi
´
on, especialmente en modelos m
´
as complejos como el
VGG11, lo que se debe en parte a su uso de la cuantizaci
´
on
INT8. Adem
´
as, la integraci
´
on de Vitis AI con entornos
de desarrollo como PyTorch, junto con su flujo de trabajo
m
´
as simplificado, facilita el entrenamiento y despliegue de
modelos, lo que lo convierte en una opci
´
on adecuada para
aplicaciones donde la facilidad de desarrollo y la precisi
´
on
son prioritarias.
A medida que los modelos aumentan en cantidad de capas
(complejidad), se observ
´
o una disminuci
´
on en las diferencias
de rendimiento entre ambos entornos. Esto sugiere que, si
bien FINN muestra un rendimiento ampliamente superior en
modelos con menor profundidad debido a su arquitectura de
flujo de datos y su capacidad para minimizar el acceso a
la memoria externa, la ventaja se reduce a medida que se
implementan modelos m
´
as complejos, como VGG11. Esta
reducci
´
on de rendimiento se debe principalmente al tipo de
arquitectura utilizada por cada entorno automatizado.
En resumen, FINN ofrece ventajas claras en t
´
erminos de
rendimiento y eficiencia energ
´
etica, mientras que Vitis AI
sobresale en facilidad de uso y precisi
´
on, lo que subraya
la importancia de seleccionar el entorno de desarrollo m
´
as
adecuado en funci
´
on de las necesidades espec
´
ıficas de cada
aplicaci
´
on.
VII. TRABAJO A FUTURO
Como continuaci
´
on de este trabajo, se propone ampliar la
investigaci
´
on hacia la implementaci
´
on de modelos de apren-
dizaje profundo m
´
as avanzados, como autocodificadores y
arquitecturas orientadas a la segmentaci
´
on de im
´
agenes o la
estimaci
´
on de profundidad monocular. Modelos como la red
U-Net podr
´
ıan ser evaluados para tareas de segmentaci
´
on y
reconstrucci
´
on de im
´
agenes, lo cual permitir
´
ıa explorar el
comportamiento de FINN y Vitis AI en aplicaciones m
´
as
complejas y con mayores exigencias de procesamiento.
Otra l
´
ınea de investigaci
´
on futura es la optimizaci
´
on
manual del proceso de plegado en FINN, con el objetivo
de maximizar el rendimiento en modelos complejos. Este
proceso permitir
´
ıa alcanzar una optimizaci
´
on m
´
as fina y
obtener mejoras significativas en la eficiencia energ
´
etica sin
comprometer la precisi
´
on. Y tambi
´
en, sumar a la comapara-
tiva el uso de la herramienta Vitis AI optimizer que permite
reducir (a trav
´
es de la poda) y optimizar los modelos.
AGRADECIMIENTOS
Los autores expresan su agradecimiento al Departamen-
to de Investigaciones en L
´
aseres y sus Aplicaciones del
Instituto de Investigaciones Cient
´
ıficas y T
´
ecnicas para la
Defensa (CITEDEF), dependiente del Ministerio de Defensa
de la Rep
´
ublica Argentina, por haber facilitado el uso de sus
instalaciones y servicios, indispensables para la realizaci
´
on
de este trabajo.
Asimismo, agradecen a la Universidad Tecnol
´
ogi-
ca Nacional (UTN) por el financiamiento otorgado a
trav
´
es del Proyecto de Investigaci
´
on y Desarrollo AST-
CHA0008788TC, y extienden su gratitud a la Facultad
Regional Haedo de la UTN por el constante apoyo brindado,
as
´
ı como por la disposici
´
on de sus recursos e instalaciones.
REFERENCIAS
[1] X. Zhao, L. Wang, Y. Zhang, X. Han, M. Deveci, and M. Parmar, “A
review of convolutional neural networks in computer vision,” Artificial
Intelligence Review, vol. 57, no. 4, pp. 1–43, 2024.
[2] Z. Li, F. Liu, W. Yang, S. Peng, and J. Zhou, “A survey of convolu-
tional neural networks: Analysis, applications, and prospects,” IEEE
Transactions on Neural Networks and Learning Systems, vol. 33,
no. 12, pp. 6999–7019, 2022.
[3] Z. Zhang and J. Li, “A review of artificial intelligence in embedded
systems,” Micromachines, vol. 14, no. 5, p. 897, 2023.
[4] I. Hubara, M. Courbariaux, D. Soudry, R. El-Yaniv, and Y. Bengio,
“Quantized neural networks: Training neural networks with low
precision weights and activations,” Journal of Machine Learning
Research, vol. 18, pp. 1–30, 2018.
[5] M. Courbariaux, I. Hubara, D. Soudry, R. El-Yaniv, and Y. Bengio,
“Binarized Neural Networks: Training Deep Neural Networks with
Weights and Activations Constrained to +1 or -1,” arXiv: Learning,
2016. [Online]. Available: http://arxiv.org/abs/1602.02830
[6] T. P. Swaminathan, C. Silver, and T. Akilan, “Benchmarking
deep learning models on nvidia jetson nano for real-time
systems: An empirical investigation,” 2024. [Online]. Available:
https://arxiv.org/abs/2406.17749
[7] K. P. Seng, P. J. Lee, and L. M. Ang, “Embedded intelligence on fpga:
Survey, applications and challenges,” Electronics, vol. 10, no. 8, 2021.
[Online]. Available: https://www.mdpi.com/2079-9292/10/8/895
[8] XILINX, “Vitis ai - adaptable & real-time ai inference acceleration,”
2022. [Online]. Available: https://github.com/Xilinx/Vitis-AI
[9] Y. Umuroglu, N. J. Fraser, G. Gambardella, M. Blott, P. Leong,
M. Jahre, and K. Vissers, “FINN: A framework for fast, scalable
binarized neural network inference,” FPGA 2017 - Proceedings of the
2017 ACM/SIGDA International Symposium on Field-Programmable
Gate Arrays, no. February, pp. 65–74, 2017, doi: 10.1145/3020078.
3021744.
[10] M. Machura, M. Danilowicz, and T. Kryjak, “Embedded object
detection with custom littlenet, finn and vitis ai dcnn accelerators,”
Journal of Low Power Electronics and Applications, vol. 12, no. 2,
2022. [Online]. Available: https://www.mdpi.com/2079-9268/12/2/30
[11] F. Hamanaka, T. Odan, K. Kise, and T. V. Chu, “An exploration of
state-of-the-art automation frameworks for fpga-based dnn accelera-
tion,” IEEE Access, vol. 11, pp. 5701–5713, 2023.
[12] Xilinx, “Kria kv260 vision ai starter kit,” 2021. [Online]. Availa-
ble: https://www.amd.com/en/products/system-on-modules/kria/k26/
kv260-vision-starter-kit.html
[13] ——, “Dpuczdx8g for zynq ultrascale+ mpsocs product guide
(pg338),” 2023. [Online]. Available: https://docs.xilinx.com/r/en-US/
pg338-dpu/Core-Overview
[14] A. Paszke, S. Gross, F. Massa, A. Lerer, J. Bradbury, G. Chanan,
T. Killeen, Z. Lin, N. Gimelshein, L. Antiga, A. Desmaison, A. K
¨
opf,
E. Yang, Z. DeVito, M. Raison, A. Tejani, S. Chilamkurthy, B. Steiner,
L. Fang, J. Bai, and S. Chintala, “PyTorch: An imperative style, high-
performance deep learning library,” Advances in Neural Information
Processing Systems, vol. 32, no. NeurIPS, 2019.
[15] M. Abadi, A. Agarwal, P. Barham, E. Brevdo, Z. Chen, C. Citro, G. S.
Corrado, A. Davis, J. Dean, M. Devin, S. Ghemawat, I. Goodfellow,
A. Harp, G. Irving, M. Isard, Y. Jia, R. Jozefowicz, L. Kaiser,
M. Kudlur, J. Levenberg, D. Man
´
e, R. Monga, S. Moore, D. Murray,
C. Olah, M. Schuster, J. Shlens, B. Steiner, I. Sutskever, K. Talwar,
P. Tucker, V. Vanhoucke, V. Vasudevan, F. Vi
´
egas, O. Vinyals,
P. Warden, M. Wattenberg, M. Wicke, Y. Yu, and X. Zheng,
“TensorFlow: Large-scale machine learning on heterogeneous
systems,” 2015, software available from tensorflow.org. [Online].
Available: https://www.tensorflow.org/
[16] Y. Jia, E. Shelhamer, J. Donahue, S. Karayev, J. Long, R. Girshick,
S. Guadarrama, and T. Darrell, “Caffe: Convolutional architecture
for fast feature embedding,” 2014. [Online]. Available: https:
//arxiv.org/abs/1408.5093
[17] M. Blott, T. B. Preuber, N. J. Fraser, G. Gambardella, K. O’Brien,
Y. Umuroglu, M. Leeser, and K. Vissers, “FinN-R: An end-to-end
deep-learning framework for fast exploration of quantized neural
networks,” ACM Transactions on Reconfigurable Technology and
Systems, vol. 11, no. 3, 2018, doi: 10.1145/3242897.
[18] A. Pappalardo, “Xilinx/brevitas,” 2021, doi: 10.5281/zenodo.3333552.
[19] F. Manca, F. Ratto, and F. Palumbo, “Onnx-to-hardware design flow
for adaptive neural-network inference on fpgas,” 2024. [Online].
Available: https://arxiv.org/abs/2406.09078
Revista elektron, Vol. 8, No. 2, pp. 61-70 (2024)
http://elektron.fi.uba.ar