Інтелектуальні методи побудови онтологічної бази знань для класифікації теплових портретів цілей

Автори

Ключові слова:

artificial intelligence, specification of conceptualization, military targets, thermal portraits

Короткий опис

Intelligent methods for building an ontological knowledge base for classifying thermal portraits of targets: Monograph / Z. Rybchak, O. Basystiuk. Karlsruhe, 2025. 104 p.

Monographic series «Innovative Science, Education, Manufacturing and Transport».
Book 19. 2025.

ISBN 978-3-98924-119-0

DOI: 10.30890/978-3-98924-119-0.2025

Published by:

ScientificWorld-NetAkhatAV

Lußstr. 13

76227 Karlsruhe, Germany

e-mail: editor@promonograph.org

site: https://de.promonograph.org

 

Copyright © Scientific texts, Authors, 2025

Copyright © Drawing up & Design. ScientificWorld-NetAkhatAV, 2025

Розділи

  • CHAPTER 1 APPROACHES TO THE CLASSIFICATION OF THERMAL PORTRAITS OF MILITARY TARGETS
  • CHAPTER 2 ONTOLOGY-BASED APPROACHES FOR CLASSIFYING MILITARY EQUIPMENT
  • CHAPTER 3 CONTRAST AND BRIGHTNESS-BASED APPROACHES FOR DETECTING EQUIPMENT
  • CHAPTER 4 FEATURES OF COMBINING OPTICAL AND THERMAL APPROACHES IN EQUIPMENT DETECTION AND CLASSIFICATION TASKS

Біографії авторів

Zoriana Rybchak, LPNU

PhD, Associate Professor

Oleh Basystiuk, LPNU

PhD

Посилання

Zoriana Rybchak, Olha Kulyna, Leslav Kobyliukh. An intelligent system for speech analysis and control using customized criteria // CEUR Workshop Proceedings. – 2024. – Vol. 3723 : Proceedings of the Modern Data Science Technologies Workshop, MoDaST-2024, Lviv, Ukraine, May 31 - June 1, 2024. – P. 412–426.

Zoriana Rybchak, Mykhailo Kopylets. Comparative analysis of DQN and PPO algorithms in UAV obstacle avoidance 2D simulation // CEUR Workshop Proceedings. – 2024. – Vol. 3688 : Proceedings of the 8th International conference on computational linguistics and intelligent systems. Vol. III: Intelligent systems workshop. Lviv, Ukraine, Apr. 12-13, 2024. – P. 391–403.

Zoriana Rybchak, Olha Kulyna. Cross-cultural examination of the WAR concept: a statistical comparative analysis in English, Ukrainian, and Dutch // CEUR Workshop Proceedings. – 2024. – Vol. 3722 : Proceedings of the 8th International conference on computational linguistics and intelligent systems. Vol. 4: Computational linguistics workshop (CLW-CoLInS 2024), Lviv, Ukraine, April 12-13, 2024. – P. 557–583.

Zoriana Rybchak, Olha Kulyna. Synonymous variation of 'War' in the British national corpus using sketch engine: a linguistic analysis // CEUR Workshop Proceedings. – 2024. – Vol. 3723 : Proceedings of the Modern data science technologies workshop MoDaST-2024, Lviv, Ukraine, May 31 - June 1, 2024. – P. 311–327.

Basystiuk O., Rybchak Z., Betsa* D. Classification of military equipment based on computer vision methods // Вісник Черкаського державного технологічного університету. Технічні науки. – 2024. – том 29, вип. 3. – С. 21–30

Basystiuk O., Rybchak Z. Recommendation systems in e-commerce applications // Вісник Національного університету “Львівська політехніка”. Серія: Інформаційні системи та мережі. – 2024. – Вип. 15. – С. 252–259

Олег Басистюк, Зоряна Рибчак, Олег Буравенко*. Локалізація техніки та фортифікаційних споруд на зображенні засобами штучного інтелекту // Вісник Хмельницького національного університету. Серія: Технічні науки. – 2024. – № 4 (339). – С. 127–129.

Mykich K., Zavushchak I., Savka A. Predictive maintenance for automotive vehicle engines in military logistics // CEUR Workshop Proceedings. – 2024. – Vol. 3711 : Proceedings of the Modern machine learning technologies workshop MoMLeT 2024, Lviv, Ukraine, May 31 - June 1, 2024. – P. 333–344.

Peleshchak I., Koshtura D., Luchkevych M., Tymchuk*** V. Classification of dynamic objects using a multilayer perceptron // CEUR Workshop Proceedings. – 2024. – Vol. 3664 : Proceedings of the 8th International conference on computational linguistics and intelligent systems. Vol. I: Machine learning workshop, Lviv, Ukraine, April 12-13, 2024. – P. 192–203.

Lytvyn V., Peleshchak R., Vysotska V., Peleshchak I., Chyrun L., Nazarkevych M., Vladov*** S., Lozynska O., Voloshyn S., Nagachevska O. Smart system for passive detection and classification of mines using feed-forward deep neural networks // CEUR Workshop Proceedings. – 2024. – Vol. 3861 : Proceedings of the computational intelligence application workshop (CIAW 2024), Lviv, Ukraine, October 10-12, 2024. – P. 77–111.

Bihun R., Karpov I. Modeling and optimization of task scheduling in multi-team IT projects // Вісник Національного університету “Львівська політехніка”. Серія: Інформаційні системи та мережі. – 2024. – Вип. 16. – С. 104–111.

Карпов І. А., Бігун Р. Р., Буров Є. В. Використання ентропії для адаптивного коригування ваг критеріїв у багатокритеріальному виборі // Грааль науки. – 2024. – № 40 : Proceedings of the III Correspondence international scientific and practical conference "Scientific vector of various sphere’ development: reality and future trends", Vinnytsia, Vienna, June 7th, 2024. – P. 347–351.

Карпов І. А., Бігун Р. Р. Аналіз проблем використання онтологій в системах підтримки прийняття рішень // Theoretical and practical aspects of modern scientific research : collection of scientific papers «ΛΌГOΣ» with proceedings of the IV International scientific and practical conference (Seoul, Republic of Korea, June 21, 2024). – 2024. – C. 164–165. 0,09 ум.д.ар. (За іншою тематикою) (Карпов І. А., Бігун Р. Р.).

Синько А. І. Інформаційно-технологічні інструменти формування організаційно-розпорядчих документів архіву ЗВО // Вісник Національного університету “Львівська політехніка”. Серія: Інформаційні системи та мережі. – 2024. – Вип. 15. – С. 406–418. 0,58 ум.д.ар. (За іншою тематикою) (Синько А. І.).

Benmhahe, B., & Chentoufi, J.A. (2021). Automated pavement distress detection, classification and measurement: A review. International Journal of Advanced Computer Science and Applications, 12(8), 708-718.

Bochkovskiy, A., Wang, C.-Y., & Liao, H.-Y.M. (2020). YOLOv4: Optimal speed and accuracy of object detection. arXiv, 2004, article number 10934. DOI: 10.48550/arXiv.2004.10934.

Chen, X., Liu, C., Chen, L., Zhu, X., Zhang, Y., & Wang, C. (2024). A pavement crack detection and evaluation framework for a UAV inspection system based on deep learning. Applied Sciences, 14(3), article number 1157. DOI: 10.3390/app14031157.

Csurka, G., Volpi, R., & Chidlovskii, B. (2022). Semantic image segmentation: Two decades of research. Foundations and Trends® in Computer Graphics and Vision, 14(1-2), 1-162. DOI: 10.1561/0600000095.

Figshare. (2024). Vehicles and fortification image recognition dataset. DOI: 10.6084/m9.figshare.25726470.

Gavrilescu, R., Zet, C., Foșalău, C., Skoczylas, M., & Cotovanu, D. (2018). Faster R-CNN: An approach to real-time object detection. In International conference and exposition on electrical and power engineering (EPE) (pp. 165-168). Iasi: IEEE. DOI: 10.1109/ICEPE.2018.8559776.

Hussain, M. (2023). YOLO-v1 to YOLO-v8, the rise of YOLO and its complementary nature toward digital manufacturing and industrial defect detection. Machines, 11(7), article number 677. DOI: 10.3390/machines11070677.

Ippalapally, R., Mudumba, S.H., Adkay, M., & Vardhan, H.R.N. (2020). Object detection using thermal imaging. In 2020 IEEE 17th India Council international conference (INDICON) (pp. 1-6). New Delhi: IEEE India Council. DOI: 10.1109/INDICON49873.2020.9342179.

Iqbal, N., Mumtaz, R., Shafi, U., & Zaidi, S.M.H. (2021). Gray level co-occurrence matrix (GLCM) texture based crop classification using low altitude remote sensing platforms. PeerJ Computer Science, 7, article number e536. DOI: 10.7717/peerj-cs.536.

Ji, G.-P., Fan, D.-P., Chou, Y.-C., Dai, D., Liniger, A., & Gool, L.C. (2023). Deep gradient learning for efficient camouflaged object detection. Machine Intelligence Research, 20, 92-108. DOI: 10.1007/s11633-022-1365-9.

Kishore, A.S.K., & Balamurugan, G. (2024). Faster region based convolution neural network with context iterative refinement for object detection. Measurement: Sensors, 31, article number 101025. DOI: 10.1016/j.measen.2024.101025.

Liang, J. (2020). Image classification based on RESNET. Journal of Physics: Conference Series, 1634, article number 012110. DOI: 10.1088/1742-6596/1634/1/012110.

Трофимчук О.М., Адаменко О.М., Триснюк В.М. Геоінформаційні технології захисту довкілля природно-заповідного фонду /Інститут елекомунікацій і глобального інформаційного простору НАН України; Івано-Франківськийнац. тех. ун-т нафти і газу. - Івано-Франківськ :Супрун В.П., 2021. – 343 с.// ISBN 978-617-7468-53-9 10.3997/2214-4609.201902083

Станкевич С. А., Масленко О. В., Андронов В. В. Адаптація нейромережевих технологій до ідентифікації малорозмірних об’єктів на супутникових зображеннях недостатньої розрізненності в базі графічних еталонів. Український журнал дистанційного зондування Землі. Київ, 2020. № 27. С. 13–17. DOI: https://doi.org/10.36023/ujrs.2020.27.175.

Романчук М. П. Обґрунтування типу фреймворків глибокого навчання для оброблення даних дистанційного зондування Землі. Проблеми створення, випробування, застосування та експлуатації складних інформаційних систем. Житомир, 2019. № 16. С. 70–79. DOI: https://doi.org/10.46972/2076-1546.2019.16.07.

Klymovych O., Hrabchak V., Lavrut O., Lavrut T., Lytvyn V., Vysotska V. The diagnostics methods for modern communication tools in the Armed Forces of Ukraine based on neural network Approach. CEUR Workshop Proceedings. – 2020. – Vol. 2631 – P. 198–208.

Kuznetsova A., Rom H., Alldrin N. et al. The Open Images Dataset V4. Int J Comput Vis 128, 1956–1981 (2020). DOI: https://doi.org/10.1007/s11263-020-01316-z.

Wang Y. Erratum to: Towards the abstract system theory of system science for cognitive and intelligent systems. Complex Intell. Syst. 1, № 23 (2015). DOI: https://doi.org/10.1007/s40747-016-0007-7.

Lee J., Natsev A., Reade W. et al. The 2nd YouTube-8M Large-Scale Video Understanding Challenge. In: Leal-Taixé, L., Roth, S. (eds) Computer Vision – ECCV 2018 Workshops. ECCV 2018. Lecture Notes in Computer Science, № 11132. Springer, Cham. DOI: https://doi.org/10.1007/978-3-030-11018-5_18.

Benito-Gorron D., Lozano-Diez A., Toledano D. et al. Exploring convolutional, recurrent, and hybrid deep neural networks for speech and music detection in a large audio dataset. J AUDIO SPEECH MUSIC PROC. 2019, № 9. DOI: https://doi.org/10.1186/s13636-019-0152-1.

Godambe T., Rallabandi S., Gangashetty S.V. et al. Developing a unit selection voice given audio without corresponding text. J AUDIO SPEECH MUSIC PROC. 2016, № 6. DOI: https://doi.org/10.1186/s13636-016-0084-y.

Mei J., Zheng Y., Cheng M. D2ANet: Difference-aware attention network for multi-level change detection from satellite imagery. Comp. Visual Media. 2023. DOI: https://doi.org/10.1007/s41095-022-0325-1.

Rajpurkar P., Zhang J., Lopyrev K., Liang P. 2016. SQuAD: 100,000+ Questions for Machine Comprehension of Text. Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, p. 2383–2392, Austin, Texas. DOI: 10.18653/v1/D16-1264.

Ramírez J., Baez M., Casati F. et al. Crowdsourced dataset to study the generation and impact of text highlighting in classification tasks. BMC Res Notes № 12, 2019. DOI: https://doi.org/10.1186/s13104-019-4858-z.

V. Trysnyuk, T. Trysnyuk, V. Okhariev, V. Shumeiko, A. Nikitin. Cartographic Models of Dniester River Basin Probable Flooding Сentrul Universitar Nord Din Bala Mare - UTPRESS ISSN 1582-0548, №1,2018 С.61-67.

Mohammadi, V., Sodjinou, S.G., Katakpe, K.K., Rosse, M., & Gouton, P. (2022). Development of a multi-spectral camera for computer vision applications. In 30. jubilee international conference in central Europe on computer graphics, visualization and computer vision (pp. 24-27). Plzen: Vaclav Skala University of West Bohemia. DOI: 10.24132/CSRN.3201.4.

Panwar, K., Singh, A., Kukreja, S., Singh, K.K., Shakhovska, N., & Boichuk, A. (2023). Encipher GAN: An end-to-end color image encryption system using a deep generative model. Systems, 11(1), article number 36. DOI: 10.3390/systems11010036.

Park, S., & Lee, H. (2021). Deep learning approach to optical camera communication receiver design. In 2021 IEEE region 10 symposium (TENSYMP) (pp. 1-5). Jeju: IEEE. DOI: 10.1109/TENSYMP52854.2021.9550896.

Sohan, M., Sai Ram, T., & Rami Reddy, C.V. (2024). A review on YOLOv8 and its advancements. In I.J. Jacob, S. Piramuthu & P. Falkowski-Gilski (Eds.), Data intelligence and cognitive informatics (pp. 529-545). Singapore: Springer. DOI: 10.1007/978-981-99-7962-2_39.

Tan, M., Pang, R., & Le, Q.V. (2020). EfficientDet: Scalable and efficient object detection. In IEEE/CVF conference on computer vision and pattern recognition (CVPR) (pp. 10778-10787). Seattle: IEEE. DOI: 10.1109/CVPR42600.2020.01079.

Vijayakumar, A., & Vairavasundaram, S. (2024). YOLO-based object detection models: A review and its applications. Multimedia Tools and Applications, 83, 83535-83574. DOI: 10.1007/s11042-024-18872-y.

Yang, S., Jiang, L., Liu, Z., & Loy, C.C. (2023). GP-UNIT: Generative prior for versatile unsupervised image-to-image translation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 45(10), 11869-11883. DOI: 10.1109/TPAMI.2023.3284003.

Zhang, D., Wang, C., & Fu, Q. (2024). A new benchmark for camouflaged object detection: RGB-D camouflaged object detection dataset. Open Physics, 22(1), article number 20240060. DOI: 10.1515/phys-2024-0060.

Zhang, Z., Xie, X., Guo, Q., & Xu, J. (2024). Improved YOLOv7-Tiny for object detection based on UAV aerial images. Electronics, 13(15), article number 2969. DOI: 10.3390/electronics13152969.

Zhao, Z.-Q., Zheng, P., Xu, S.-T., & Wu, X. (2019). Object detection with deep learning: A review. IEEE Transactions on Neural Networks and Learning Systems, 30(11), 3212-3232. DOI: 10.1109/TNNLS.2018.2876865.

Zhou, W., Gao, S., Zhang, L., & Lou, X. (2020). Histogram of oriented gradients feature extraction from raw bayer pattern images. IEEE Transactions on Circuits and Systems II: Express Briefs, 67(5), 946-950. DOI: 10.1109/TCSII.2020.2980557.

Zou, Z., Chen, K., Shi, Z., Guo, Y., & Ye, J. (2023). Object detection in 20 years: A survey. Proceedings of the IEEE, 111(3), 257-276. DOI: 10.1109/JPROC.2023.3238524.

He, K., Zhang, X., Ren, S., & Sun, J. (2020). Deep residual learning for image recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence.

Rybchak, Z., & Basystiuk, O. (2017). Analysis of computer vision and image analysis techniques. ECONTECHMOD: an international quarterly journal on economics of technology and modelling processes, pp. 79-84.

Zou, Z., Shi, Z., Guo, Y., & Ye, J. (2021). Object detection in 20 years: A survey. IEEE Transactions on Pattern Analysis and Machine Intelligence.

Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2021). DeepLab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs. IEEE Transactions on Pattern Analysis and Machine Intelligence.

Alzubaidi B., Zhang L., Humaidi J., et al. (2021). Review of deep learning: concepts, CNN architectures, challenges, applications, future directions. J Big Data 8, 53. DOI: https://doi.org/10.1186/s40537-021-00444-8.

Xie, X., Cheng, G., Wang, J., Yao, X., & Han, J. (2021). Oriented R-CNN for object detection. IEEE Transactions on Pattern Analysis and Machine Intelligence.

Ren, S., He, K., Girshick, R., & Sun, J. (2020). Faster R-CNN: Towards real-time object detection with region proposal networks. IEEE Transactions on Pattern Analysis and Machine Intelligence.

Dai, J., Li, Y., He, K., & Sun, J. (2016). R-FCN: Object detection via region-based fully convolutional networks. In Proceedings of the 30th International Conference on Neural Information Processing Systems, pp. 379-387.

R. Lakshmi Thara, B. Upadhyay, A. Sankrityayan et al. (2024). YOLO V8: An improved real-time detection of safety equipment in different lighting scenarios on construction sites. DOI: https://doi.org/10.21203/rs.3.rs-4179998/v1.

Опубліковано

листопад 30, 2025

Електронний ISSN

2707-1685

Категорії

Ліцензія

Creative Commons License

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.

Деталі щодо доступних видів видань: Повний текст

Повний текст

ISBN-13 (15)

978-3-98924-119-0