https://hait.od.ua/index.php/journal/issue/feedВісник сучасних інформаційних технологій2025-04-15T23:08:25+00:00Бабійчук Ольга Борисівнаobbabiychuk@ukr.netOpen Journal Systems<p>Представлення<strong> в системах реферування</strong>: видання відображається в реферативній базі даних <a href="https://scholar.google.com.ua/citations?hl=ru&user=oF6CUXQAAAAJ&view_op=list_works&authuser=4&sortby=pubdate" target="_blank" rel="noopener">Google Scholar</a>, Academia.edu, ROAD, <a href="http://www.irbis-nbuv.gov.ua/cgi-bin/irbis_nbuv/cgiirbis_64.exe?Z21ID=&I21DBN=UJRN&P21DBN=UJRN&S21STN=1&S21REF=10&S21FMT=juu_all&C21COM=S&S21CNR=20&S21P01=0&S21P02=0&S21P03=PREF=&S21COLORTERMS=0&S21STR=hait" target="_blank" rel="noopener">Національна бібліотека України імені В.І. Вернадського</a>.</p> <p><strong><br />Читацька аудиторія</strong>: науковці, викладачі співробітники вищих навчальних закладів, аспіранти та студенти, ІТ фахівці-практики.</p>https://hait.od.ua/index.php/journal/article/view/241Методи фільтрації та регресії для прогнозування зашумлених часових рядів на основі машинного навчання2025-04-15T21:56:26+00:00Олександр Остапович Воловецький ovolovetskyi@gmail.com<p><span style="font-weight: 400;">Прогнозування параметрів у промислових процесах значно ускладнюється наявністю шуму в послідовних вимірюваннях, що зменшує ефективність контролю технологічного процесу. Метою дослідження є розробка інтегрованої моделі, яка поєднує методи адаптивної фільтрації шуму та регресію для покращення точності прогнозування зашумлених часових рядів із використанням алгоритмів машинного навчання. Під час дослідження була створена комплексна база даних часових рядів із різними рівнями та типами шуму, що забезпечило ретельну перевірку ефективності запропонованих методів. Набори даних були розроблені з урахуванням специфіки технологічних процесів та різноманітності шумових патернів, що дозволило точно оцінити розроблені методи в різних умовах. У рамках розробки методів адаптивної фільтрації шуму були впроваджені та оптимізовані фільтр Калмана та вейвлет-фільтрація. Встановлено зв'язок між ефективністю методів фільтрації та часовими патернами: для параметрів, що швидко змінюються, вейвлет-фільтрація забезпечує вищу ефективність згладжування, тоді як фільтр Калмана краще зберігає характеристики сигналу для більш стабільних послідовностей. Для вирішення задачі прогнозування часових рядів були впроваджені та протестовані два алгоритми регресії – регресія опорних векторів та багатошаровий перцептрон. Було доведено, що регресія опорних векторів демонструє кращі результати з даними з низьким рівнем шуму, тоді як багатошаровий перцептрон показує вищу стабільність в умовах значного шуму, особливо після попередньої фільтрації. Для оцінки ефективності запропонованих рішень була розроблена комплексна система оцінки якості, яка одночасно враховує ефективність прогнозування, часові аспекти, характеристики шуму та обчислювальну складність. Експериментальне підтвердження демонструє, що розроблений підхід покращує точність прогнозування порівняно з методами машинного навчання без попередньої фільтрації, зберігаючи прийнятну обчислювальну складність. Розроблений підхід є перспективним для промислових застосувань, включаючи моделювання процесів збагачення залізної руди, де шумостійке прогнозування важливе для контролю процесу. Запропоновані методи можуть бути поширені на різні промислові процеси з подібними часовими даними та характеристиками шуму, особливо в металургійній, хімічній та харчовій промисловості</span></p>2025-04-04T00:00:00+00:00Авторське право (c) 2025 https://hait.od.ua/index.php/journal/article/view/242Розділення простору даних перед застосуванням хешування за допомогою алгоритмів кластеризації2025-04-15T22:06:27+00:00Сергій Олександрович Субботін subbotin@zntu.edu.uaФедір Анатолійович Шмалько shmalko.fedir@zp.edu.ua<p><span style="font-weight: 400;">Це дослідження представляє методологію локально-чутливого хешування, яка підвищує ефективність пошуку наближених найближчих сусідів шляхом інтеграції адаптивних кодувальних дерев і кластеризації на основі двоспрямовані кодувальні представлення з трансформерів. Запропонований підхід оптимізує розділення простору даних перед застосуванням хешування, що покращує точність пошуку та зменшує обчислювальні витрати. По-перше, мультимодальні дані, такі як зображення та текстові описи, перетворюються у спільний семантичний простір за допомогою попередньо навченої моделі двоспрямовані кодувальні представлення з трансформерів. Це забезпечує крос-модальну узгодженість і сприяє порівнянню у високорозмірному просторі. По-друге, методи зменшення розмірності, такі як уніфіковане апроксимування та проєкція многовидів або t-розподілене вкладення стохастичної близькості, застосовуються для усунення ефекту “прокляття розмірності” при збереженні ключових зв’язків між точками даних. По-третє, створюється адаптивне кодувальне дерево, яке динамічно сегментує простір даних на основі його статистичного розподілу, забезпечуючи ефективну ієрархічну кластеризацію. Кожна точка даних конвертується у символьне представлення, що дозволяє здійснювати швидкий пошук за допомогою структурованого хешування. До того ж, до закодованого набору даних застосовується локально-чутливе хешування, що використовує p-стабільні розподіли для підтримки високої точності пошуку та зменшення розміру індексів. Поєднання кодувальних дерев і локально-чутливе хешування сприяє ефективному відбору кандидатів при мінімізації витрат на пошук. Експериментальне тестування на наборі даних CarDD, який містить зображення пошкоджень автомобілів та їх анотації, демонструє, що запропонований метод перевершує сучасні техніки наближений найближчий сусід як за ефективністю індексації, так і за точністю пошуку. Результати підкреслюють його адаптивність до масштабних, високорозмірних та мультимодальних наборів даних, що робить його придатним для діагностичних моделей і завдань у режимі реального часу.</span></p>2025-04-04T00:00:00+00:00Авторське право (c) 2025 https://hait.od.ua/index.php/journal/article/view/243Використання глибоких нейронних мереж для видалення шуму із зображень в умовах обмежених апаратних ресурсів2025-04-15T22:13:32+00:00Олексій Іванович Шеремет sheremet-oleksii@ukr.netОлександр Валентинович Садовой sadovoyav@ukr.netКатерина Сергіївна Шеремет artks@ukr.netЮлія Віталіївна Сохіна jvsokhina@gmail.com<p><span style="font-weight: 400;">Усунення шуму на зображеннях залишається важливою темою в цифровій обробці зображень, адже має на меті відновлення чіткого візуального вмісту з даних, пошкоджених випадковими коливаннями. У цій статті представлено огляд сучасних методів усунення шуму на основі глибоких нейронних мереж та порівняння їх ефективності з класичними техніками. Особливий акцент зроблено на здатності сучасних глибоких архітектур вивчати залежності в даних, що дозволяє більш ефективно зберігати структурні деталі, ніж традиційні методи. Реалізацію проведено в програмному середовищі з використанням бібліотек відкритого коду, а дослідження виконано на платформі Google Colab, що забезпечує відтворюваність і масштабованість експериментів. Класичні та нейромережеві методи оцінюються кількісно та візуально за допомогою стандартизованих показників якості, таких як співвідношення сигнал/шум і показник структурної подібності, а також аналізу швидкості обробки. Результати демонструють, що нейромережеві підходи забезпечують вищу точність відновлення і краще зберігають деталі, хоча зазвичай потребують більших обчислювальних ресурсів. Класичні методи, хоч і простіші в реалізації та доступні для обладнання з мінімальними можливостями, часто не справляються за високого рівня шуму або його складного характеру. Методи на основі зіставлення блоків та тривимірної фільтрації демонструють конкурентні результати, проте вимагають значних обчислювальних витрат, що обмежує їх застосування для завдань, чутливих до часу. Перспективні напрямки розвитку включають гібридні підходи, що поєднують переваги згорткових і трансформерних архітектур, а також удосконалення стратегій навчання, які дозволять використовувати методи за відсутності великих обсягів чистих еталонних даних. Вирішення цих викликів забезпечить розвиток методів усунення шуму на зображеннях, що дозволить отримати більш ефективні та надійні рішення для широкого спектру практичних задач.</span></p>2025-04-04T00:00:00+00:00Авторське право (c) 2025 https://hait.od.ua/index.php/journal/article/view/244Поліпшена модель сегментації для ідентифікації екземплярів об'єктів на основі текстових запитів2025-04-15T22:24:27+00:00Сергій Володимирович Машталір sergii.mashtalir@nure.uaАндрій Романович Ковтуненко andrii.kovtunenko@nure.ua<p><span style="font-weight: 400;">Кількість мультимедійної інформації, що стрімко зросла, вимагає суттєвого розвитку методів її швидкої обробки. При цьому одним із напрямів обробки є попередній аналіз із виділенням характерних ознак зображень для скорочення інформації необхідної для подальших завдань. Одним із видів такого скорочення інформації є сегментація зображень.</span> <span style="font-weight: 400;">При цьому загальне завдання сегментації зображень часто зводиться до задачі сегментації об'єктів, що є фундаментальною задачею комп'ютерного зору, що вимагає точного піксельного розмежування об'єктів і розуміння сцени. З розвитком методів обробки природньої мови (NLP) багато підходів були успішно адаптовані до завдань комп'ютерного зору, дозволяючи більш інтуїтивно описувати сцени за допомогою природної мови. На відміну від традиційних моделей, обмежених фіксованим набором класів, підходи на основі обробки природньої мови NLP дозволяють шукати об'єкти на основі атрибутів, що розширює їх застосування. Хоча існуючі методи сегментації об'єктів зазвичай поділяються на одноетапні та двоетапні - залежно від швидкості та точності - залишається прогалина в розробці моделей, які можуть ефективно ідентифікувати та сегментувати об'єкти на основі текстових підказок. Для вирішення цієї проблеми ми пропонуємо модель сегментації екземплярів з необмеженою кількістю класів, здатну виявляти та сегментувати об'єкти за підказками. Наш підхід базується на CLIPSeg, інтегруючи архітектурні модифікації Panoptic-DeepLab та PRN (Panoptic Refinement Network) для прогнозування центрів об'єктів та попіксельних відстаней до меж. На етапі постобробки результати сегментації уточнюються для покращення розділення об'єктів. Запропонована архітектура навчалася на наборах даних LVIS і PhraseCut та оцінюється за допомогою середнього Dice score з сучасними моделями сегментації з відкритими наборами класів. Експериментальні результати показують, що хоча наша модель досягає найвищої швидкості виведення серед методів з відкритими множинами, зберігаючи при цьому якість сегментації на рівні FastSAM, постобробка залишається слабкою ланкою. Майбутні вдосконалення повинні бути спрямовані на усунення самого процесу постобробки або вдосконалення його алгоритму що може призвести до більш ефективної сегментації.</span></p>2025-04-04T00:00:00+00:00Авторське право (c) 2025 https://hait.od.ua/index.php/journal/article/view/245Віртуально необмежений шардинг для масштабованих розподілених реєстрів2025-04-15T22:32:19+00:00Сергій Сергійович Грибняк s.s.grybniak@op.edu.uaЄвген Юрійович Леончик leonchik@ukr.netІгор Євгенович Мазурок igor@mazurok.comОлександр Сергійович Нашиван o.nashyvan@op.edu.uaРуслан Васильович Шанін ruslanshanin@onu.edu.uaАліса Юріївна Ворохта alisa.vorokhta@uni.lu<p><span style="font-weight: 400;">У роботі представлено підхід до масштабування децентралізованої платформи смарт-контрактів Waterfall, заснований на концепції ієрархічного фрактального шардингу. Незважаючи на потенціал технології розподіленого реєстру, її широке впровадження стримується проблемами масштабованості — зокрема, неможливістю пропорційно збільшувати пропускну здатність мережі із зростанням кількості учасників без шкоди для безпеки або децентралізації. Запропонована архітектура зменшує обчислювальне та мережеве навантаження шляхом розподілу транзакцій, смарт-контрактів та станів між фрактально організованими шардами, кожен з яких функціонує як орієнтований ациклічний граф. Це дозволяє залучати вузли з обмеженими ресурсами та досягати масштабованості не лише на рівні всієї системи, але й у її компонентах. У роботі описано механізми поділу та злиття шардів, маршрутизації транзакцій, динамічного розміщення смарт-контрактів, а також імовірнісну модель для оцінки ризику атаки на окремий шард. Проведено моделювання та представлено рекомендації щодо параметрів безпечного розміру шардів. Хоча розробка здійснювалась спеціально для платформи Waterfall, загальна концепція фрактального ієрархічного шардингу, а також її окремі компоненти, можуть бути адаптовані до інших блокчейн-систем, зокрема з модульною архітектурою або архітектурою, побудованою на основі орієнтованого ациклічного графа.</span></p>2025-04-04T00:00:00+00:00Авторське право (c) 2025 https://hait.od.ua/index.php/journal/article/view/246Інтелектуальна інформаційна технологія аналізу та управління будівельними відходами2025-04-15T22:50:26+00:00Олена Олександрівна Арсірій e.arsiriy@gmail.comНаталія Цудечка-Пуріняnatalija.cudecka-purina@ba.lvОлексій Володимирович Іванов lesha.ivanoff@gmail.comКирило Олександрович Бєляєв kirillbelyaev2921@gmail.com<p><span style="font-weight: 400;">У сучасних умовах збільшення кількості утворених відходів при будівництві, зносі, ремонті чи реконструкції об’єктів, проблема аналізу та управління цими відходами стає все більш актуальною у вирішенні екологічних та економічних питань. Ця проблема в Україні ускладнюється бойовими діями на її території, через які виникла значна кількість зруйнованих чи пошкоджених будівель. У науковій статті запропонований варіант розв’язання проблеми аналізу та управління відходами будівництва за рахунок створення інтелектуальної інформаційної технології. Авторами запропоновано концептуальну схему інтелектуальної інформаційної технології, що буде на основі введених кінцевим користувачем даних про джерело та вид будівельних відходів надавати геопросторові про центри прийому відходів. Було проаналізовано предметну літературу щодо сучасного стану технологій та методів для управління відходами будівництва, на основі яких сформовано вимоги до інтелектуальної інформаційної технології. При описі складових концептуальної схеми були проаналізовані природа вхідних і вихідних даних, а також розглянуті машинні алгоритми і технології, що можуть бути використані для розв’язання інтелектуальної задачі аналізу та управління будівельними відходами. Як варіант розв’язання проблеми аналізу та управління будівельними відходами авторами була розроблена інтелектуальна інформаційна система з 4 модулів, в якій реалізовано наступні підзадачі: класифікація центрів прийому відходів, збір даних про джерело відходів та їх види, класифікація відходів, визначення найближчих центрів прийому відходів та видача результатів у вигляді інтерактивної карти. Сервер було написано на мові програмування Java, використовуючи Spring Framework, а також Spring Boot і Spring Data JPA. В якості системи управління базою даних було обрано PostgreSQL. Фронтенд було написано за допомогою Thymeleaf, а також HTML, CSS та JavaScript. Четвертий модуль включає в себе запит до OpenStreetMap Tiles для відображення мапи на веб-сторінці користувача. Подальший розвиток дослідження може бути пов’язаний із застосуванням технологій штучного інтелекту або нейронних мереж для аналізу зображень об’єктів утворення відходів, на основі чого може бути отриманий текстовий файл з класами будівельних відходів для формування пропозицій користувачу з поводження з відходами.</span></p>2025-04-04T00:00:00+00:00Авторське право (c) 2025 https://hait.od.ua/index.php/journal/article/view/247Прогнозування сигналу ЕКГ на основі представлень для переднавчання нейронних мереж2025-04-15T23:00:32+00:00Сергій Григорович Ставиченко sergey.stavichenko@gmail.comГанна Євгенівна Філатова Hanna.Filatova@khpi.edu.ua<p><span style="font-weight: 400;">Обмежений набір даних для навчання є відомою проблемою при застосуванні методів глибокого навчання нейронних мереж. Проблема є особливо актуальною в галузі обробки біомедичних сигналів, таких як сигнал електрокардіограми, оскільки підготовка навчальних даних є трудомісткою і вимагає залучення кваліфікованих спеціалістів. Методи самокерованного навчання які спочатку зародилися в таких галузях машинного навчання, як обробка природної мови та комп’ютерний зір, є одним із шляхів розв’язання цієї проблеми і набувають все більшого поширення в сфері обробки біомедичних сигналів. Однак, пряма адаптація методів самокерованного навчання розроблених для інших доменів, не враховує таких особливостей даних електрокардіограм, як квазіперіодичність, локалізація морфологічних ознак, чутливість до шумів. Це робить актуальним розвиток специфічних методів самокерованного навчання для даних електрокардіограм. У цій роботі представлено новий метод самокерованного навчання для переднавчання нейронних мереж на нерозмічених даних електрокардіограм. Запропонований метод використовує задачу прогнозування короткої наступної підвибірки сигналу на основі попередньої підвибірки та вектора представлення. Моделі прогнозування та трансформації сигналу у вектори представлення навчаються спільно на датасеті MIMIC-ECG-IV із використанням методу зворотного поширення помилки при мінімізації середньоквадратичної помилки між спрогнозованою та оригінальною підвибірками сигналу. Як приклад цільової задачі було обрано навчання лінійних бінарних класифікаторів на датасеті PTB-XL для діагностики патологічних станів пацієнта за I-м відведенням. Розмір навчальної вибірки для кожного діагнозу обмежено тридцятьма чотирма прикладами. Спочатку модель отримання представлень була навчена на нерозміченому датасеті MIMIC-ECG-IV, а потім навчалися лінійні моделі класифікації отриманих представлень для кожного обраного діагнозу в PTB-XL. Також проводилося порівняння з навчанням моделі представлень із випадково ініціалізованими вагами разом із навчанням класифікатора. Ефективність запропонованого методу порівнювалася з адаптаціями таких методів, як Contrastive Learning, Contrastive Predictive Coding та Masked Autoencoders. Для забезпечення принципів контрольованості експериментів були розроблені власні реалізації розглянутих методів із використанням спільної кодової бази та архітектурних блоків. Результати експериментів показали значну перевагу всіх розглянутих методів порівняно із сумісним навчанням моделі виділення ознак, а також перевагу запропонованого методу самокерованного навчання над іншими розглянутими методами, особливо на діагнозах із неявно вираженими короткочасними ознаками форми сигналу, таких як фібриляція та тріпотіння передсердь. Проведені експерименти демонструють перспективність подальших досліджень у галузі розробки специфічних методів самокерованного навчання для даних електрокардіограм як ефективного підходу до підвищення ефективності нейромережевих методів в умовах обмеження навчальних даних.</span></p>2025-04-04T00:00:00+00:00Авторське право (c) 2025 https://hait.od.ua/index.php/journal/article/view/248Метод відстеження місцеперебування пацієнта у системах віртуального супроводу в медичних закладах2025-04-15T23:08:25+00:00Максим Сергійович Лисенко kkn_lms@ztu.edu.uaНадія Миколаївна Лобанчикова lobanchikovanadia@gmail.com<p><span style="font-weight: 400;">В статті запропоновано гібридний метод відстеження місцеперебування пацієнта у системах віртуального супроводу в медичних закладах. Для забезпечення необхідної точності внутрішнього позиціонування та безперешкодної навігації, що особливо важливо для осіб із обмеженою мобільністю, запропоновано гібридний метод, який поєднує сканування кодів швидкого доступу, використання маячків Bluetooth Low Energy та технологію позиціонування за допомогою Wi-Fi. Кожна з цих технологій відіграє унікальну роль у загальній системі: коди швидкого доступу слугують дискретними маркерами місцеположення, маячки Bluetooth Low Energy забезпечують безперервне відстеження на основі відстані, а позиціонування з Wi-Fi покращує покриття у відкритому просторі. Ключовим аспектом дослідження є інтеграція в запропонований гібридний метод позиціонування технологій доповненої реальності. Накладання навігаційних підказок у реальному часі на поле зору користувача за допомогою пристроїв із підтримкою доповненої реальності, таких як смартфони, дозволяє зробити систему віртуального супроводу більш інтуїтивною та інтерактивною. Ця особливість є цінною для осіб з інвалідністю, оскільки знижує когнітивне навантаження та підвищує просторову обізнаність у складних медичних середовищах. У дослідженні запропоновано структурну схему системи віртуального супроводу на основі доповненої реальності, що включає модуль сканування кодів швидкого доступу, модуль маячків Bluetooth Low Energy, модуль Wi-Fi позицінуваня, модуль пошуку оптимального маршруту, модуль доповненої реальності та модуль інтеграції. Інтеграція визначених модулів дозволяє використати переваги кожного з них та зменшити їх недоліки. Розроблено модель взаємодії компонентів системи, де визначено зовнішні та внутрішні інформаційні потоки та інтеграційну взаємодію визначених структурних елементів системи. Визначено перспективні напрямки майбутніх дослідженнь, зокрема методи, алгоритми та технології інтеграції передових функцій доповненої реальності, персоналізація маршрутів на основі алгоритмів штучного інтелекту та підвищення енергоефективності системи.</span></p>2025-04-04T00:00:00+00:00Авторське право (c) 2025