TR2022004221U5 - Yapay zekâ tabanlı çevresel farkındalık sistemi. - Google Patents

Yapay zekâ tabanlı çevresel farkındalık sistemi.

Info

Publication number
TR2022004221U5
TR2022004221U5 TR2022/004221U TR2022004221U TR2022004221U5 TR 2022004221 U5 TR2022004221 U5 TR 2022004221U5 TR 2022/004221 U TR2022/004221 U TR 2022/004221U TR 2022004221 U TR2022004221 U TR 2022004221U TR 2022004221 U5 TR2022004221 U5 TR 2022004221U5
Authority
TR
Turkey
Prior art keywords
camera
module
detection
mapping
objects
Prior art date
Application number
TR2022/004221U
Other languages
English (en)
Inventor
Burak Selvi̇ Şeref
Original Assignee
Selvi̇ Yazilim Ve Donanim Teknoloji̇leri̇ Li̇mi̇ted Şi̇rketi̇
Selvi Yazilim Ve Donanim Teknolojileri Ltd Sirketi
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Selvi̇ Yazilim Ve Donanim Teknoloji̇leri̇ Li̇mi̇ted Şi̇rketi̇, Selvi Yazilim Ve Donanim Teknolojileri Ltd Sirketi filed Critical Selvi̇ Yazilim Ve Donanim Teknoloji̇leri̇ Li̇mi̇ted Şi̇rketi̇
Priority to TR2022/004221U priority Critical patent/TR2022004221U5/tr
Publication of TR2022004221U5 publication Critical patent/TR2022004221U5/tr

Links

Landscapes

  • Image Analysis (AREA)
  • Alarm Systems (AREA)

Abstract

Buluş derin öğrenme tabanlı bilgisayarlı görü kullanılarak kamera görüntüsünden nesne tespiti, eylem tespiti, anomali tespiti, konumlandırma ve haritalandırma yapılabilmesini sağlayan bir sistem ile ilgilidir.

Description

TARIFNAME YAPAY ZEKÂ TABANLI ÇEVRESEL FARKINDALIK SISTEMI Bulusun ilgili oldugu teknik alan: Bulus derin ögrenme tabanli bilgisayarli görü kullanilarak kamera görüntüsünden nesne tespiti, eylem tespiti, anomali tespiti, konumlandirma ve haritalandirma yapilabilmesini saglayan bir sistem ile ilgilidir. Teknigin bilinen durumu: Son yillarda otomobiller, ön, arka ve yan bilgi veren çoklu sensör ve kameralarla donatilmistir. Bu durum, soförsüz çalisma gibi destekli sürüs teknolojilerinin gelismisliginin artmasina neden olmustur. Buna ek olarak, kameralar kullanarak görüntü algilamanin önemi, dronlar ve robotlar tarafindan yürütülenler gibi uzaktan altyapi denetimlerinde kullanilmalarindan dolayi artmistir. Bu uygulamalarda, iki boyutlu bir görüntünün yani sira, nesnenin sekli, hareketi ve kameradan uzakligi gibi nesnenin dinamik üç boyutlu parametrelerini anlamak da gerekmektedir. Stereo kameralar, kizil ötesi mesafe sensörleri, ultrasonik mesafe sensörleri, milimetre dalga radari, LiDAR (lsik Algilama ve Degisen), SfM (Hareket Yapisi) teknolojisi ve digerleri gibi nesneye olan mesafeyi ölçmek için çesitli yöntemler önerilmistir. Stereo kameralarda, yüksek mesafe dogrulugu için ölçüm yaparken, yaklasik 30 cm'lik iki kamera mercegi arasinda bir mesafeyi korumak gerekmektedir. Bu nedenle minyatürlestirme dogal olarak zordur. Kizilötesi ve ultrasonik sensörler, nesneyi bir kizil ötesi isik paterniyle aydinlatmak veya ultrasonik dalgalar ile bombardiman ederek mesafeyi ölçmektedir. Böylece 10 metreden daha büyük mesafelerdeki nesneleri ölçmek zordur. Minyatürlestirmenin zor olmasinin yani sira, milimetre dalga radari ve LiDAR ekipmani maliyetlidir. SfM teknolojisi, hareketli bir kamera tarafindan çekilen birden fazla görüntüden nesneye olan mesafeyi ölçmektedir. Bununla birlikte, hareketli bir nesnenin mesafesinin yüksek bir dogruluk derecesiyle ölçülmesi zordur. Böylece, geleneksel mesafe sensörleri çesitli avantaj ve dezavantajlara sahiptir. Kompakt düsük maliyetli bir pakette yüksek bir dogruluk derecesi elde etmek zordur. Derinlik algilama için kullanilan önceki teknikler ultrasonik dalga kullanarak mesafe ölçümü, lazer isini (LlDAR vb.) kullanarak mesafe ölçümü, isigin uçus süresini (time of flight) kullanarak mesafe ölçümü ve binoküler kamera kullanilarak üretilen stereo görüntüden mesafe ölçümü seklindedir. Bu tekniklerden sadece binoküler kamera kullanilarak stereo görüntüden derinlik algilama teknigi görsel bir tekniktir bunun disinda diger teknikler görsel degildir. Binoküler kamera ile stereo görüntü olusturmak için birbirlerine göre konumlari sabit ve degismeyen iki adet kameraya ihtiyaç duyulmaktadir. Ayrica stereo görüntüden algilanabilecek derinligin menzili kameralarin birbiri arasindaki mesafeye baglidir. Teknigin bilinen durumunda bulunan "TR 2019/17226" numarali patente konu edilen bulus, yapay zekâ (derin ögrenme) tabanli bilgisayarli görü kullanarak sadece monoküler kamera görüntüsünden semantik olarak derinlik algilama, eszamanli konumlandirma ve haritalandirma yöntemi ve sistemi ile ilgilidir. Bahsedilen sistemde görsel odometri yazilim modülü, derin sinir agi yazilim modülü, nesnelerin kameraya göre konumunu hesaplayan yazilim modülü, çarpismasiz (bos) uzayi hesaplayan yazilim modülü, Nesneleri duragan, yari hareketli ve hareketli olmak üzere üç sinifta teshis edilmesini saglayan haritalandirma yazilim modülüne sahip yazilim gibi unsurlar içermektedir. Bir yapay zekâ teknigi olan derin ögrenme ile görüntüde yer alan nesnelerin teshis edilip sahne ile ilgili semantik bilgi sahibi olunmasi literatürdeki birçok görüntü isleme probleminde paradigma degisimine sebep olmaktadir. Derin ögrenmenin ortaya çikisindan önce, görüntüdeki geometrik özelliklerden öznitelikler belirlenip çikarimlar ve teshisler yapilmaktadir. Mevcut sistemde çevresel farkindalik çesitli sensörlerden gelen verilerin füzyonu ile saglanmaktadir. Bu sistemlerde tasiyici platformun kendi üzerindeki kamera veya diger sensörler vasitasiyla nesne tespiti, kendi konumundaki ve durusundaki degisimleri takip edebilmesi ve etrafindaki cisimlerin konumlarini algilamasi ve bu sayede ortamin haritasini çikartmasi saglanmaktadir. Sonuç olarak yukarida anlatilan olumsuzluklardan dolayi, derin ögrenme tabanli bilgisayarli görü kullanarak kamera görüntüsünden nesne, eylem ve anomali tespiti yapabilen, konumlandirma ve haritalandirma yaparak ürettigi bilgileri (gördüklerini) tasiyici platforma ileten bir teknolojiye ihtiyaç duyulmaktadir. Bulusun Kisa Açiklamasi ve Amaçlari Bulus, yukarida bahsedilen gereksinimleri karsilayan, tüm dezavantajlari ortadan kaldiran, mevcut çevresel farkindalik sistemlerine ilave özellikler ve avantajlar getiren, yapay zekâ tabanli çevresel farkindalik uygulamasi ile ilgilidir. Bulusun en önemli amaci, kamera görüntüsünden derin ögrenme tabanli bilgisayarli göre kullanarak nesne tespiti, eylem tespiti, anomali tespiti, konumlandirma ve haritalandirma yapip ürettigi bilgileri (gördüklerini) tasiyici platforma iletmesidir. Bulus, entegre edildigi platforma derin ögrenme tabanli bilgisayarli görü yetenegi kazandiran sistemdir. Bulusun bir diger amaci ise, önceden egitilmis derin sinir agini kullanarak dahili kamerasindan gelen görüntülerdeki nesneleri (agaç, araba, insan vb.) taniyabilmesinin saglanmasidir. Bulus ile gelistirilen çevresel farkindalik uygulamasi, taninan nesnelerin uzaydaki konumlarini üzerinde bulundugu tasiyici platforma göre belirlemekte, ihtiyaç durumunda ariza, anomali ve olay tespiti yapmaktadir. Ayrica durumsal farkindalik ve mekânsal farkindalik saglamaktadir. Gördüklerini (ürettigi bilgileri) tasiyici platforma iletmektedir. Bulusun bir diger amaci ise, ortam ile ilgili semantik bilgilerin çikartilabilmesidir. Sekillerin Açiklamasi: SEKIL-1; Bulus konusu sistemin blok diyagramini veren çizimdir. Bulusu Olusturan UnsurlarinlParçalarin Tanimlari Bilgisayarli görü kullanilarak kamera görüntüsünden derin ögrenme tabanli bilgisayarli göre kullanarak nesne tespiti, eylem tespiti, anomali tespiti, konumlandirma ve haritalandirma yapilabilmesini saglayan sistemin daha iyi açiklanabilmesi için sekillerde yer alan parça ve unsurlar numaralandirilmis olup, her bir numaranin karsiligi asagida verilmektedir: Derin sinir agi modülü Haritalandirma modülü Nesne veri tabani Semantik çikarim modülü Konum hesaplama modülü 74979199??? Ataletsel ölçüm modülü Bulusun Ayrintili Açiklamasi Bulus derin ögrenme tabanli bilgisayarli görü kullanilarak kamera görüntüsünden nesne tespiti, eylem tespiti, anomali tespiti, konumlandirma ve haritalandirma yapilabilmesini saglayan bir sistem ile ilgilidir. Ortamdaki nesnelerin görüntü üzerinde teshis edilmesi bir yapay zekâ teknigi olan derin ögrenme (derin yapay sinir agi) kullanilarak yapilmaktadir. Kamera görüntüsünden nesne tespiti, eylem tespiti, anomali tespiti, konumlandirma ve haritalandirma yapmaktadir. Kamera görüntüsünden nesne tespiti, eylem tespiti ve anomali tespiti derin ögrenme tabanli bilgisayarli görü teknikleri kullanilarak yapilmaktadir. Bilgisayarli görü (computer vision), temel olarak bir insanin görsel olarak yapabilecegi görevleri veya islevleri bilgisayar sistemli ortamda yapmaktadir. Yapay zekâ tabanli bilgisayarli görü kullanilarak kamera görüntüsünden nesne tespiti, eylem tespiti, anomali tespiti, konumlandirma ve haritalandirma yapilabilmesini saglayan sistem kamera (1), derin sinir agi modülü (2), haritalandirma modülü (3), nesne veri tabani (4), semantik çikarim modülü (5), konum hesaplama modülü (6), ataletsel ölçüm modülü (7) içermektedir. Bu unsurlarin birbirleri ile ilgili iletisimi Sekil- 1'de gösterilmektedir. Bulusun açikladigi sistemde ilk olarak kameradan (1) alinan görüntüler derin sinir agi modülüne (2) iletilmektedir. Kamera (1) olarak monoküler RGB veya termal kamera kullanilmaktadir. Sistemin kamerasindan (1) gelen görüntü, derin sinir agi modülünden (2) geçirilmektedir ve etraftaki nesneler, eylemler ve anomaliler teshis edilmektedir. Derin sinir agi modülüne (2) iletilen görüntüden, görüntüde teshis edilen nesne türü ve çerçeve ebatlari belirlenmektedir. Ataletsel ölçüm modülünden (7) de, hareket ve durus bilgilerinin alinarak konum hesaplama modülüne (6) iletilmesini gerçeklestirmektedir. Ataletsel ölçüm modülü (7) hareket ve durus bilgilerinin alinarak, teshis edilen nesnenin kameraya (1) göre konumunu hesaplayan konum hesaplama modülüne (6) iletilmesini saglamaktadir. Konum hesaplama modülü (6), teshis edilen nesnenin kameraya (1) göre konumunun hesaplanmasi, kamera geometrisi denklemlerini kullanilarak gerçeklestirmektedir. Konum hesaplama modülü (6) gelen hareket ve durus bilgilerini kullanarak nesnelerin kameraya (1) göre (kamerayi tasiyici platforma göre) konumunu hesaplamaktadir. Teshis edilen nesnelerin ortalama ebatlari referans alinarak konum hesaplama modülü (6) ile sisteme olan uzakliklari hesaplanmaktadir. Konum hesaplama modülü (6), nesnelerin kameraya (1) göre (kamerayi tasiyici platforma göre) konumlarini belirledikten sonra haritalandirma modülüne (3) aktarmaktadir. Bu sayede nesneler kameraya (1) göre konumlandirilmakta ve haritalandirma modülü (4) ile haritalandirilmaktadir. Haritalandirma modülüne (3) aktarilan nesnelerin kameraya (1) göre (kamerayi tasiyici platforma göre) konumlarini sayesinde, haritalandirma nesne tabanli olmaktadir. Nesnelerin kameraya (1) göre konumunu hesaplayan konum hesaplama modülü (6), nesne ile kamera (1) arasindaki mesafeleri semantik çikarim modülüne (5) göndermektedir. Semantik çikarim modülü (5) üzerinden kamera (1) ile nesne arasinda bir piramit tanimlanmaktadir. Piramidin içinde yer alan ve derin sinir aginin tanidigi baska nesne yok ise kamera (1) ile kamera (1) görüntüsünden tespit edilen nesne arasinda baska nesne olmadigina dair semantik çikarim yapilmaktadir. Haritalandirma modülü (3) teshis edilen ve konum kestirimi yapilan nesneleri kullanim senaryosuna göre 2 veya 3 boyutlu olarak haritalandirilmaktadir. Her bir teshis edilen nesne için bu siniflandirma bilgisi ve konumu nesne veri tabaninda (4) saklanmaktadir. Kameradan (1) gelen görüntülerden son kullanicinin belirledigi nesneler (araç, araba, insan vb.) önceden egitilen derin sinir agi modülünü (2) kullanarak taninmaktadir. Ayni zamanda kameradan (1) gelen görüntülerden son kullanicinin tanimladigi eylemler ve anomaliler de derin sinir agi modülü (2) ile tespit edilmektedir. Taninan nesnelerin, eylemlerin, anomalilerin uzaydaki konumlarini, üzerinde bulundugu tasiyici platforma göre belirlemektedir. Bu sayede durumsal farkindalik ve mekânsal farkindalik saglanmaktadir. Gördüklerini (ürettigi bilgileri) tasiyici platforma iletmektedir. Bu sayede çevresel farkindalik talep edilen platformlara, ortamlara uygulanabilmektedir. Konumlandirma ve haritalandirma yaparken TR 2019/17226 basvuru numarali bulusa konu edilen sistemi kullanan bulus, akilli fabrikalarda is sagligi güvenligi ve envanterdeki depo araçlarinin (forklift vb.) konumlandirmasi alanlarinda, savunma sanayii sektöründe kesif, gözetleme ve istihbarat toplamak amaciyla, futbol sektöründe sut antrenmanlarinda futbolcularin sut analizlerini yapmak üzere halihazirda kullanilmaktadir. TR TR TR TR TR

Claims (1)

1.ISTEMLER . Kamera (1), derin sinir agi modülü (2), haritalandirma modülü (3), semantik çikarim modülü (5), konum hesaplama modülü (6) ve nesne veri tabani (4) içeren, kamera görüntüsünden derin ögrenme tabanli bilgisayarli görü kullanarak nesne tespiti, eylem tespiti, anomali tespiti yapan, konumlandirma ve haritalandirma sistemi olup, özelligi; o Hareket ve durus bilgilerinin alinarak, teshis edilen nesnenin kameraya (1) göre konumunu hesaplayan konum hesaplama modülüne (6) iletilmesini saglayan ataletsel ölçüm modülü (7) içermesidir. TR TR TR TR TR
TR2022/004221U 2022-03-21 2022-03-21 Yapay zekâ tabanlı çevresel farkındalık sistemi. TR2022004221U5 (tr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TR2022/004221U TR2022004221U5 (tr) 2022-03-21 2022-03-21 Yapay zekâ tabanlı çevresel farkındalık sistemi.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TR2022/004221U TR2022004221U5 (tr) 2022-03-21 2022-03-21 Yapay zekâ tabanlı çevresel farkındalık sistemi.

Publications (1)

Publication Number Publication Date
TR2022004221U5 true TR2022004221U5 (tr) 2022-04-21

Family

ID=85127947

Family Applications (1)

Application Number Title Priority Date Filing Date
TR2022/004221U TR2022004221U5 (tr) 2022-03-21 2022-03-21 Yapay zekâ tabanlı çevresel farkındalık sistemi.

Country Status (1)

Country Link
TR (1) TR2022004221U5 (tr)

Similar Documents

Publication Publication Date Title
US9854227B2 (en) Depth sensor
Kanwal et al. A navigation system for the visually impaired: a fusion of vision and depth sensor
Guerrero-Higueras et al. Tracking people in a mobile robot from 2d lidar scans using full convolutional neural networks for security in cluttered environments
US9823340B2 (en) Method for time of flight modulation frequency detection and illumination modulation frequency adjustment
US11174989B2 (en) Sensor arrangement and method of securing a monitored zone
US20140152975A1 (en) Method for dynamically adjusting the operating parameters of a tof camera according to vehicle speed
Byrne et al. Stereo based obstacle detection for an unmanned air vehicle
KR102597216B1 (ko) 공항용 안내 로봇 및 그의 동작 방법
Abughalieh et al. Predicting pedestrian intention to cross the road
Sridhar et al. Cooperative perception in autonomous ground vehicles using a mobile‐robot testbed
CN113228043A (zh) 移动平台基于神经网络的障碍物检测及关联的系统和方法
KR20200071960A (ko) 카메라 및 라이다 센서 융합을 이용한 객체 검출 방법 및 그를 위한 장치
Antony et al. Vision based vehicle detection: A literature review
Alam et al. Object detection learning for intelligent self automated vehicles
Dinesh Kumar et al. Stereo camera and LIDAR sensor fusion-based collision warning system for autonomous vehicles
Trejo et al. Depth map estimation methodology for detecting free-obstacle navigation areas
Le Saux et al. Rapid semantic mapping: Learn environment classifiers on the fly
US20230237783A1 (en) Sensor fusion
Ryu et al. Heterogeneous sensor fusion based omnidirectional object detection
TR2022004221U5 (tr) Yapay zekâ tabanlı çevresel farkındalık sistemi.
Rana et al. Comparative study of Automotive Sensor technologies used for Unmanned Driving
KR20180066668A (ko) 무인 이동체의 주행 환경 제작 기술을 위한 장치 및 방법
Godil et al. 3D ground-truth systems for object/human recognition and tracking
Stambler et al. Detection and reconstruction of wires using cameras for aircraft safety systems
CN115565058A (zh) 机器人、避障方法、装置和存储介质