TARIFNAME Yogun erisim noktali yerel otonom aglarda dijital ikiz tabanli girisim azaltma sistemi ve yöntemi Teknik Alan Bulus; kablosuz aglarda meydana gelen girisim problemi ve yogun erisim noktasi konumlandirmalari ile de artan bu problemin performansta yarattigi olumsuz etkiyi azaltmak için erisim noktalarinin yayin gücünü miyop çözümler ile ayarlamak yerine en çok girisimin etkisini azaltan çözümü veren olasiligi pekistirmeli ögrenme kullanarak, kapsamli arama süreci gerçeklestirerek seçip, erisim noktalarinin cihazlar üzerinde yarattigi girisimin azaltilmasini saglayan sistem ve yöntem ile ilgilidir. Teknigin Bilinen Durumu Çoklu Erisim Noktasi olan senaryolarda CSR (Coordinated Spatial Reuse/Koordineli Uzamsal Yeniden Kullanim) metotlarindan biri olan TPC (Transmit Power Control/Iletim Gücü Kontrolu) literatürde hem WiFi standardi kapsaminda hem de diger çözümlerde islenmistir. Standart kapsaminda uygulanan çözümler kural bazlidir ve bu kontrolü gerçeklestirebilmek adina fiziksel katmandan toplanan veri kablosuz ortam araciligi ile toplanir ve bu alanda ek yüke neden olabilir. Standartta kullanilan ve de diger çözümlerde rastlanan erisim noktalarinin iletim güçleri kural tabanli bir yaklasimla erisim noktalari üzerinde hesaplanmasi ile gerçeklesmektedir. Bu çözümler, islemci ve bellek gibi erisim noktalarinda kit olan kaynaklarda zorlanmaktadir. Bu tür algoritmalar önceden tanimlanmis kosullar altinda iyi performans gösterebilse de, dinamik yapiya sahip olan kablosuz aglara uyum saglayamayabilirler. Diger bir çözüm de O Ögrenme algoritmasina dayali olarak erisim noktalarinin iletim gücünü ve kanal seçimini ayarlayan merkezi bir kontrolördür. Cihazlardan toplanan iki boyutlu konumlari kullanarak agin durumu tanimlanmaktadir. Ancak, bu veri toplama süreci, yine kablosuz ortam üzerinden ek bir iletisim gerektirir ve bu da bir ek yüke neden olabilir. Ayrica, sadece konumlardan yapilan hesaplama girisimi düzgün bir biçimde temsil edemeyebilir. Önerilen çözüm arzu edilen sonuçlari ortaya çikarirken, çevrimdisi bir ögrenme stratejisinin kullanilmasi daha düsük girisim elde edilmesinin karsisini almis olabilir. Literatürde sunulan erisim noktasi ve kontrolör bazli çözümler yapay zeka ögrenimleri uygulamaya uygun altyapiya sahip olmamakta, gerçek zamanli izleme, çift yönlü veri ve kontrol akislarini tam benimsememektedir. Mevcut akademik kaynaklardan bazilari sunlardir; Zhong Z, Kulkarni P, Cao F, Fan Z, Armour S. Issues and challenges in dense WiFi networks. In: 2015 International Wireless Communications and Mobile Computing Fahim M, Sharma V, Cao T-V, Canberk B, Duong TQ. Machine Learning-Based Digital Do-Duy T, Van Huynh D, Dobre OA, Canberk B, Duong TQ. Digital Twin-Aided Intelligent Offloading with Edge Selection in Mobile Edge Computing. IEEE Wireless Khorov E, Kiryanov A, Lyakhov A, Bianchi G. A Tutorial on IEEE 802.11ax High Deng C, Fang X, Han X, Wang X, Yan L, He R, et al. IEEE 802.11be Wi-Fi 7: New Challenges and Opportunities. IEEE Communications Surveys & Tutorials [Internet]. Aio K. Coordinated Spatial Reuse Performance Analysis [Internet]. 2019. Available from: performance-analysis.pptx Wang JJ-M, Ku C-T, Bajko G, Anwyl GA, Feng S, Liu J, et al. MULTI-ACCESS POINT COORDINATED SPATIAL REUSE PROTOCOL AND ALGORITHM [Internet]. European Ak E., Canberk B. FSC: Two-Scale AI-Driven Fair Sensitivity Control for 802.11ax Networks. In: GLOBECOM 2020 - 2020 IEEE Global Communications Conference He C, Hu Y, Chen Y, Fan X, Li H, Zeng B. MUcast: Linear Uncoded Multiuser Video Streaming With Channel Assignment and Power Allocation Optimization. IEEE Zhang Y, Jiang C, Han Z, Yu S, Yuan J. Interference-Aware Coordinated Power Zhao G, Li Y, Xu C, Han Z, Xing Y, Yu S. Joint Power Control and Channel Allocation for Jones W, Eddie Wilson R, Doufexi A, Sooriyabandara M. A Pragmatic Approach to Clear Channel Assessment Threshold Adaptation and Transmission Power Control for Performance Gain in CSMA/CA WLANs. IEEE Transactions on Mobile Computing Zhou C, Yang H, Duan X, Lopez D, Pastor A, Wu Q, et al. Digital Twin Network: Concepts and Reference Architecture [Internet]. IETF Datatracker. 2022 [cited 2022 Apr 24]. Available from: https://datatracker.ietf.org/doc/draft-irtf-nmrg-network-digital-twin- Wu Y, Zhang K, Zhang Y. Digital Twin Networks: A Survey. IEEE Internet of Things Barricelli BR, Casiraghi E, Fogli D. A Survey on Digital Twin: Definitions, Characteristics, Microsoft. DTDL models - Azure Digital Twins [Internet]. Microsoft Docs. 2022 [cited 2022 Apr 24]. Available from: https://docs.microsoft.com/en-us/azure/digital-twins/concepts- models ns-3 | a discrete-event network simulator for internet systems [Internet]. [cited 2022 May 6]. Available from: https://www.nsnam.org/ Sonuç olarak yukarida anlatilan olumsuzluklardan dolayi ve mevcut çözümlerin konu hakkindaki yetersizligi nedeniyle ilgili teknik alanda bir gelistirme yapilmasi gerekli kilinmistir. Bulusun Amaci Bulus, mevcut teknikte kullanilan yapilanmalardan farkli olarak bu alanda yeni bir açilim getiren farkli teknik özelliklere sahip bir yapinin ortaya koyulmasini amaçlamaktadir. Bulusun öncelikli amaci; kablosuz aglarda meydana gelen girisim problemi ve yogun erisim noktasi konumlandirmalari ile de artan bu problemin performansta yarattigi olumsuz etkiyi azaltmak için en çok girisimin etkisini azaltan çözümü veren olasiligi pekistirmeli ögrenme kullanarak, kapsamli arama süreci gerçeklestirerek seçip, erisim noktalarinin cihazlar üzerinde yarattigi girisimin azaltilmasini saglayan sistem ve yöntem ortaya koymaktir. Bulusa konu olan sistem ve yöntem, önerilen mimarinin fiziksel katmanindaki her bir erisim noktasinda konuslandirilan ajan program sayesinde, kablosuz ortama ek iletisim yükü olusturmadan girisim ile ilgili verileri erisim noktalarinin algiladigi paketleri kaydederek elde etmektedir. Bulusta, gerçek zamanli izleme ve yönetim yetenekleri saglayan Digital Twin WiFi Network (DTWN) adli Dijital Ikiz WiFi Agi kullanilmaktadir. Bu bulusta Fiziksel Katman ile eslesme sikligi da incelenmektedir. Ayrica, bu Dijital Ikiz Ag Katmani, Beyin Katmanina hesaplama yapabilecegi bir veri aktarisi yapmaktadir. Bulutta bulunan beyin katmani sayesinde dijital ag ile etkilesim kurarak sürekli ögrenebilen Q-ögrenme tabanli iletim gücü kontrolü yaparak fiziksel agin dinamikligine uygunluk saglanilmaktadir. Hesaplamayi erisim noktalari yerine bulutta yaparak kaynak sorununun da önüne geçmis bulunulmaktadir. Yukarida anlatilan amaçlari yerine getirmek üzere bulus, Kablosuz aglarda meydana gelen girisim problemi ve yogun erisim noktasi konumlandirmalari nedeniyle performansta olusan olumsuz etkiyi azaltmak için en çok girisimin etkisini azaltan çözümü veren olasiligi, pekistirmeli ögrenme kullanarak ve kapsamli arama süreci gerçeklestirerek seçip, erisim noktalarinin cihazlar üzerinde yarattigi girisimin azaltilmasini saglayan sistem olup, özelligi; o Kullanicilar ile iletisim saglanan fiziksel ag, o Belirli protokolleri kullanma yetenegine sahip olan, sabit veya portatif cihazlardan olusan istasyon, 0 Diger Wi-Fi cihazlarinin kablolu bir aga baglantisini saglayan ag donanimi aygitindan olusan erisim noktasi, 0 Erisim noktasinin algiladigi paketleri kaydeden ve kontroIör ile iletisimi saglayan ajan uygulama, o Kullanicilar arasinda paylasilan ve istendigi zaman öIçekIenebiIen esnek çevrim içi bilisim kaynagindan olusan bulut, o Sistemdeki tüm prosedürleri ve modülleri gerçeklestiren kontroIör, o Fiziksel ag katmaninin girisim tabanli temsilini olusturan dijital ikiz ag katmani, o Fiziksel ag katmani ile dijital ikiz katmani arasindaki iletisimi saglayan güney arayüzü, 0 Dijital ikizlerin bulundugu dijital ikiz toplusu, o Fiziksel varligin gerçekçi bir sanal temsilini olusturan dijital ikiz, 0 Dijital ikiz katmani ile beyin katmani arasindaki iletisimi saglayan kuzey arayüzü, 0 Gerçek aglar üzerinde düsük maliyetli ve daha az hizmet etkisi ile geleneksel veya yenilikçi ag operasyonlarini uygulamak için bir dijital ikiz ag platformu üzerinde etkin bir sekilde çalisabilen ve dijital ikiz ag tarafindan ele alinmasi gereken isteklerde bulunan uygulamalarin konuslandirildigi beyin katmani, o Prosedürlerin tekrar edilmesinin gerekip gerekmedigine karar veren giris denetimi o Objelerden anlam çikarip ag topolojisini çikaran topoloji çikarma modülü, o Girisimi azaltan ayarlamayi bulmaya çalisan Q-Ögrenme bazli iletim gücü kontrol o Gereksinim tablosu, performans tablosu ve topoIojiyi kullanarak ag durumunu olusturan ag durumu olusturma modülü, 0 Ag durumlari arasindaki farka bakarak ödül olusturan ödül fonksiyon modülü, . Q Tablosunu günceIIeyip açgözIüIük oranina göre aksiyon belirleyen pekistirmeli ögrenme ajani içermektedir. Bulusun yapisal ve karakteristik özellikleri ve tüm avantajlari asagida verilen sekiller ve bu sekillere atiflar yapilmak suretiyle yazilan detayli açiklama sayesinde daha net olarak anlasilacaktir ve bu nedenle degerlendirmenin de bu sekiller ve detayli açiklama göz önüne alinarak yapilmasi gerekmektedir. Bulusun Anlasilmasina Yardimci Olacak Sekiller Sekil 1, fiziksel katmanin gösterimidir. Sekil 2, dijital ikiz ag katmaninin gösterimidir. Sekil 3, beyin katmaninin gösterimidir. Sekil 4, bulusa konu olan yöntemin sematik gösterimidir. Sekil 5, bulusa konu olan sistemin genel gösterimidir. Çizimlerin mutlaka öIçekIendiriImesi gerekmemektedir ve mevcut bulusu anlamak için gerekli olmayan detaylar ihmal edilmis olabilmektedir. Bundan baska, en azindan büyük ölçüde özdes olan veya en azindan büyük ölçüde özdes islevleri olan elemanlar, ayni numara ile gösterilmektedir. Parça Referanslarinin Açiklamasi 1. Fiziksel Ag 2. Istasyon 3. Erisim Noktasi 4. Ajan uygulama . Bulut 6. Kontrolör 7. Dijital Ikiz Ag Katmani 8. Güney Arayüzü 9. Dijital Ikiz Toplusu . Dijital Ikiz 11. Kuzey Arayüzü 12. Beyin Katmani 13. Giris Denetimi Modülü 14. Topoloji Çikarma Modülü . Q-Ögrenme bazli Iletim Gücü Kontrol Ajani 17. Ödül Fonksiyon Modülü D. Dijital ikiz verisi BA. Bilgi akisi GD. Geri dönüs Bulusun Detayli Açiklamasi Bu detayli açiklamada, bulusun tercih edilen yapilanmalari, sadece konunun daha iyi anlasilmasina yönelik olarak ve hiçbir sinirlayici etki olusturmayacak sekilde açiklanmaktadir. Bulus; kablosuz aglarda meydana gelen girisim problemi ve yogun erisim noktasi konumlandirmalari ile de artan bu problemin performansta yarattigi olumsuz etkiyi azaltmak için en çok girisimin etkisini azaltan çözümü veren olasiligi pekistirmeli ögrenme kullanarak, kapsamli arama süreci gerçeklestirerek seçip, erisim noktalarinin cihazlar üzerinde yarattigi girisimin azaltilmasini saglayan sistem ve yöntem ile ilgilidir. Bulusa konu olan sistemde kullanilan unsurlarin islevleri su sekildedir; Fiziksel ag (1), kullanicilar ile iletisim saglandigi fiziksel agdir. Istasyon (2), 802.11 protokolünü kullanma yetenegine sahip sabit veya portatif cihazlardir. Erisim noktasi (3), diger Wi-Fi cihazlarinin kablolu bir aga baglantisini saglayan bir ag donanimi aygitidir. Ajan uygulama (4), erisim noktasinin (3) algiladigi paketleri kaydeden ve kontrolör (6) ile iletisimi saglayan uygulamadir. Bulut (5), kullanicilar arasinda paylasilan ve istendigi zaman ölçeklenebilen esnek çevrim içi bilisim kaynagidir. Kontrolör (6), bulusa konu olan sistemdeki tüm prosedürleri ve modülleri gerçeklestiren yapidir. Dijital ikiz ag katmani (7), fiziksel ag (1) katmaninin girisim tabanli temsilidir. Güney arayüzü (8), fiziksel ag (1) katmani ile dijital ikiz katmani (7) arasindaki iletisimi saglayan arayüzdür. Dijital ikiz toplusu (9), dijital ikizlerin (10) bulundugu birimdir. Dijital ikiz (10), fiziksel varligin gerçekçi bir sanal temsilidir. Kuzey arayüzü (11), dijital ikiz (10) katmani ile beyin katmani (12) arasindaki iletisimi saglayan arayüzdür. Beyin katmani (12), gerçek aglar üzerinde düsük maliyetli ve daha az hizmet etkisi ile geleneksel veya yenilikçi ag operasyonlarini uygulamak için bir dijital ikiz ag platformu üzerinde etkin bir sekilde çalisabilen ve dijital ikiz ag tarafindan ele alinmasi gereken isteklerde bulunan uygulamalarin konuslandirildigi katmandir. Giris denetimi modülü (13), prosedürlerin tekrar edilmesinin gerekip gerekmedigine karar veren modüldür. Topoloji çikarma modülü (14), objelerden anlam çikarip ag topolojisini çikaran modüldür. Q-Ögrenme bazli iletim gücü kontrol ajani (15), girisimi azaltan ayarlamayi bulmaya çalisan ajandir. Ag durumu olusturma modülü (16), gereksinim tablosu, performans tablosu ve topolojiyi kullanarak ag durumunu olusturan modüldür. Ödül fonksiyon modülü (17), ag durumlari arasindaki farka bakarak ödül olusturan modüldür. Pekistirmeli ögrenme ajani (18), O Tablosunu güncelleyip açgözlülük oranina göre aksiyon belirleyen pekistirmeli ögrenme ajanidir. Bulusa konu olan sistemin çalisma prensibi su sekildir. Fiziksel agda (1) yer alan erisim noktasi (3) üzerinde konuslandirilan ajan uygulamalar (4), erisim noktasinin (3) kendisine bagli olan ve olmayan istasyonlardan (2) algiladigi paketleri kaydedip algilamis oldugu güç degeri (dBm) ve zaman damgasi ile birlikte bulutta (5) kontrolörün (6) içinde olan dijital ikiz ag katmanina (7) önceden belirlenmis olan eslestirme sikligi f göndermektedir. Gönderilen veride erisim noktasinin (3) yapilandirmasi, istasyonlar (2) ve onlarin yaratmis oldugu trafikler ile ilgili bilgiler de bulunmaktadir. Dijital ikiz ag katmani (7) içerisinde bulunan güney arayüzü (8) kendisine gelen veriye göre dijital ikiz toplusunda (9) bulunan dijital ikizleri (10) günceller, yenilerini yaratir ve agdan kopmus olan istasyonlarin (2) baglantisini koparir. Bu islemden sonra dijital ikiz ag katmani (7) topolojisini, yani Gtlyi, beyin katmanina (12) kuzey arayüzü (11) araciligiyla iletir. Aga yeni bir istasyon (2) girmis oldugu giris denetimi modülü (13) tarafindan tespit edilirse beyin katmaninda (12) optimal bir ayar arama süreci baslar. Beyin katmaninin (12) topoloji çikarma modülü (14), topolojiyi üzerinde pekistirmeli ögrenme ajanini (18) islenebilecek sekilde sinyal ve girisim tipli graf kenarlarina ayirarak çikarir. Q-Ögrenme bazli iletim gücü kontrol ajaninin (15) içinde bulunan ag durumu olusturma mödülü (16) dijital ikiz ag katmani (7) tarafindan gelen Gt ve (p ile sistem durumu olusturur. Sistem durumunu olustururken istasyonlar (2) (p degerine göre performans sinifina ayrilmaktadir. Pekistirmeli ögrenme ajani (18), eylem kümesi A içerisindeki 9 degeri 0-30 dBm arasinda olan bir deger belirler. Uygulanan her eylemden sonra sistem durumlari arasinda farka bakilarak ödül hesaplamasi ödül fonksiyon mödülü (17) tarafindan yapilir. Eylemler uygulanirken agin topolojisinin degismedigi varsayilmaktadir. Bu nedenle istasyonlarin performans siniflarindaki degisiklik girisim degeri ile alakali oldugu mantigi ile karar yürütülmektedir. Hesaplanan ödül, agin durumuna göre önceden belirlenmis ödül faktörü Ã ile çarpilarak agda istenen denge saglanmaktadir. Q tablosu hesaplanan ödül rt, ögrenme orani 0( ve indirim faktörü y barindiran formül kullanilarak güncellenir. Pekistirmeli ögrenme algoritmalari iki kavram arasindan seçim yaparak çalismaktadir. Kesif kavraminda rastgele aksiyon seçilir. Sömürü kavraminda tabloda en az girisim vaat eden aksiyon seçilir. Aksiyonun kesif veya sömürü kavramlarindan hangisini kullanacagi açgözlülük orani e göre rastgele seçilir. Seçilmis aksiyon dijital ikiz ag katmanina (7) kuzey arayüzü (11) araciligiyla uygulanir. Dijital ikiz ag katmani (7), güney arayüzünün (8) geri bildirim akisi ile aksiyonu fiziksel aga (1) iletir. Eger aksiyon hiçbir sey yapmamaksa optimal çözüme ulasilmistir ve islem sonlandirilir. Eger degilse optimal çözüm bulunana kadar giris denetimi modülü (13) sistem döngüsünü devam Bulusa konu olan sistem ile gerçeklestirilen islem adimlari sunlardir; 0 Erisim noktasi (3) üzerinde konuslandirilan ajan uygulamanin (4), topladigi istasyonlarla (2) ilgili veriyi bulutta (5) kontrolörün (6) içinde olan dijital ikiz ag katmanina (7) önceden belirlenen eslestirme sikligi ile göndermesi (1001), 0 Kuzey arayüzünün (11) veriyi almasi ve dijital ikizler toplusunda (9) bulunan dijital ikizleri (10) güncellemesi (1002), 0 Dijital ikiz ag katmaninin (7) güncel durumunu beyin katmanina (12) iletmesi (1003), o Aga yeni bir istasyon (2) girmis oldugu tespit edilmesi halinde beyin katmaninda (12) optimal bir ayar arama sürecinin baslamasi (1004), 0 Beyin katmaninin (7) topolojiyi islemeye izin verecek sekilde çikarmasi (1005), o Q-Ögrenme bazli iletim gücü kontrol ajaninin (15), dijital ikiz ag katmani (7) tarafindan gelen veri ile sistem durumunu ag durumu olusturma modülü (16) sayesinde olusturmasi (1006) o Uygulanan her eylemden sonra ödül hesaplamasinin ödül fonksiyon modülü (17) tarafindan yapilmasi (1007), o Pekistirmeli ögrenme ajani (18) içerisinde bulunan Q tablosunun, hesaplanan ödüI iIe güncellenmesi (1008), o Pekistirmeli ögrenme ajaninin (18), açgözIüIük oranina göre kesif veya sömürü kavramini kullanmasi (1009), o Kesif kavraminda rastgele aksiyon seçilmesi (1010), o Sömürü kavraminda tabloda en az girisim vaat eden aksiyonun seçilmesi (1011), o Seçilmis aksiyonun dijital ikiz ag katmanina (7) kuzey arayüzü (11) tarafindan uygulanmasi (1012), 0 Dijital ikiz ag katmaninin (7) geri bildirim akisini güney arayüzü (8) ile aksiyonu fiziksel katmana iletmesi (1013), o Aksiyonun "hiçbir sey yapmamak" olmasi halinde optimal çözüme ulasildiginin anlasilmasi ve islemin sonlandirilmasi (1014). Problem Formülasyonu Bulusta WiFi agi, yönsüz agirlikli bir graf G=(V,E,w) olarak tanimlanmaktadir. Buradaki V köse kümesidir. Bu kümedeki VC istasyonlar, VAP ise erisim noktalaridir (3). Grafdaki E, bir erisim noktasindan (3) istasyona ulasan sinyaIe karsilik gelen bir kenar dizisidir. Bu dizide VC ve VAP arasinda olusan kenarlar sinyal (Es) ve girisim (Ei) olarak iki gruba ayrilmaktadir. Sinyal tipi kenar, VAP Vc'ye hizmet ediyor ise qusur, diger yandan bu iki nokta arasinda girisim var ise girisim tipi kenar olusur. Son olarak, w agirlik fonksiyonudur ve agirliklari bahsi geçen sinyallerin gücüdür. Kablosuz iletisimin kalitesi, bir sinyal-girisim-arti-gürültü orani (SINR) ile ölçülür. Bu nedenle, SINR'nin kullanicilarin hizmet kalitesini ve dolayisiyla performansi temsil edebilecegini varsayilmaktadir. Fakat bu bulusta istasyon tarafinda ölçüm yapmak yerine G grafini kullanarak bir sinyal-girisim göstergesi tanimlanmaktadir. Ve istasyon köseleri için hesaplanir. Bir istasyon tepe noktasi VC, APi E VAP olan m farkli erisim noktasi (3) ile kenar olusturur. Bu kenarlardan biri sinyal tipinde olmalidir ve formülde APm olarak belirtilmistir. (I) = wm - 10 log10 Z 10Wi/10 Desibel cinsinden olan w degeri e : (AP i , client) kenarinin agirligini belirtir. Bu yüzden orani almak için tüm girisim sinyal tipi kenarin agirligindan çikilir. Toplam girisime geldigimizde ise, agirliklarin cinsi dBm üzerinden mW cinsine dönüstürüldükten sonra toplanir. Sonra toplam deger geri dBm cinsine çevrilir. Eger girisim tipli kenar yoksa, girisim termal ses gücü, yani - 100dBm, olarak hesaplanir. Gereksinim Siniflari Degisken (p degerleri kösenin performansi anlamimizi saglar. Istemcinin trafik özelliklerine göre degisir. Bu yüzden ne kadar düsük bir degerin gerektiginden çok düsük oldugunu belirlemek gerekir. Bu sebepten tabloda gözüken gereksinim siniflari olusturulmustur. Dijital ikiz ag katmaninda (7) yapilan analiz sayesinde istasyonlar (2) bu gereksinim siniflarina ayrilmaktadir. Gereksinim Sinifi Aralik B 35dB (I) 25dB Performans düsüsünün seviyesi genel olarak erisim noktalarinin (3) iletisim gücünün istasyonlar üzerindeki girisimden kaynaklanir. Erisim noktalarinin (3) iletisim gücünü eAPi olarak belirtilmektedir. Tüm erisim noktalarinin (3) konfigürasyonlari asagidaki sekilde belirtilmektedir. Buradaki m degeri agdaki erisim noktasi (3) sayisidir. Maksat yeterli seviyede (p degeri olan istasyonlu optimal (9 (t) vektörünü bulmaktir. Beyin Katmani 112) Bu katmanda, girisimi önlemek için erisim noktalarinin (3) iletim gücü ayarlamasi yapilmaktadir. Asagidaki tüm kisimlar beyin katmaninin (12) içinde yer almaktadir. Giris Denetimi Modülü (13) Ne zaman aga yeni bir istasyon (2) girse, beyin katmaninda (12) ikizleme frekansina bagli bir gecikme iIe aIgiIanir. Tespitten sonra, optimal bir konfigurasyon arama süreci baslar. Bu süreçte Gt, si'ye dönüstürülür ve pekistirmeli ögrenme aracina verilir. Daha sonra, araci daha sonra uygulanacak bir eyleme karar verir. Bu islem, karar verilen eylem hiçbir sey yapmamak olana kadar tekrarlanir. Topoloii Çikarma Modülü (14) AIgiIanan teIemetriIeri e degerleri ile birlikte kullanip kenarIar olusturulur. Örnegin, istasyon Cj E ve hakkinda APi tarafindan bilgi toplanmistir. Gelen biIgideki güç (P) sütunu PAPi-›Cj olarak uyarlanmistir. Böylece, PApiâcjdegeri olan e : (APiçcj) kenari grafa eger girisim tipli oldugunda PAPI<_CjbeIIi bir seviyeden daha yüksekse konur. Q-Ögrenme bazli Iletim Gücü Kontrol Aiani (15) Ag Durumu Olusturma Modülü (16) Gt ve (p kuIIaniIarak ag durumu olusturulmaktadir. Siniflardaki istasyonIar Ci'k seklinde ifade edilmektedir. Buradaki k performans sinifidir. Sonrasinda kaç tane APi bagli istasyonun APj tarafindan girisime maruz kaldigini tespit edilmektedir. Bu ise Il!j olarak ifade edilmektedir. Performans SiniHari Limitler 1 (I) 40dB 2 4'0dB (l) (l)thresh 3 (l) < (l)thresh at : [APii 9] Ödül Fonksiyon Modülü (17) durumlarin arasindaki fark kullanilmaktadir. Ödül hesaplamasi Cd ve Id matrisleri ve ödül faktörü kullanilarak yapilmaktadir. Ödül faktörü, performans siniflarindaki degisimin arzu edilirliginin haritalandirilmasidir. Ödül asagidaki sekilde ifade edilmektedir. Bu ifadede U birIer matrisidir, Uc matrisinin boyutu 3x1, Ui matrisi ise Mx1 boyutundadir. Agin durumu hesaplama yapildigi süreçte degismediginden tüm Cd degerlerinin toplami her zaman 0 olacaktir. Hedef yeteri bir (p degeri elde etmek oldugundan 3. performans sinifindaki istasyon (2) sayisini azaltmak 1. sinifi artirmaktan daha önemlidir. Bu sebepten dolayi ödül faktörü 11 = [Âl,Âz,/13]Tasagidaki sekilde seçilmelidir. /13 |/13 Performans sinifi 2 durumunda ödül faktörü ödülün tekrar edilmemesi adina 0 olarak alinmistir. Pekistirmeli ögrenme Aiani (18) Q tablosu asagidaki formattadir. Q: 5 x A -› R Asagidaki güncelleme formülü bir sonraki durum geldikten sonra isIeve girer. Q(Sti at) 2 Q(Sti at) + O( [Ft + Y msx Q(St+1i a) _ Q(5ti 30] oi ögrenme orani ve y ise indirim oranini belirtmektedir. TR TR DESCRIPTION Digital twin-based interference mitigation system and method in local autonomous networks with dense access points Technical Field Invention; In order to reduce the interference problem that occurs in wireless networks and the negative impact of this problem on performance, which increases with dense access point positioning, instead of adjusting the broadcast power of the access points with myopic solutions, by using reinforcement learning, a comprehensive search process is used to select the probability that gives the solution that reduces the effect of the most interference. It is about the system and method that reduces the interference created by the points on the devices. Known State of the Technique: TPC (Transmit Power Control), one of the CSR (Coordinated Spatial Reuse) methods in scenarios with Multiple Access Points, has been covered in the literature both within the scope of the WiFi standard and in other solutions. The solutions implemented within the scope of the standard are rule-based, and in order to achieve this control, data collected from the physical layer is collected via wireless media and may cause additional load in this area. The transmission powers of the access points used in the standard and found in other solutions are calculated on the access points with a rule-based approach. These solutions struggle with scarce resources at access points such as processor and memory. Although such algorithms can perform well under predefined conditions, they may not be able to adapt to dynamic wireless networks. Another solution is a central controller that adjusts the transmission power and channel selection of access points based on the O Learning algorithm. The state of the network is defined using two-dimensional locations collected from devices. However, this data collection process requires additional communication over the wireless medium, which may cause an overhead. Additionally, calculation from positions alone may not properly represent the enterprise. While the proposed solution produced the desired results, using an offline learning strategy may have resulted in lower interference. Access point and controller-based solutions presented in the literature do not have the infrastructure suitable for applying artificial intelligence learning and do not fully embrace real-time monitoring, bi-directional data and control flows. Some of the available academic resources are; Zhong Z, Kulkarni P, Cao F, Fan Z, Armor S. Issues and challenges in dense WiFi networks. In: 2015 International Wireless Communications and Mobile Computing Fahim M, Sharma V, Cao T-V, Canberk B, Duong TQ. Machine Learning-Based Digital Do-Duy T, Van Huynh D, Dobre OA, Canberk B, Duong TQ. Digital Twin-Aided Intelligent Offloading with Edge Selection in Mobile Edge Computing. IEEE Wireless Khorov E, Kiryanov A, Lyakhov A, Bianchi G. A Tutorial on IEEE 802.11ax High Deng C, Fang X, Han X, Wang X, Yan L, He R, et al. IEEE 802.11be Wi-Fi 7: New Challenges and Opportunities. IEEE Communications Surveys & Tutorials [Internet]. Aio K. Coordinated Spatial Reuse Performance Analysis [Internet]. 2019. Available from: performance-analysis.pptx Wang JJ-M, Ku C-T, Bajko G, Anwyl GA, Feng S, Liu J, et al. MULTI-ACCESS POINT COORDINATED SPATIAL REUSE PROTOCOL AND ALGORITHM [Internet]. European Ak E., Canberk B. FSC: Two-Scale AI-Driven Fair Sensitivity Control for 802.11ax Networks. In: GLOBECOM 2020 - 2020 IEEE Global Communications Conference He C, Hu Y, Chen Y, Fan X, Li H, Zeng B. MUcast: Linear Uncoded Multiuser Video Streaming With Channel Assignment and Power Allocation Optimization. IEEE Zhang Y, Jiang C, Han Z, Yu S, Yuan J. Interference-Aware Coordinated Power Zhao G, Li Y, Xu C, Han Z, Xing Y, Yu S. Joint Power Control and Channel Allocation for Jones W, Eddie Wilson R, Doufexi A, Sooriyabandara M. A Pragmatic Approach to Clear Channel Assessment Threshold Adaptation and Transmission Power Control for Performance Gain in CSMA/CA WLANs. IEEE Transactions on Mobile Computing Zhou C, Yang H, Duan X, Lopez D, Pastor A, Wu Q, et al. Digital Twin Network: Concepts and Reference Architecture [Internet]. IETF Datatracker. 2022 [cited 2022 Apr 24]. Available from: https://datatracker.ietf.org/doc/draft-irtf-nmrg-network-digital-twin- Wu Y, Zhang K, Zhang Y. Digital Twin Networks: A Survey. IEEE Internet of Things Barricelli BR, Casiraghi E, Fogli D. A Survey on Digital Twin: Definitions, Characteristics, Microsoft. DTDL models - Azure Digital Twins [Internet]. Microsoft Docs. 2022 [cited 2022 Apr 24]. Available from: https://docs.microsoft.com/en-us/azure/digital-twins/concepts- models ns-3 | a discrete-event network simulator for internet systems [Internet]. [cited 2022 May 6]. Available from: https://www.nsnam.org/ As a result, due to the negativities explained above and the inadequacy of existing solutions on the subject, it has become necessary to make a development in the relevant technical field. Purpose of the Invention: The invention aims to introduce a structure with different technical features that brings a new initiative in this field, unlike the structures used in the current technique. The primary purpose of the invention is; In order to reduce the interference problem that occurs in wireless networks and the negative impact of this problem on performance, which increases with dense access point positioning, the system that reduces the interference created by access points on devices by selecting the possibility that provides the solution that reduces the effect of the most interference by using reinforcement learning, by performing a comprehensive search process, and method is to reveal. The system and method subject to the invention obtain data regarding the interference by recording the packets detected by the access points, without creating additional communication load on the wireless environment, thanks to the agent program deployed at each access point in the physical layer of the proposed architecture. In the invention, a Digital Twin WiFi Network called Digital Twin WiFi Network (DTWN) is used, which provides real-time monitoring and management capabilities. In this invention, the coupling frequency with the Physical Layer is also examined. Additionally, this Digital Twin Network Layer transfers data to the Brain Layer so that it can perform calculations. Thanks to the brain layer in the cloud, Q-learning-based transmission power control, which can continuously learn by interacting with the digital network, ensures compliance with the dynamism of the physical network. By performing the calculation in the cloud instead of access points, the resource problem is also avoided. In order to fulfill the purposes described above, the invention was designed to reduce the interference problem occurring in wireless networks and the negative impact on performance due to dense access point positioning. By using reinforcement learning and performing a comprehensive search process, the possibility that provides the solution that reduces the effect of the most interference is selected and the access points created on the devices. It is a system that reduces interference and its feature is; o The physical network through which users communicate, o The station consisting of fixed or portable devices that have the ability to use certain protocols, 0 The access point, which consists of a network hardware device that enables the connection of other Wi-Fi devices to a wired network, 0 The access point records the packets detected by the access point and communicates with the controller agent application that provides communication, o Cloud consisting of a flexible online computing resource that is shared among users and can be scaled at any time, o Controller that performs all procedures and modules in the system, o Digital twin network layer that creates an interference-based representation of the physical network layer, o Digital twin with the physical network layer 0 Southern interface that provides communication between the digital twin layer, 0 Digital twin group containing digital twins, o Digital twin that creates a realistic virtual representation of the physical entity, 0 Northern interface that provides communication between the digital twin layer and the brain layer, 0 Low cost and less service impact on real networks o The brain layer where applications that can effectively run on a digital twin network platform to implement traditional or innovative network operations and make requests that must be handled by the digital twin network are deployed, o Access control that decides whether procedures need to be repeated, o Infers meaning from objects and infers the network topology topology extraction module, o Q-Learning based transmission power control, which tries to find the adjustment that reduces the interference. o Network state creation module, which creates the network state by using the requirement table, performance table and topology. 0 Reward function module, which creates rewards by looking at the difference between the network states. It contains a reinforcement learning agent that updates the Q Table and determines action according to the greed rate. The structural and characteristic features and all the advantages of the invention will be more clearly understood thanks to the figures given below and the detailed explanation written by making references to these figures, and therefore the evaluation should be made taking these figures and detailed explanation into consideration. Figures to Help Understand the Invention Figure 1 is a representation of the physical layer. Figure 2 is a representation of the digital twin network layer. Figure 3 is a representation of the brain layer. Figure 4 is a schematic representation of the method that is the subject of the invention. Figure 5 is a general representation of the system that is the subject of the invention. Drawings do not necessarily have to be scaled, and details that are not necessary to understand the present invention may be omitted. Furthermore, elements that are at least substantially identical or have at least substantially identical functions are designated by the same number. Description of Part References 1. Physical Network 2. Station 3. Access Point 4. Agent application. Cloud 6. Controller 7. Digital Twin Network Layer 8. South Interface 9. Digital Twin Aggregate. Digital Twin 11. North Interface 12. Brain Layer 13. Access Control Module 14. Topology Extraction Module. Q-Learning based Transmission Power Control Agent 17. Reward Function Module D. Digital twin data BA. Information flow GD. Return Detailed Description of the Invention In this detailed description, the preferred embodiments of the invention are explained only for a better understanding of the subject and in a way that does not create any limiting effect. Meet; In order to reduce the interference problem that occurs in wireless networks and the negative impact of this problem on performance, which increases with dense access point positioning, the system that reduces the interference created by access points on devices by selecting the possibility that provides the solution that reduces the effect of the most interference by using reinforcement learning, by performing a comprehensive search process, and It's about the method. The functions of the elements used in the system that is the subject of the invention are as follows; Physical network (1) is the physical network through which users communicate. Stations (2) are fixed or portable devices capable of using the 802.11 protocol. The access point (3) is a network hardware device that enables the connection of other Wi-Fi devices to a wired network. Agent application (4) is the application that records the packets detected by the access point (3) and ensures communication with the controller (6). Cloud (5) is a flexible online computing resource that is shared among users and can be scaled at any time. The controller (6) is the structure that carries out all procedures and modules in the system that is the subject of the invention. The digital twin network layer (7) is the interference-based representation of the physical network layer (1). The south interface (8) is the interface that provides communication between the physical network (1) layer and the digital twin layer (7). Digital twin group (9) is the unit where digital twins (10) are located. The digital twin (10) is a realistic virtual representation of the physical entity. The north interface (11) is the interface that provides communication between the digital twin (10) layer and the brain layer (12). The brain layer (12) is the layer where applications that can effectively run on a digital twin network platform to implement traditional or innovative network operations with low cost and less service impact on real networks and make requests that must be handled by the digital twin network are deployed. The access control module (13) is the module that decides whether the procedures need to be repeated. Topology extraction module (14) is the module that extracts meaning from objects and extracts the network topology. The Q-Learning based transmit power control agent (15) is the agent that tries to find the adjustment that reduces the interference. The network state creation module (16) is the module that creates the network state using the requirement table, performance table and topology. The reward function module (17) is the module that creates rewards by looking at the difference between network states. Reinforcement learning agent (18) is a reinforcement learning agent that updates the O Table and determines action according to the greed rate. The working principle of the system that is the subject of the invention is as follows. Agent applications (4) deployed on the access point (3) located in the physical network (1) record the packets detected by the access point (3) from stations (2) connected to it and not, and send them to the cloud along with the detected power value (dBm) and time stamp. (5) sends the predetermined matching frequency f to the digital twin network layer (7) inside the controller (6). The sent data also includes information about the configuration of the access point (3), the stations (2) and the traffic they create. The southern interface (8) located within the digital twin network layer (7) updates the digital twins (10) in the digital twin mass (9) according to the data received, creates new ones and disconnects the stations (2) that have been disconnected from the network. After this process, the digital twin network layer (7) transmits its topology, that is, Gtly, to the brain layer (12) through the northern interface (11). If the access control module (13) detects that a new station (2) has entered the network, the search process for an optimal setting begins in the brain layer (12). The topology extraction module (14) of the brain layer (12) extracts the topology by separating it into signal and interference type graph edges in a way that can be processed by the reinforcement learning agent (18). The network state creation module (16) located in the Q-Learning based transmission power control agent (15) creates the system state with Gt and (p) coming from the digital twin network layer (7). While creating the system state, the stations (2) (performance according to the p value The reinforcement learning agent (18) determines a value between 0-30 dBm for 9 values in action set A. After each action applied, the reward calculation is made by the reward function module (17) by looking at the difference between the system states. While the actions are applied, the topology of the network is determined. It is assumed that it does not change. Therefore, the decision is made with the logic that the change in the performance classes of the stations is related to the initiative value. The desired balance in the network is achieved by multiplying the calculated reward with the reward factor Ã, which is predetermined according to the state of the network. The Q table includes the calculated reward rt, the learning rate 0( and the discount factor It is updated using the formula containing y.Reinforcement learning algorithms work by choosing between two concepts. In the concept of discovery, a random action is selected. In the concept of exploitation, the action that promises the least interference in the table is selected. Which of the action's exploration or exploitation concepts will be used is chosen randomly according to the greed rate. The selected action is applied to the digital twin network layer (7) via the north interface (11). The digital twin network layer (7) transmits the action to the physical network (1) with the feedback flow of the south interface (8). If the action is to do nothing, the optimal solution has been reached and the process is terminated. If not, the access control module (13) continues the system cycle until the optimal solution is found. The processing steps performed with the system that is the subject of the invention are as follows; 0 The agent application (4) deployed on the access point (3) sends the data about the stations (2) it collects to the digital twin network layer (7) in the controller (6) in the cloud (5) with a predetermined matching frequency (1001), 0 North interface (11) receives the data and updates (1002) the digital twins (10) in the digital twins group (9), 0 Transmits the current status of the digital twin network layer (7) to the brain layer (12) (1003), o Adds a new station to the network ( 2) If it is detected that it has entered, the process of searching for an optimal setting begins in the brain layer (12) (1004), 0 The brain layer (7) removes the topology in a way that allows processing (1005), o Q-Learning based transmission power control agent (15). , creating the system state with the data coming from the digital twin network layer (7) thanks to the network state creation module (16) (1006) o After each action applied, the reward calculation is made by the reward function module (17) (1007), o Reinforcement learning agent ( 18) Updating the Q table with the calculated reward (1008), o Reinforcement learning agent (18) using the concept of exploration or exploitation according to the greed rate (1009), o Selecting a random action in the concept of exploration (1010), o Using the concept of exploitation in the table in the concept of exploitation selection of the action that promises less interference (1011), o application of the selected action to the digital twin network layer (7) by the north interface (11) (1012), 0 physical action of the action with the south interface (8) of the feedback flow of the digital twin network layer (7). If the action is "do nothing", it is understood that the optimal solution has been reached and the process is terminated (1014). Problem Formulation In the invention, the WiFi network is defined as an undirected weighted graph G=(V,E,w). Here V is the vertex set. In this cluster, VC are the stations and VAP are the access points (3). E in the graph is a sequence of edges corresponding to the signal reaching the station from an access point (3). In this sequence, the edges formed between VC and VAP are divided into two groups as signal (Es) and interference (Ei). If the signal type edge serves VAP Vc, it is faulty, on the other hand, if there is interference between these two points, an interference type edge occurs. Finally, w is the weight function and its weights are the strength of the signals in question. The quality of wireless communication is measured by a signal-to-interference-plus-noise ratio (SINR). Therefore, it is assumed that SINR can represent users' service quality and therefore performance. However, in this invention, instead of measuring at the station, a signal-interference indicator is defined using G graph. And it is calculated for station corners. A station forms an edge with m different access points (3) whose vertex is VC, APi E VAP. One of these edges must be of signal type and is specified as APm in the formula. (I) = wm - 10 log10 Z 10Wi/10 The w value in decibels indicates the weight of the edge e: (AP i , client). So all the interference signal type is extracted from the weight of the edge to get the ratio. When it comes to total interference, the type of weights are added after converting from dBm to mW. The total value is then converted back into dBm. If there is no interference type edge, the interference is calculated as thermal sound power, i.e. - 100dBm. Requirement Classes Variable (p values provide an understanding of the performance of the corner. It varies according to the traffic characteristics of the client. Therefore, it is necessary to determine how low a value is too low. For this reason, the requirement classes shown in the table have been created. Thanks to the analysis made in the digital twin network layer (7), stations (2) These requirements are divided into classes. Requirement Class Range B 35dB (I) 25dB The level of performance degradation is generally caused by the interference of the communication power of the access points (3) on the stations. The communication power of the access points (3) is specified as eAPi. All access points (3) ) configurations are stated as follows. Here, m value is the number of access points (3) in the network. The aim is to find the optimal (9 (t) vector with stations with a sufficient level (p value). Brain Layer 112) In this layer, the transmission of access points (3) to prevent interference. power adjustment is made.All the following parts are located within the brain layer (12). Access Control Module (13) Whenever a new station (2) enters the network, a delay depending on the mirroring frequency is detected in the brain layer (12). After detection, the search for an optimal configuration begins. In this process, Gt is converted to si and given to the reinforcement learning tool. The agent then decides on an action to be taken later. This process is repeated until the decided action is to do nothing. Topology Extraction Module (14) Edges are created by using the detected telemetries together with their values. For example, information about station Cj E and was collected by APi. The power (P) column in the incoming information is adapted as PAPi-›Cj. Thus, the edge e : (APiçcj) with value PApiâcj is placed on the graph if it is higher than a level PAPI<_CjbeIIi when it is of interference type. Q-Learning based Transmission Power Control Area (15) Network Status Creation Module (16) Network status is created using Gt and (p). The stations in the classes are expressed as C'k. Here k is the performance class. Then, how many APi connected stations will receive interference from the APj side. It is determined that it is exposed to it. This is expressed as Il! Module (17) is used for the difference between the states. The reward calculation is made using the Cd and Id matrices and the reward factor. The reward factor is the mapping of the desirability of the change in performance classes. The reward is expressed as follows. In this expression, U is the matrix of ones, the size of the matrix Uc is 3x1, the matrix Ui is Mx1 in size. Since the state of the network does not change during the calculation process, the sum of all Cd values will always be 0. Since the goal is to obtain a sufficient p value, reducing the number of stations (2) in the 3rd performance class is more important than increasing the 1st class. For this reason, the reward factor 11 = [Âl,Âz,/13] should be chosen as follows. /13 |/13 In case of performance class 2, the reward factor is taken as 0 to avoid repetition of the reward. Reinforcement learning Aiani (18) Q table is in the following format. Q: 5 x A -› R The following update formula comes into play after the next state arrives. Q(Sti at) 2 Q(Sti at) + O( [Ft + Y msx Q(St+1i a) _ Q(5ti 30] oi is the learning rate and y is the discount rate.TR TR