KR20220013906A - 심층 학습 기반의 빔포밍 방법 및 이를 위한 장치 - Google Patents

심층 학습 기반의 빔포밍 방법 및 이를 위한 장치 Download PDF

Info

Publication number
KR20220013906A
KR20220013906A KR1020210091256A KR20210091256A KR20220013906A KR 20220013906 A KR20220013906 A KR 20220013906A KR 1020210091256 A KR1020210091256 A KR 1020210091256A KR 20210091256 A KR20210091256 A KR 20210091256A KR 20220013906 A KR20220013906 A KR 20220013906A
Authority
KR
South Korea
Prior art keywords
beamforming
neural network
deep neural
learning
nodes
Prior art date
Application number
KR1020210091256A
Other languages
English (en)
Other versions
KR102510513B1 (ko
Inventor
홍승은
이훈
박석환
김준범
Original Assignee
한국전자통신연구원
부경대학교 산학협력단
전북대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원, 부경대학교 산학협력단, 전북대학교산학협력단 filed Critical 한국전자통신연구원
Priority to US17/380,826 priority Critical patent/US11742901B2/en
Publication of KR20220013906A publication Critical patent/KR20220013906A/ko
Application granted granted Critical
Publication of KR102510513B1 publication Critical patent/KR102510513B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/06Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station
    • H04B7/0613Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission
    • H04B7/0615Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal
    • H04B7/0617Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal for beam forming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B17/00Monitoring; Testing
    • H04B17/30Monitoring; Testing of propagation channels
    • H04B17/309Measuring or estimating channel quality parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/0413MIMO systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/06Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station
    • H04B7/0613Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission
    • H04B7/0615Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal
    • H04B7/0619Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal using feedback from receiving side
    • H04B7/0621Feedback content
    • H04B7/0634Antenna weights or vector/matrix coefficients

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

입력 계층,
Figure pat00286
(L은 1이상의 자연수)개의 은닉 계층들, 및 출력 계층으로 구성된 심층 신경망을 이용하는 빔포밍 방법은: 기지국과
Figure pat00287
개(
Figure pat00288
는 1이상의 자연수) 단말들 간의 채널 정보(
Figure pat00289
)와 상기 기지국의 송신 전력 제한 값(
Figure pat00290
)을 획득하여 상기 입력 계층으로 입력하는 단계; 및 상기 출력 계층과 활성화 함수를 이용하여 출력된 빔포밍 벡터들을 이용하여 상기 K개의 단말들에게 전송될 신호들을 빔포밍하는 단계를 포함하고, 상기 기지국은
Figure pat00291
개(
Figure pat00292
은 1이상의 자연수)의 전송 안테나들을 이용하여 상기 K개의 단말들에게 상기 신호들을 전송할 수 있다. 여기에서, 상기 출력 계층은 직접 빔포밍 학습(DBL, direct beamforming learning) 방식, 특징 학습(FL, feature learning) 방식, 또는 단순 특징 학습(SFL, simplified feature learning) 방식으로 구성될 수 있다.

Description

심층 학습 기반의 빔포밍 방법 및 이를 위한 장치{Deep learning based beamforming method and apparatus for the same}
본 발명은 다수의 안테나가 장착된 기지국의 빔포밍 방법 및 이를 위한 장치에 관한 것으로, 더욱 상세하게는 빔포밍을 통해 복수의 단말들에게 동시에 서비스를 제공하는 무선 시스템에서 빔포밍 벡터 계산을 실시간으로 수행하여 최적의 성능을 제공하는 딥러닝 기반 빔포밍 방법 및 그 장치에 관한 것이다.
무선 트래픽의 지속적인 증가에 대처하기 위해, 다중 안테나를 사용하여 공간 상으로 다수 개의 데이터를 동시에 전송할 수 있는 빔포밍 기술이 도입되었다. 또한, 기지국들의 밀집 배치를 통해 보다 많은 사용자들을 서비스하게 되었다. 이 때 사용자들 간의 간섭도 증가하게 되는데, 따라서 간섭을 제어할 수 있어야만 무선 시스템의 성능도 증가할 수 있다. 간섭을 올바르게 제어하기 위해서는 다수의 송/수신기들 간의 전체 채널 정보를 활용할 수 있어야 한다. 따라서 단일 기지국 시스템에서 사용자들의 채널 정보를 활용할 수 있는 기지국 또는 C-RAN 형태의 중앙제어 장치가 있는 분산 MIMO 시스템에서 분산 기지국/안테나들 및 사용자들 간의 채널 정보를 활용할 수 있는 중앙 제어 장치에서 채널 정보에 기반하여 사용자들 간의 간섭을 조정하는 빔포밍 벡터를 계산하고, 빔포밍 벡터 기반으로 데이터를 동시에 사용자들에게 전송함으로써 합계 전송율과 같은 성능을 최대화할 수 있다.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 심층 신경망을 이용하는 빔포밍 방법을 제공하는데 있다.
상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은, 심층 신경망을 이용하는 빔포밍 제어 장치를 제공하는데 있다.
상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은, 심층 신경망을 이용하여 빔포밍을 수행하는 클라우드 무선 액세스 네트워크(C-RAN, cloud radio access network) 시스템을 제공하는데 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예는 심층 신경망을 이용하는 빔포밍 방법을 제공하며, 상기 심층 신경망은 입력 계층,
Figure pat00001
(L은 1이상의 자연수)개의 은닉 계층들, 및 출력 계층으로 구성될 수 있다. 상기 빔포밍 방법은: 기지국과
Figure pat00002
개(
Figure pat00003
는 1이상의 자연수) 단말들 간의 채널 정보(
Figure pat00004
)와 상기 기지국의 송신 전력 제한 값(
Figure pat00005
)을 획득하여 상기 입력 계층으로 입력하는 단계; 및 상기 출력 계층과 활성화 함수를 이용하여 출력된 빔포밍 벡터들을 이용하여 상기 K개의 단말들에게 전송될 신호들을 빔포밍하는 단계를 포함하고, 상기 기지국은
Figure pat00006
개(
Figure pat00007
은 1이상의 자연수)의 전송 안테나들을 이용하여 상기 K개의 단말들에게 상기 신호들을 전송할 수 있다.
상기 출력 계층은
Figure pat00008
개의 노드들을 포함하고, 상기
Figure pat00009
개의 노드들은 각각
Figure pat00010
개의 노드들로 구성된
Figure pat00011
개의 노드 그룹들을 그룹핑되며, 각 노드 그룹은 각 단말에 대한 빔포밍 벡터를 출력하는 직접 빔포밍 학습(DBL, direct beamforming learning) 방식으로 구성될 수 있다.
상기 활성화 함수는 상기 송신 전력 제한 값(
Figure pat00012
)을 만족시키기 위해 상기 각 단말에 대한 빔포밍 벡터를 제한하는 함수일 수 있다.
상기 출력 계층은
Figure pat00013
개의 노드들을 포함하고,
Figure pat00014
개의 노드들은 각각
Figure pat00015
개의 노드들로 구성된 2개의 노드 그룹들로 그룹핑되며, 각 노드 그룹은 최적 빔포밍 해에 포함되는 K개의 예측 변수를 출력하는 특징 학습(FL, feature learning) 방식으로 구성될 수 있다.
상기 활성화 함수는 상기 2개의 노드 그룹들로부터 출력된
Figure pat00016
개의 예측 변수들을 입력으로 수신하는 상기 송신 전력 제한 값(
Figure pat00017
)을 만족시키기 위한 scaled softmax 함수들을 포함하며, 상기 scaled soft max 함수들 중 제1 scaled soft max 함수의 출력과 빔 방향 변환(beam direction recovery)를 거친 제2 scaled soft max 함수의 출력이 결합되어 각 단말에 대한 빔포밍 벡터가 출력될 수 있다.
상기 출력 계층은
Figure pat00018
개의 노드들을 포함하고, 상기
Figure pat00019
개의 노드들은 업링크-다운링크 빔포밍 쌍대성(duality) 및 대각 성분 우월성(diagonal dominance)에 따른 근사화에 기반하여 최적 빔포밍 해에 포함되는
Figure pat00020
개의 예측 변수들을 출력하는 단순 특징 학습(SFL, simplified feature learning) 방식으로 구성될 수 있다.
상기 활성화 함수는 상기
Figure pat00021
개의 노드들로부터 출력된
Figure pat00022
개의 예측 변수들을 입력으로 수신하는 상기 송신 전력 제한 값(
Figure pat00023
)을 만족시키기 위한 scaled softmax 함수들을 포함하며, 상기 scaled soft max 함수들 중 제1 scaled soft max 함수의 출력과 빔 방향 변환(beam direction recovery)를 거친 제2 scaled soft max 함수의 출력이 결합되어 각 단말에 대한 빔포밍 벡터가 출력될 수 있다.
상기 빔포밍 방법은 상기 심층 신경망에 대한 비지도(unsupervised) 학습을 수행하는 단계를 추가로 포함하고, 상기 심층 신경망에 대한 비지도 학습을 수행하는 단계는: 상기 채널 정보(
Figure pat00024
)와 상기 송신 전력 제한 값(
Figure pat00025
)을 상기 입력 계층으로 입력하는 단계; 및 상기 심층 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값에 -1을 곱하여 정의되는 손실 함수(loss function)를 최소화하도록 상기 심층 신경망의 파라미터들을 학습시키는 단계를 포함할 수 있다.
상기 빔포밍 방법은 상기 심층 신경망에 대한 지도(supervised) 학습을 수행하는 단계를 추가로 포함하고, 상기 심층 신경망에 대한 지도 학습을 수행하는 단계는: 상기 채널 정보(
Figure pat00026
)와 상기 송신 전력 제한 값(
Figure pat00027
)을 상기 입력 계층으로 입력하는 단계; 및 상기 채널 정보(
Figure pat00028
)와 상기 송신 전력 제한 값(
Figure pat00029
)에 대응하는 최적의 빔포밍 벡터들에 따른 합계 데이터 전송율 계산 값과 상기 심층 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값의 차이로 정의되는 손실 함수를 최소화하도록 상기 심층 신경망의 파라미터들을 학습시키는 단계를 포함할 수 있다.
상기 다른 목적을 달성하기 위한 본 발명의 일 실시예는 심층 신경망을 이용하는 빔포밍 제어 장치를 제공하며, 상기 심층 신경망은 입력 계층,
Figure pat00030
(L은 1이상의 자연수)개의 은닉 계층들, 및 출력 계층으로 구성될 수 있다. 상기 빔포밍 제어 장치는 프로세서; 및 상기 프로세서에 의해서 실행되는 명령어들을 저장하는 메모리를 포함하고, 상기 프로세서에 의해서 실행될 때 상기 명령어들은 상기 프로세서가: 기지국과
Figure pat00031
개(
Figure pat00032
는 1이상의 자연수) 단말들 간의 채널 정보(
Figure pat00033
)와 상기 기지국의 송신 전력 제한 값(
Figure pat00034
)을 획득하여 상기 입력 계층으로 입력하는 단계; 및 상기 출력 계층과 활성화 함수를 이용하여 출력된 빔포밍 벡터들을 이용하여 상기
Figure pat00035
개의 단말들에게 전송될 신호들을 빔포밍하는 단계를 수행하도록 하고, 상기 기지국은
Figure pat00036
개(
Figure pat00037
은 1이상의 자연수)의 전송 안테나들을 이용하여 상기 K개의 단말들에게 상기 신호들을 전송할 수 있다.
상기 출력 계층은
Figure pat00038
개의 노드들을 포함하고, 상기
Figure pat00039
개의 노드들은 각각
Figure pat00040
개의 노드들로 구성된
Figure pat00041
개의 노드 그룹들을 그룹핑되며, 각 노드 그룹은 각 단말에 대한 빔포밍 벡터를 출력하는 직접 빔포밍 학습(DBL, direct beamforming learning) 방식으로 구성될 수 있다.
상기 출력 계층은
Figure pat00042
개의 노드들을 포함하고,
Figure pat00043
개의 노드들은 각각
Figure pat00044
개의 노드들로 구성된 2개의 노드 그룹들로 그룹핑되며, 각 노드 그룹은 최적 빔포밍 해에 포함되는
Figure pat00045
개의 예측 변수를 출력하는 특징 학습(FL, feature learning) 방식으로 구성될 수 있다.
상기 출력 계층은
Figure pat00046
개의 노드들을 포함하고, 상기
Figure pat00047
개의 노드들은 업링크-다운링크 빔포밍 쌍대성(duality) 및 대각 성분 우월성(diagonal dominance)에 따른 근사화에 기반하여 최적 빔포밍 해에 포함되는
Figure pat00048
개의 예측 변수들을 출력하는 단순 특징 학습(SFL, simplified feature learning) 방식으로 구성될 수 있다.
상기 명령어들은 상기 프로세서가 상기 심층 신경망에 대한 비지도(unsupervised) 학습을 수행하는 단계를 추가로 수행하도록 하고, 상기 심층 신경망에 대한 비지도 학습을 수행하는 단계는: 상기 채널 정보(
Figure pat00049
)와 상기 송신 전력 제한 값(
Figure pat00050
)을 상기 입력 계층으로 입력하는 단계; 및 상기 심층 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값에 -1을 곱하여 정의되는 손실 함수(loss function)를 최소화하도록 상기 심층 신경망의 파라미터들을 학습시키는 단계를 포함할 수 있다.
상기 명령어들은 상기 프로세서가 상기 심층 신경망에 대한 지도(supervised) 학습을 수행하는 단계를 추가로 수행하도록 하고, 상기 심층 신경망에 대한 지도 학습을 수행하는 단계는: 상기 채널 정보(
Figure pat00051
)와 상기 송신 전력 제한 값(
Figure pat00052
)을 상기 입력 계층으로 입력하는 단계; 및 상기 채널 정보(
Figure pat00053
)와 상기 송신 전력 제한 값(
Figure pat00054
)에 대응하는 최적의 빔포밍 벡터들에 따른 합계 데이터 전송율 계산 값과 상기 심층 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값의 차이로 정의되는 손실 함수를 최소화하도록 상기 심층 신경망의 파라미터들을 학습시키는 단계를 포함할 수 있다.
상기 또 다른 목적을 달성하기 위한 본 발명의 일 실시예는 CP와 복수의 RRH(remote radio head)들을 포함하는 C-RAN 시스템을 제공하며, 상기 CP는 입력 계층,
Figure pat00055
(L은 1이상의 자연수)개의 은닉 계층들, 및 출력 계층으로 구성된 심층 신경망을 포함하고, 상기 CP는 상기 복수의 RRH들과
Figure pat00056
개(
Figure pat00057
는 1이상의 자연수) 단말들 간의 채널 정보(
Figure pat00058
)와 상기 복수의 RRH들의 송신 전력 제한 값(
Figure pat00059
)들을 획득하여 상기 입력 계층으로 입력하고, 상기 출력 계층과 활성화 함수를 이용하여 출력된 빔포밍 벡터들을 이용하여 상기 K개의 단말들에게 전송될 신호들에 대한 빔포밍 벡터들을 생성하여, 상기 생성된 빔포밍 벡터들을 상기 복수의 RRH들에게 전달하며, 상기 복수의 RRH들은 상기 생성된 빔포밍 벡터들을 이용하여 빔포밍된 신호들을 상기 K개의 단말들에게 전송할 수 있다.
상기 복수의 RRH들이
Figure pat00060
개(
Figure pat00061
은 1이상의 자연수)의 전송 안테나들을 포함한 경우, 상기 출력 계층은
Figure pat00062
개의 노드들을 포함하고, 상기
Figure pat00063
개의 노드들은 각각
Figure pat00064
개의 노드들로 구성된
Figure pat00065
개의 노드 그룹들을 그룹핑되며, 각 노드 그룹은 각 단말에 대한 빔포밍 벡터를 출력하는 직접 빔포밍 학습(DBL, direct beamforming learning) 방식으로 구성될 수 있다.
상기 출력 계층은
Figure pat00066
개의 노드들을 포함하고,
Figure pat00067
개의 노드들은 각각
Figure pat00068
개의 노드들로 구성된 2개의 노드 그룹들로 그룹핑되며, 각 노드 그룹은 최적 빔포밍 해에 포함되는
Figure pat00069
개의 예측 변수를 출력하는 특징 학습(FL, feature learning) 방식으로 구성될 수 있다.
상기 출력 계층은
Figure pat00070
개의 노드들을 포함하고, 상기
Figure pat00071
개의 노드들은 업링크-다운링크 빔포밍 쌍대성(duality) 및 대각 성분 우월성(diagonal dominance)에 따른 근사화에 기반하여 최적 빔포밍 해에 포함되는
Figure pat00072
개의 예측 변수들을 출력하는 단순 특징 학습(SFL, simplified feature learning) 방식으로 구성될 수 있다.
상기 심층 신경망은 상기 심층 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값에 -1을 곱하여 정의되는 손실 함수(loss function)를 최소화하도록 상기 심층 신경망의 파라미터들을 학습시키는 비지도(unsupervised) 학습 방식 또는 상기 채널 정보(
Figure pat00073
)와 상기 송신 전력 제한 값(
Figure pat00074
)들에 대응하는 최적의 빔포밍 벡터들에 따른 합계 데이터 전송율 계산 값과 상기 심층 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값의 차이로 정의되는 손실 함수를 최소화하도록 상기 심층 신경망의 파라미터들을 학습시키는 지도(supervised) 학습 방식으로 학습될 수 있다.
본 발명의 실시예들을 이용하면, massive MIMO 시스템 및 분산 MIMO 시스템을 포함하는 다중 사용자 서비스 무선 시스템에서 학습된 단일 심층 신경망을 이용하여 다수의 사용자들을 동시에 서비스하기 위한 빔포밍 벡터들이 실시간으로 도출될 수 있다. 또한, 도출된 빔포밍 벡터들을 이용하여 서비스가 제공되는 사용자들에 대한 합계 데이터 전송율과 같은 시스템 성능이 최대화될 수 있다. 특히, 채널 정보와 기지국의 송신 전력 제한 값을 입력으로 하여 심층 신경망이 학습되기 때문에, 학습된 단일 심층 신경망은 다양한 송신 전력 제한 조건 하에서도 동작할 수 있다.
도 1은 본 발명에 따른 실시예들이 적용되는 다중 사용자 빔포밍 시스템을 설명하기 위한 개념도이다.
도 2는 본 발명의 실시예들에 따른 빔포밍을 위한 심층 학습 신경망을 도시하고 있다.
도 3 내지 도 5는 본 발명의 실시예들에 따른 빔포밍을 위한 심층 학습 신경망에 적용되는 출력 계층의 다양한 실시예들을 도시하는 개념도들이다.
도 6은 본 발명의 일 실시예에 따른 비지도(unsupervised) 심층 학습 기반의 빔포밍 방법을 설명하기 위한 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 지도(supervised) 심층 학습 기반의 빔포밍 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명의 실시예들이 적용되는 클라우드 무선 액세스 네트워크의 구조를 도시하고 있다.
도 9은 클라우드 무선 액세스 네트워크에 본 발명의 실시예들을 적용하는 구체적인 예를 설명하기 위한 개념도이다.
도 10은 본 발명의 실시예들에 따른 심층 학습 기반 빔포밍 방법이 적용되는 빔포밍 제어 장치를 설명하기 위한 블록 다이어그램이다.
도 11은 본 발명의 실시예들에 따른 심층 학습 신경망이 적용된 경우의 합계 데이터 전송율들과 기존 빔포밍 방식들이 적용된 경우의 합계 데이터 전송율들을 비교하는 그래프이다.
도 12은 본 발명의 실시예들에 따른 심층 학습 신경망의 실행 시간과 기존 빔포밍 방식들의 실행 시간을 비교하는 표이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
아래에서, 본 발명에 따른 실시예들이 적용되는 무선 통신 네트워크(wireless communication network)가 설명될 것이다. 본 발명에 따른 실시예들이 적용되는 무선 통신 네트워크는 아래 설명된 내용에 한정되지 않으며, 본 발명에 따른 실시예들은 다양한 무선 통신 네트워크들에 적용될 수 있다.
명세서 전체에서 망(network)은, 예를 들어, WiFi(wireless fidelity)와 같은 무선인터넷, WiBro(wireless broadband internet) 또는 WiMax(world interoperability for microwave access)와 같은 휴대인터넷, GSM(global system for mobile communication) 또는 CDMA(code division multiple access)와 같은 2G 이동통신망, WCDMA(wideband code division multiple access) 또는 CDMA2000과 같은 3G 이동통신망, HSDPA(high speed downlink packet access) 또는 HSUPA(high speed uplink packet access)와 같은 3.5G 이동통신망, LTE(long term evolution)망 또는 LTE-Advanced망과 같은 4G 이동통신망, 및 5G 이동통신망 등을 포함할 수 있다.
명세서 전체에서 단말(terminal)은 이동국(mobile station), 이동 단말(mobile terminal), 가입자국(subscriber station), 휴대 가입자국(portable subscriber station), 사용자 장치(user equipment), 접근 단말(access terminal) 등을 지칭할 수도 있고, 단말, 이동국, 이동 단말, 가입자국, 휴대 가입자 국, 사용자 장치, 접근 단말 등의 전부 또는 일부의 기능을 포함할 수도 있다.
여기서, 단말로 통신이 가능한 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(laptop computer), 태블릿(tablet) PC, 무선전화기(wireless phone), 모바일폰(mobile phone), 스마트 폰(smart phone), 스마트 워치(smart watch), 스마트 글래스(smart glass), e-book 리더기, PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 디지털 카메라(digital camera), DMB (digital multimedia broadcasting) 재생기, 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 영상 녹화기(digital picture recorder), 디지털 영상 재생기(digital picture player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player) 등을 사용할 수 있다.
명세서 전체에서 기지국(base station)은 접근점(access point), 무선 접근국(radio access station), 노드B(node B), 고도화 노드B(evolved nodeB), 송수신 기지국(base transceiver station), MMR(mobile multihop relay)-BS 등을 지칭할 수도 있고, 기지국, 접근점, 무선 접근국, 노드B, eNodeB, 송수신 기지국, MMR-BS 등의 전부 또는 일부의 기능을 포함할 수도 있다.
본 발명은 종래 기술의 문제점을 해결하기 위하여, 실측 또는 시뮬레이션/에뮬레이션을 통해 획득되거나 수학적 모델에 기반하여 생성된 채널 정보와 시스템 성능에 직접적인 영향을 미치는 빔포밍 벡터로의 관련성을 심층 학습을 통해 심층 신경망을 훈련(training)시키고, 학습된 심층 신경망을 활용하여 무선 시스템의 성능을 개선하는 빔포밍 벡터를 실시간적으로 계산하는 방법 및 장치를 제공하는 데 그 목적이 있다. 특히, 본 발명의 실시예들은 학습해야 하는 심층 학습 파라미터들의 수를 최소화하고, 무선 시스템의 다양한 전력 제약 조건 하에서도 단일 심층 신경망으로 동작할 수 있는 효율적인 빔포밍 방법 및 빔포밍 제어 장치를 제공할 수 있다.
이하에서 상술되는 본 발명의 실시예들은 다중 사용자 빔포밍 시스템의 하향링크 전송에 적용된다. 따라서, 본 발명의 실시예들을 상세히 기술하기 위해 도 1로 대표되는 다중 사용자 빔포밍 시스템을 고려한다.
도 1은 본 발명에 따른 실시예들이 적용되는 다중 사용자 빔포밍 시스템을 설명하기 위한 개념도이다.
도 1을 참조하면,
Figure pat00075
개의 전송 안테나들을 장착한 하나의 기지국이 단일 안테나를 장착한 분산된
Figure pat00076
개의 단말들에게 동시에 서비스를 제공하는 다중 사용자 빔포밍 시스템이 도시되어 있다. 특히, 도 1은 다중 사용자 빔포밍 시스템의 하향링크 전송을 설명하고 있다. 또한, 도 1에서는
Figure pat00077
개의 전송 안테나를 장착한 하나의 기지국이
Figure pat00078
개의 단말들에 서비스를 제공하는 구성을 도시하고 있지만, 본 발명의 실시예들은 분산된 기지국들과 이들의 전송을 제어하는 하나의 중앙 제어 장치가 존재하는 클라우드 무선 액세스 네트워크(C-RAN, cloud radio access network) 형태의 분산 MIMO 시스템에도 적용될 수 있다. 이에 대해서는 도 8 및 도 9를 참조하여 후술된다.
상기 기지국은 기지국과 개별 단말
Figure pat00079
간의 채널 정보
Figure pat00080
를 이용하여 단말
Figure pat00081
를 위한 신호
Figure pat00082
를 빔포밍 벡터
Figure pat00083
로 프리코딩하고,
Figure pat00084
개의 단말들을 위한 프리코딩된(precoded) 신호들이 결합된 빔포밍된(beamformed) 신호
Figure pat00085
Figure pat00086
개의 전송 안테나들을 통해 전송한다. 이 때, 단말
Figure pat00087
가 수신하는 신호
Figure pat00088
는 하기 수학식 1과 같이 표현될 수 있다.
Figure pat00089
여기서
Figure pat00090
는 빔포밍된 신호를 이용하는 동시 전송의 대상이 되는 단말들의 집합을 나타낸다. 또한, 기지국에서 빔포밍되어 전송되는 신호
Figure pat00091
는 하기 수학식 2로 표현되는 송신 전력 제약 조건을 가질 수 있다. 여기서,
Figure pat00092
는 기지국의 송신 전력 제한 값이다.
Figure pat00093
주어진 빔포밍 벡터
Figure pat00094
로 프리코딩되어 전송되는 신호를 수신하는 단말
Figure pat00095
는 하기 수학식 3으로 표현되는 계산되는 데이터 전송율(data rate)을 획득할 수 있다.
Figure pat00096
여기서,
Figure pat00097
는 하기 수학식 4와 같이 표현될 수 있다.
Figure pat00098
수학식 4를 통해서 알 수 있듯이, 빔포밍 벡터에 의해 간섭이 제어됨을 알 수 있고 그 결과로 전송율도 결정될 수 있다. 따라서, 기지국이 서비스하는 단말들의 합계 전송율(sum rate)을 최대화하는 빔포밍 벡터를 도출하는 문제 P1는 하기 수학식 5와 같이 설정될 수 있다.
Figure pat00099
상기의 빔포밍 벡터 계산은 non-convex 최적화 문제 풀이이며, 최적의 해를 도출하기 위해서는 반복적인 계산 절차가 요구된다. 이 경우, 안테나들의 수 및 밀집되어 배치된 기지국들의 수, 및 서비스 대상 단말들의 수 증가에 따라 계산 복잡도가 급속히 증가하게 되며, 실시간 해 도출이 불가능하게 된다.
심층 학습 신경망의 구성
도 2는 본 발명의 실시예들에 따른 빔포밍을 위한 심층 학습 신경망을 도시하고 있다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 심층 학습(deep learning) 신경망은 하나의 입력 계층(input layer),
Figure pat00100
개의 은닉 계층(hidden layer), 그리고 1개의 출력 계층(output layer)으로 구성될 수 있다. 일 실시예에서, 심층 학습 신경망은 도 2에 도시된 완전-연결 신경망 (fully-connected neural network, FNN)으로 구현될 수 있다. 다른 실시예에서, 심층 학습 신경망은 컨벌루션 신경망 (convolution neural network, CNN)으로 구현될 수 있다.
본 발명의 실시예들은 세 가지 유형의 출력 계층 구현 방식들을 제안한다. 이하에서, 표기의 용이성을 위해 출력 계층은
Figure pat00101
계층이라 표현된다. 상기 심층 학습 신경망의 출력을 이용하여 빔포밍 벡터를 계산하기 위한 본 발명의 실시예들은 무선 시스템의 입력 특징을 포착하기 위해서 기지국과 복수의 단말들(k개의 단말들) 간의 채널 정보
Figure pat00102
와 기지국의 송신 전력 제한 값
Figure pat00103
를 입력 벡터
Figure pat00104
로 할 수 있다.
따라서,
Figure pat00105
개의 입력 노드(node)들이 구성될 수 있다(복소수 값 계산을 지원하지 않는 심층 학습 라이브러리들의 경우 하나의 복소수 표현을 위해 두 개의 노드들(즉, 실수부와 허수부 각각에 대해 하나의 노드 할당)이 사용되며, 이 경우 입력 노드들의 개수는
Figure pat00106
이다. 이하에서는 설명의 편의를 위해서 하나의 노드에서 복소수 계산이 가능한 것을 가정하여 설명한다). 은닉 계층
Figure pat00107
을 구성하는 노드들의 수는
Figure pat00108
로 표기될 수 있다.
Figure pat00109
값이 클수록 보다 정확한 학습이 가능할 수 있지만,
Figure pat00110
값이 클수록 학습 파라미터들의 수가 증가하기 때문에 학습 복잡도는 높아진다. 또한, 은닉 계층의 개수
Figure pat00111
이 클수록 정확한 학습이 가능하지만 학습 복잡도는 높아진다. 따라서,
Figure pat00112
Figure pat00113
값들은 상기한 트레이드 오프(trade-off)를 고려하여 결정되어야 한다.
입력에서 출력까지의 전체적인 심층 신경망 진행-전달(forward-pass) 절차는
Figure pat00114
로 표시될 수 있다. 여기서,
Figure pat00115
는 심층 신경망 파라미터들의 집합으로,
Figure pat00116
이다.
Figure pat00117
은 계층
Figure pat00118
의 가중치 행렬이며
Figure pat00119
은 계층
Figure pat00120
의 바이어스(bias) 벡터이다. 상기한
Figure pat00121
는 연속적인 신경 계층들의 계산들로 구체화되는데, 계층
Figure pat00122
의 계산은 하기 수학식 6과 같이 표현될 수 있다.
Figure pat00123
여기서,
Figure pat00124
은 활성화 함수(activation function)이며,
Figure pat00125
의 일 실시예로서 ReLU(rectified linear unit) 함수가 사용될 수 있다. 본 발명의 실시예들에서, 은닉 계층과 관련된 파라미터들은 시행착오 과정을 통해 적절히 선택되는 것으로 가정한다. 한편, 본 발명의 실시예들에서 입력 특징을 포착하는 입력 계층은 상술된 바와 같이 정의되며, 출력 계층도 P1의 해와 직접적으로 관련되기 때문에 구체적으로 정의된다.
도 2를 참조하면, 세가지 유형의 출력 계층 방식들(직접 빔포밍 학습(DBL, direct beamforming learning), 특징 학습(FL, feature learning), 단순 특징 학습(SFL, simplified feature learning))이 도시되어 있다.
도 3 내지 도 5는 본 발명의 실시예들에 따른 빔포밍을 위한 심층 학습 신경망에 적용되는 출력 계층의 다양한 실시예들을 도시하는 개념도들이다.
직접 빔포밍 학습(DBL, direct beamforming learning)
도 3을 참조하면, 본 발명의 일 실시예에 따르는 심층 학습 신경망의 유형1 출력 계층의 구성이 도시되어 있다. 유형 1 출력 계층은 직접 빔포밍 학습(DBL(direct beamforming learning))을 위한 출력 계층으로 정의될 수 있다.
유형1 출력 계층에 해당하는 계층
Figure pat00126
은 총 MK개의 노드들로 구성되어 있으며, 도 3에 도시된 바와 같이 M개 노드들로 구성된 K개의 노드 그룹들 각각은 단말을 위한 빔포밍 벡터 (
Figure pat00127
)를 출력하게 된다.
Figure pat00128
는 하기 수학식 7과 같이 계산될 수 있다.
Figure pat00129
수학식 7과 같이 계산되는 출력 계층의 정보
Figure pat00130
는 활성화 함수로 입력될 수 있다. 기지국 송신 전력 제약을 만족시키기 위해, 하기 수학식 8과 같은 활성화 함수가 사용될 수 있다.
Figure pat00131
따라서, 활성화 함수의 출력 벡터는
Figure pat00132
이다. 유형 1 출력 계층을 이용하는 유형1 심층 학습 빔포밍의 경우, 출력 계층의 출력 정보
Figure pat00133
로부터 직접적으로 빔포밍 벡터를 도출되기 때문에 출력 계층 정보의 계산 복잡도가 단순할 수 있다. 하지만,
Figure pat00134
를 구성하는 예측 변수 개수가 M과 K의 곱만큼 많기 때문에, 충분히 깊은 심층 신경망과 충분히 많은 학습 샘플들이 요구된다. 또한 과적합(overfitting) 문제가 발생할 수 있다.
특징 학습(FL, feature learning)
직접적으로 빔포밍 벡터 정보를 출력하는 유형1 출력 계층과 달리, 최적의 빔포밍 해와 관련된 주요 특징으로 작동할 수 있는 보다 낮은 차원의 중간 변수들을 생성하여 빔포밍 해 도출에 필요한 예측 변수들의 개수를 줄일 수 있는 방식이 필요하다. 이를 위해, 통신 도메인의 전문가 지식인 최적 빔포밍 해의 구조가 활용될 수 있다. 무선 통신 분야에서 최적의 빔포밍 해의 구조는 하기 수학식 9와 같은 형태를 가진다고 알려져 있다.
Figure pat00135
최적 빔포밍 해의 구조를 구성하는 변수들은 입력 변수들인
Figure pat00136
와 예측해야 하는 변수들
Figure pat00137
로 구성된다. 따라서, 출력 계층으로 K개의
Figure pat00138
정보 쌍들을 출력하도록 하고, 출력되는
Figure pat00139
쌍들에 기반하여 빔포밍 벡터를 복구하는 방식이 고려될 수 있다.
도 4를 참조하면, 본 발명의 일 실시예에 따르는 심층 학습 신경망의 유형2 출력 계층의 구성이 도시되어 있다. 유형 2 출력 계층은 특징 학습(FL(feature learning))을 위한 출력 계층으로 정의될 수 있다.
유형2 출력 계층에 해당하는 계층
Figure pat00140
은 총 2K개의 노드들로 구성되어 있으며, K노드들로 구성된 2개의 그룹으로 그룹핑될 수 있다. 2개의 그룹은 각각
Figure pat00141
Figure pat00142
를 출력할 수 있다.
Figure pat00143
Figure pat00144
는 각각 하기 수학식 10과 같이 정의되는 활성화 함수(이하에서는, "scaled softmax" 함수라 명명한다)에 입력될 수 있다.
Figure pat00145
여기서,
Figure pat00146
Figure pat00147
또는
Figure pat00148
이다. 함수값
Figure pat00149
Figure pat00150
또는
Figure pat00151
이다. 수학식 10과 같이 정의되는 활성화 함수는
Figure pat00152
를 만족하도록 기존 softmax 함수에
Figure pat00153
를 곱한 형태를 가지는 scaled softmax 함수이다.
Figure pat00154
의 경우,
Figure pat00155
가 만족될 필요가 없지만, 동일한 scaled softmax 함수가 사용될 수 있다. 두 개의 scaled softmax 함수 출력 정보는 수학식 9에서 제시된 최적 빔포밍 구조의
Figure pat00156
예측 변수들이며
Figure pat00157
변수들은 수학식 9에서 정의된 빔 방향 정보
Figure pat00158
로 변환될 수 있다(beam direction recovery). 이 때, 빔 방향 변환은 하기 수학식 11과 같은 변환식에 따른 행렬의 역행렬 계산을 통해 수행될 수 있다.
Figure pat00159
빔 방향 변환을 통해 도출된
Figure pat00160
는 최종적으로
Figure pat00161
와 결합되며, 빔포밍 벡터
Figure pat00162
가 출력될 수 있다.
단순 특징 학습(SFL, simplified feature learning)
추가적인 도메인 지식을 활용하여, 출력 계층에서 예측해야 할 변수들의 개수를 더한층 줄일 수 있는 방식이 고려될 수 있다. 추가로 활용되는 통신 도메인 지식은 업링크-다운링크 빔포밍 쌍대성(duality) 및 대각 성분 우월성(diagonal dominance)이다. 업링크-다운링크 빔포밍 쌍대성은 기지국의 다운링크 송신 빔포밍과 업링크 수신 빔포밍의 최적해 구조가 수학식 9와 동일하며, 수학식 9에서
Figure pat00163
를 단말
Figure pat00164
의 업링크 송신 전력과 동일하게 설정하면
Figure pat00165
가 단말
Figure pat00166
의 업링크 수신 빔포밍 벡터가 된다는 이론이다. P1 최적화 문제와 유사하지만 보다 손쉽게 풀이할 수 있는 조건
Figure pat00167
을 만족하는 최소 합계 전력을 제공하는 빔포밍 벡터 도출 문제에서, 최적 해의 구조 또한 수학식 9를 따르며, 이 때 최적 전력 벡터는 다운링크와 업링크 각각에 대해 하기 수학식 12와 수학식 13가 같이 주어질 수 있다.
Figure pat00168
Figure pat00169
여기서,
Figure pat00170
행렬은
Figure pat00171
번째 행
Figure pat00172
번째 열의 원소
Figure pat00173
들로 구성되며,
Figure pat00174
는 하기 수학식 14와 같이 표현될 수 있다.
Figure pat00175
수학식 12와 수학식 13을 통해 알 수 있듯이,
Figure pat00176
이면
Figure pat00177
Figure pat00178
가 된다. 이 경우, 상기 수학식 9는 하기 수학식 15와 같이 표현될 수 있다.
Figure pat00179
따라서, 근사화(
Figure pat00180
Figure pat00181
)를 통해, 예측해야 할 변수들의 개수가 유형2의 경우의 절반인
Figure pat00182
개로 감소될 수 있다. 이와 같은 근사화에 의해 성능 열화가 아주 제한적일 수 있다는 추론은, 일반적으로 ZF(zero forcing) 빔포밍 방식이 높은 SNR 동작 지점에서 최적의 빔포밍 성능에 근사한다는 사실로부터 높은 SNR에서 단말들 간 간섭이 상대적으로 줄어든다는 것으로 이해할 수 있다. 또한, 이러한 이해는 상기 행렬
Figure pat00183
의 대각 성분이 다른 성분보다 우월하다는 해석을 할 수 있으며 따라서
Figure pat00184
와 같은 조건이 가정될 수 있다. 실제로 P1 문제의 해를 통해 행렬
Figure pat00185
을 계산할 수 있고, 이 때 계산된
Figure pat00186
의 대각성분이 다른 성분들보다 월등히 우월하므로
Figure pat00187
이 만족될 수 있다.
도 5를 참조하면, 본 발명의 일 실시예에 따르는 심층 학습 신경망의 유형3 출력 계층의 구성이 도시되어 있다. 유형 3 출력 계층은 단순 특징 학습(SFL(simplified feature learning))을 위한 출력 계층으로 정의될 수 있다.
유형3 출력 계층은 상술된 바와 같이 업링크-다운링크 빔포밍 쌍대성(duality) 및 대각 성분 우월성 (diagonal dominance)에 기반하여 예측 대상 변수들의 수를 유형2 출력 계층에 비해서 줄일 수 있다.
도 4에서 도시된 유형2 출력 계층과 비교하면, 유형3 출력 계층에서는
Figure pat00188
와 관련되는 출력 노드들 및 계산 블록들이 존재하지 않는다. 따라서, 유형3 출력 계층은 K 개의 노드들로 구성될 수 있다. 빔 방향 변환에는
Figure pat00189
정보 대신 상기한 근사화(
Figure pat00190
Figure pat00191
) 에 따라
Figure pat00192
정보가 사용된다.
심층 학습 신경망 학습(training)
이하에서는, 본 발명의 일 실시예에 따른 심층 학습 신경망을 위한 학습 방법으로서 비지도 학습 방법과 지도 학습 방법을 활용한 빔포밍 방법이 설명된다.
도 6은 본 발명의 일 실시예에 따른 비지도(unsupervised) 심층 학습 기반의 빔포밍 방법을 설명하기 위한 흐름도이다.
도 6을 참조하여 설명된 빔포밍 방법에서, 심층 학습에 활용되는 심층 신경망은 FNN, CNN, RNN 등의 어떠한 유형의 심층 신경망들이 사용될 수 있다. 다만, 이하에 설명되는 입력과 출력은 도 2를 참조하여 설명된 FNN을 기준으로 설명한 구조를 따르게 된다. 특히, 출력 구조는 도3, 도 4, 또는 도 5를 통해 제안하고 있는 세 가지 출력 구조들 중의 하나를 따르게 된다.
도 6을 참조하면, 본 발명의 일 실시예에 따른 빔포밍 방법은 비지도 학습 기반의 오프라인(Off-line) 학습을 수행하는 단계(S610~S630)와 학습된 심층 신경망을 시스템에 배치하는 단계(S640), 및 심층 신경망을 이용하여 빔포밍을 수행하면서 온라인(on-line) 학습을 수행하는 단계(S650~S660)로 구성될 수 있다.
본 발명에 따르는 일 실시예에 따른 오프라인 학습 절차는 학습 입력 데이터를 획득 하는 단계(S610)부터 시작된다. 이때, 학습 입력 데이터는 기지국과 다중 사용자들 간의 채널 정보와 기지국의 최대 송신 전력 제한 값을 포함할 수 있다. 학습 입력 데이터는 수학적 모델링을 통해 시뮬레이션을 통해 획득되거나, 테스트베드(test bed) 구축 등을 통해 시스템을 에뮬레이션하여 획득될 수 있다. 또는, 실제 시스템에서 측정된 정보가 학습 입력 데이터로 이용될 수도 있다.
도 2에서 설명한 바와 같이, 입력 계층, 은닉계층들, 그리고 출력 계층으로 구성되는 심층 신경망을 형성되며 형성된 심층 신경망의 목적 함수는 심층 신경망의 입력-출력 매핑
Figure pat00193
(여기서,
Figure pat00194
)에 따른 합계 데이터 전송율 성능이다. 따라서 심층 신경망에서 결정되어야 하는 최적화 파라미터들은 하기 수학식 16을 통해 결정될 수 있다.
Figure pat00195
수학식 16의 해는 하기 수학식 17과 같이 정의되는 손실 함수(loss function)
Figure pat00196
로 설정될 수 있다(S620). 즉, 손실 함수는 심층 학습 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값에 -1을 곱하여 얻어지는 값일 수 있다.
Figure pat00197
손실 함수를 최소화하는 심층 신경망 파라미터들의 학습은 미분값
Figure pat00198
이 감소하는 방향으로 심층 신경망 파라미터들을 반복적으로 갱신함으로써 도출될 수 있다(S630). 이를 위한 구체적인 알고리즘의 일 예로 Adam 등에 발표된 '미니배치 스토캐스틱 경사 하강 알고리즘 (mini-batch stochastic gradient descent)'이 이용될 수 있으며,
Figure pat00199
번째 반복에서의 심층 신경망 파라미터
Figure pat00200
는 하기 수학식 18과 같이 갱신될 수 있다.
Figure pat00201
여기서,
Figure pat00202
는 학습률(learning rate)이며,
Figure pat00203
는 미니배치 크기에 해당하는 심층 신경망의 입력
Figure pat00204
샘플들의 집합이다.
비지도 학습이 완료되면, 학습된 심층 신경망은 기지국의 빔포밍 제어 장치에 포함되어, 대상 무선 시스템에 배치될 수 있다(S640).
이 후, 빔포밍 제어 장치는 실측된 채널 정보 및 기지국 송신 전력 제한 값을 학습된 심층 신경망에 입력하고(S650), 심층 신경망에서 단순한 선형적 행렬곱 연산들을 통해 빔포밍 벡터를 실시간으로 도출하여 빔포밍을 수행하고 빔포밍된 신호를 전송할 수 있다(S660).
이때, 실측된 채널 정보 및 기지국 송신 전력 제한에 대응하여 출력된 빔포밍 벡터에 의한 신호 전송에 대한 성능 모니터링이 지속적으로 수행될 수 있으며, 성능 모니터링의 결과는 다시 피드백되어 온라인 학습이 수행될 수 있다(S650~S660).
이러한 비지도 학습 심층 신경망의 경우, 입력 정보에 따른 출력값의 사전 지식을 필요로 하지 않기 때문에 시스템에 배치되어 테스트하는 과정에서 추가적인 온라인 학습도 용이하게 수행할 수 있다.
도 7은 본 발명의 일 실시예에 따른 지도(supervised) 심층 학습 기반의 빔포밍 방법을 설명하기 위한 흐름도이다.
도 7을 참조하여 설명된 지도 학습과 도 6에서 설명된 비지도 학습과의 차이점은 심층 신경망을 학습하기 위한 손실 함수 설정에 있다. 지도 학습은 학습 정보로서 입력 정보(즉, 채널 정보(
Figure pat00205
)와 송신 전력 제한 값(
Figure pat00206
))와 그에 대응하는 올바른 출력 값(즉, 최적의 빔포밍 벡터들)을 사전 정보로 확보해야 하며(S710), 이를 이용해서 사전 학습 정보로 확보되는 출력 값에 대한 성능 계산 값과 심층 신경망의 입력-출력 매핑에 따른 성능 계산 값과의 오차를 손실로 정의하게 된다(S720). 따라서, 지도 학습을 위해서는 상기한 P1의 non-convex 최적화 문제를 반복적인 convex 근사화를 통해 풀이하여 입력-출력 매핑 정보를 확보해야 한다. 손실 함수를 최소화하는 심층 신경망의 파라미터들을 학습하는 단계(S730) 또한 사전 학습 정보로 확보되는 출력값에 대한 성능 계산 값과 심층 신경망의 입력-출력 매핑에 따른 성능 계산 값과의 오차를 최소화하는 심층 신경망 파라미터들을 학습시키는 것에 의해 수행될 수 있다.
학습된 심층 신경망을 배치하는 단계(S740), 실시간 테스트 입력 정보를 획득하고 학습된 심층 신경망에 입력하는 단계(S750), 및 실시간 테스트 결과를 출력하고 빔포밍 벡터를 계산하여 빔포밍된 신호를 전송하는 단계(S760)은 도 6에서 설명된 단계들(S640~S660)과 동일/유사하게 수행될 수 있다.
클라우드 무선 액세스 네트워크에의 적용
본 발명의 실시예들은 도 1에서 설명된 단일 기지국에서의 빔포밍 뿐만 아니라 클라우드 무선 액세스 네트워크(C-RAN, cloud radio access network)에서의 빔포밍에도 적용될 수 있다.
도 8은 본 발명의 실시예들이 적용되는 클라우드 무선 액세스 네트워크의 구조를 도시하고 있다.
C-RAN 아키텍처에서, 전통적으로 개별 기지국(BS)에서 국부적으로 수행되는 베이스밴드 처리는 하나의 클라우드 프로세싱 센터(이하, 중앙 제어 장치(CP, centralized processor))로 집중되어(aggregate) 중앙-집중적으로(centrally) 수행된다. C-RAN 아키텍쳐에서의 BS는 RF 및 안테나 기능만을 갖고 있어 '원격 무선 헤드 (Remote Radio Head, RRH)'라고 부른다. RRH와 클라우드 간은 프론트홀(fronthaul) 링크로 연결된다.
최근에는 요구되는 프론트홀 링크 용량을 낮추기 위해 CP에 위치하는 베이스밴드 기능 일부를 RRH에 위치시키는 베이스밴드 기능 분할(function splitting)도 고려되고 있다. 이와 같은 C-RAN 시스템의 경우, CP에서 분산된 RRH들의 협력을 통해, 즉 협력 빔포밍을 통해 사용자 간의 간섭을 제어할 수 있으며, 따라서 C-RAN 시스템도 도 1에 도시된 전송 시스템으로서 모델링될 수 있다. 결국, C-RAN 시스템이 제공하는 사용자 데이터의 합계 전송율 최대화 문제는 P1 문제이다. 다만, CP와 RRH들을 연결하는 프론트홀 링크의 용량은 상기한 바와 같이 제한될 수 있고, 그 제한 용량은 서로 다를 수 있다. 또한, 분산되는 RRH들의 송신 전력 제한 값도 서로 다를 수 있다. 따라서, 상기한 바와 같이 이종의 프론트홀 및 RRH들을 포함할 수 있는 클라우드 RAN 시스템에 적용되는 빔포밍 제어 장치는 도 2 내지 도 7를 참조하여 설명한 본 발명의 심층 신경망을 기반으로 하여 확장될 필요가 있다.
도 9은 클라우드 무선 액세스 네트워크에 본 발명의 실시예들을 적용하는 구체적인 예를 설명하기 위한 개념도이다.
도 1에서 도시된 단순화된 전송 시스템과는 달리, 본 발명의 실시예들이 C-RAN에 적용될 경우, 입력 계층으로 상술된 C-RAN 시스템의 입력 특징을 포착할 수 있도록 보다 많은 정보가 입력될 수 있다. 채널 정보(
Figure pat00207
)는 동일하게 이용될 수 있지만, M개의 분산된 RRH들의 서로 다른 송신 전력 제한 값들
Figure pat00208
이 입력될 수 있다. 또한, 개별 RRH들을 CP와 연결하는 프론트홀 용량 제약값
Figure pat00209
이 추가로 입력될 수 있다. 추가적인 부가 정보로서, 개별 사용자 단말들에서 측정되는 간섭 및 잡음 정보로서
Figure pat00210
가 사용될 수 있다.
이와 같이 확장된 입력 특징들을 충분히 학습하기 위해서는 도 2에서 제시된 심층 신경망의 은닉 계층들의 수가 보다 많아질 필요가 있으며, 또한 은닉 계층 하나를 형성하는 노드들의 수 또한 증가될 필요가 있다.
도 10은 본 발명의 실시예들에 따른 심층 학습 기반 빔포밍 방법이 적용되는 빔포밍 제어 장치를 설명하기 위한 블록 다이어그램이다.
도 10을 참조하면, 본 발명의 실시예들에 따른 심층 학습 기반 빔포밍 방법을 수행하는 빔포밍 제어 장치(100)는 수신기 블록(1010), 송신기 블록(1020), 입/출력(I/O, input/output) 블록(1030), 프로세서 블록(1040), 메모리 블록(1050), 및 상기 블록들을 상호 연결하는 데이터 버스(1070)를 포함할 수 있다.
수신기 블록(1010)은 다른 네트워크 장치(예컨대, RRH)/블록들로부터 제어 및 데이터 신호들을 수신하는 하드웨어 및 그에 필요한 소프트웨어를 포함하는 블록이다. 송신기 블록(1020)은 다른 네트워크 장치/블록으로 제어 및 데이터 신호들을 송신하는 하드웨어 및 그에 필요한 소프트웨어를 포함하는 블록이다. 입/출력 블록(1030)은 상기 수신기 블록(1010) 및 송신기 블록(1020)을 통해 송/수신하는 신호 이외의 신호들을 교환하기 위해 사용되는 하드웨어 및 소프트웨어를 포함하는 블록이다.
메모리 블록(1050)은 다양한 방법들로 데이터를 저장할 수 있는 블록이다. 프로세서 블록(1040)은 데이터를 처리할 수 있는 블록으로, 예를 들어 특정 연산들을 수행하도록 구조적으로 구성된 프로세서, 또는 컴퓨터 판독 가능 코드에 포함된 명령들을 실행할 수 있도록 구조적으로 구성된 프로세서이다. 상기한 프로세서들은 마이크로프로세서, 신호처리 프로세서, 시스템-온-칩 프로세서, 중앙 처리 장치 프로세서, ASIC, FPGA 등을 포함할 수 있다.
성능 분석 결과
이하에서, 상술된 본 발명의 실시예들에 따른 효과가 성능 분석 결과를 통해 설명된다.
도 11은 본 발명의 실시예들에 따른 심층 학습 신경망이 적용된 경우의 합계 데이터 전송율들과 기존 빔포밍 방식들이 적용된 경우의 합계 데이터 전송율들을 비교하는 그래프이다.
도 11을 참조하면, 4x4 (
Figure pat00211
) 조건에서 본 발명의 실시예들에 따른 3가지 유형의 출력 계층들이 적용된 심층 학습 기반 빔포밍 제어 장치가 제공할 수 있는 합계 데이터 전송율이 기존 빔포밍 방식들인 WMMSE, ZF, MRT 방식들의 합계 데이터 전송율이 비교되어 있다.
WMMSE(weighted minimum mean square error) 방식은 P1으로 제시되는 non-convex 최적화 문제를 반복적 계산을 통해 풀이하는 방식으로 최적의 성능을 제공하지만 해 도출 시간은 M과 K가 증가할수록, 그리고 SNR이 높을수록 증가하게 되어 실시간 적용이 불가능한 방안이다. ZF(zero-forcing) 및 MRT(maximum ratio transmission) 방식은 채널 정보에 기반한 선형 빔포밍 방식으로 실시간 적용이 가능하지만 이들의 성능은 도 11를 통해 알 수 있듯이 제한적이다. 참고로, 도 11에 제시된 ZF 및 MRT 성능은 합계 전송율을 증대시키기 위해 최적의 전력값으로 설정되었으며, 따라서 최적 전력 제어가 되지 않는 경우 도 11에서 제시된 성능 보다 열화된 성능을 제공할 수 있다.
본 발명의 실시예들에 따른 심층 학습 기반 빔포밍 제어 장치의 경우, 유형1의 DBL 방식이 높은 SNR 범위를 제외하면 ZF 및 MRT 방식보다 우수하지만, SNR이 증가할수록 최적의 성능과는 열화된 성능을 제공함을 알 수 있다. 반면, 유형2의 FL 방식 및 유형3의 SFL 방식은 동일한 성능을 제시하고 전체 동작 SNR 범위에서 최적의 방식과 유사한 성능을 제시함을 알 수 있다.
도 12은 본 발명의 실시예들에 따른 심층 학습 신경망의 실행 시간과 기존 빔포밍 방식들의 실행 시간을 비교하는 표이다.
도 12에 도시된 표는 본 발명의 실시예들에 따른 3가지 유형의 심층학습 기반 빔포밍 제어 장치의 실행 시간을 도 11을 통해서 살펴본 최적의 방식인 WMMSE와 비교한 결과를 보여준다. 도 12에 도시된 표는 M=K=4 조건과 M=K=6 조건에서 측정한 결과들을 보여준다. 측정 시스템의 사양은 Intel i7-7700K CPU, 64GB RAM, a Titan XP GPU이다. 제시된 결과를 통해, 제안된 심층 학습 기반 빔포밍 제어 장치의 실행 시간이 WMMSE 실행 시간보다 월등히 짧음을 알 수 있다.
또한, 제안된 3가지 유형들의 실행 시간들을 살펴보면, 유형1의 방식이 가장 길며, 우형2의 방식과 유형3의 방식은 큰 차이를 가지지는 않지만 유형2의 방식이 조금 더 긴 실행 시간을 가진다. 또한, WMMSE는 P가 커질수록 수렴에 더 많은 시간이 소요되지만, 제안된 방식들의 실행 시간은 P에 무관하다. 도 12에서는 제안된 방식들이 완전-연결 신경망(FNN)과 컨볼루션 신경망(CNN)으로 구현했을 때의 실행 시간 결과들도 제시하고 있으며, FNN으로 구현된 경우가 CNN 으로 구현된 경우보다 짧은 실행 시간을 가지는 것을 알 수 있다.
본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능 매체의 예에는 롬, 램, 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (20)

  1. 심층 신경망을 이용하는 빔포밍 방법으로,
    상기 심층 신경망은 입력 계층,
    Figure pat00212
    (L은 1이상의 자연수)개의 은닉 계층들, 및 출력 계층으로 구성되며, 상기 빔포밍 방법은:
    기지국과
    Figure pat00213
    개(
    Figure pat00214
    는 1이상의 자연수) 단말들 간의 채널 정보(
    Figure pat00215
    )와 상기 기지국의 송신 전력 제한 값(
    Figure pat00216
    )을 획득하여 상기 입력 계층으로 입력하는 단계; 및
    상기 출력 계층과 활성화 함수를 이용하여 출력된 빔포밍 벡터들을 이용하여 상기 K개의 단말들에게 전송될 신호들을 빔포밍하는 단계를 포함하고,
    상기 기지국은
    Figure pat00217
    개(
    Figure pat00218
    은 1이상의 자연수)의 전송 안테나들을 이용하여 상기 K개의 단말들에게 상기 신호들을 전송하는,
    빔포밍 방법.
  2. 청구항 1에 있어서,
    상기 출력 계층은
    Figure pat00219
    개의 노드들을 포함하고, 상기
    Figure pat00220
    개의 노드들은 각각
    Figure pat00221
    개의 노드들로 구성된
    Figure pat00222
    개의 노드 그룹들을 그룹핑되며, 각 노드 그룹은 각 단말에 대한 빔포밍 벡터를 출력하는 직접 빔포밍 학습(DBL, direct beamforming learning) 방식으로 구성되는,
    빔포밍 방법.
  3. 청구항 2에 있어서,
    상기 활성화 함수는 상기 송신 전력 제한 값(
    Figure pat00223
    )을 만족시키기 위해 상기 각 단말에 대한 빔포밍 벡터를 제한하는 함수인,
    빔포밍 방법.
  4. 청구항 1에 있어서,
    상기 출력 계층은
    Figure pat00224
    개의 노드들을 포함하고,
    Figure pat00225
    개의 노드들은 각각
    Figure pat00226
    개의 노드들로 구성된 2개의 노드 그룹들로 그룹핑되며, 각 노드 그룹은 최적 빔포밍 해에 포함되는 K개의 예측 변수를 출력하는 특징 학습(FL, feature learning) 방식으로 구성되는,
    빔포밍 방법.
  5. 청구항 4에 있어서,
    상기 활성화 함수는 상기 2개의 노드 그룹들로부터 출력된
    Figure pat00227
    개의 예측 변수들을 입력으로 수신하는 상기 송신 전력 제한 값(
    Figure pat00228
    )을 만족시키기 위한 scaled softmax 함수들을 포함하며, 상기 scaled soft max 함수들 중 제1 scaled soft max 함수의 출력과 빔 방향 변환(beam direction recovery)를 거친 제2 scaled soft max 함수의 출력이 결합되어 각 단말에 대한 빔포밍 벡터가 출력되는,
    빔포밍 방법.
  6. 청구항 1에 있어서,
    상기 출력 계층은
    Figure pat00229
    개의 노드들을 포함하고, 상기
    Figure pat00230
    개의 노드들은 업링크-다운링크 빔포밍 쌍대성(duality) 및 대각 성분 우월성(diagonal dominance)에 따른 근사화에 기반하여 최적 빔포밍 해에 포함되는
    Figure pat00231
    개의 예측 변수들을 출력하는 단순 특징 학습(SFL, simplified feature learning) 방식으로 구성되는,
    빔포밍 방법.
  7. 청구항 6에 있어서,
    상기 활성화 함수는 상기
    Figure pat00232
    개의 노드들로부터 출력된
    Figure pat00233
    개의 예측 변수들을 입력으로 수신하는 상기 송신 전력 제한 값(
    Figure pat00234
    )을 만족시키기 위한 scaled softmax 함수들을 포함하며, 상기 scaled soft max 함수들 중 제1 scaled soft max 함수의 출력과 빔 방향 변환(beam direction recovery)를 거친 제2 scaled soft max 함수의 출력이 결합되어 각 단말에 대한 빔포밍 벡터가 출력되는,
    빔포밍 방법.
  8. 청구항 1에 있어서,
    상기 심층 신경망에 대한 비지도(unsupervised) 학습을 수행하는 단계를 추가로 포함하고, 상기 심층 신경망에 대한 비지도 학습을 수행하는 단계는:
    상기 채널 정보(
    Figure pat00235
    )와 상기 송신 전력 제한 값(
    Figure pat00236
    )을 상기 입력 계층으로 입력하는 단계; 및
    상기 심층 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값에 -1을 곱하여 정의되는 손실 함수(loss function)를 최소화하도록 상기 심층 신경망의 파라미터들을 학습시키는 단계를 포함하는,
    빔포밍 방법.
  9. 청구항 1에 있어서,
    상기 심층 신경망에 대한 지도(supervised) 학습을 수행하는 단계를 추가로 포함하고, 상기 심층 신경망에 대한 지도 학습을 수행하는 단계는:
    상기 채널 정보(
    Figure pat00237
    )와 상기 송신 전력 제한 값(
    Figure pat00238
    )을 상기 입력 계층으로 입력하는 단계; 및
    상기 채널 정보(
    Figure pat00239
    )와 상기 송신 전력 제한 값(
    Figure pat00240
    )에 대응하는 최적의 빔포밍 벡터들에 따른 합계 데이터 전송율 계산 값과 상기 심층 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값의 차이로 정의되는 손실 함수를 최소화하도록 상기 심층 신경망의 파라미터들을 학습시키는 단계를 포함하는,
    빔포밍 방법.
  10. 심층 신경망을 이용하는 빔포밍 제어 장치로서,
    상기 심층 신경망은 입력 계층,
    Figure pat00241
    (L은 1이상의 자연수)개의 은닉 계층들, 및 출력 계층으로 구성되며, 상기 빔포밍 제어 장치는 프로세서; 및 상기 프로세서에 의해서 실행되는 명령어들을 저장하는 메모리를 포함하고, 상기 프로세서에 의해서 실행될 때 상기 명령어들은 상기 프로세서가:
    기지국과
    Figure pat00242
    개(
    Figure pat00243
    는 1이상의 자연수) 단말들 간의 채널 정보(
    Figure pat00244
    )와 상기 기지국의 송신 전력 제한 값(
    Figure pat00245
    )을 획득하여 상기 입력 계층으로 입력하는 단계; 및
    상기 출력 계층과 활성화 함수를 이용하여 출력된 빔포밍 벡터들을 이용하여 상기
    Figure pat00246
    개의 단말들에게 전송될 신호들을 빔포밍하는 단계를 수행하도록 하고,
    상기 기지국은
    Figure pat00247
    개(
    Figure pat00248
    은 1이상의 자연수)의 전송 안테나들을 이용하여 상기 K개의 단말들에게 상기 신호들을 전송하는,
    빔포밍 제어 장치.
  11. 청구항 10에 있어서,
    상기 출력 계층은
    Figure pat00249
    개의 노드들을 포함하고, 상기
    Figure pat00250
    개의 노드들은 각각
    Figure pat00251
    개의 노드들로 구성된
    Figure pat00252
    개의 노드 그룹들을 그룹핑되며, 각 노드 그룹은 각 단말에 대한 빔포밍 벡터를 출력하는 직접 빔포밍 학습(DBL, direct beamforming learning) 방식으로 구성되는,
    빔포밍 제어 장치.
  12. 청구항 10에 있어서,
    상기 출력 계층은
    Figure pat00253
    개의 노드들을 포함하고,
    Figure pat00254
    개의 노드들은 각각
    Figure pat00255
    개의 노드들로 구성된 2개의 노드 그룹들로 그룹핑되며, 각 노드 그룹은 최적 빔포밍 해에 포함되는
    Figure pat00256
    개의 예측 변수를 출력하는 특징 학습(FL, feature learning) 방식으로 구성되는,
    빔포밍 제어 장치.
  13. 청구항 10에 있어서,
    상기 출력 계층은
    Figure pat00257
    개의 노드들을 포함하고, 상기
    Figure pat00258
    개의 노드들은 업링크-다운링크 빔포밍 쌍대성(duality) 및 대각 성분 우월성(diagonal dominance)에 따른 근사화에 기반하여 최적 빔포밍 해에 포함되는
    Figure pat00259
    개의 예측 변수들을 출력하는 단순 특징 학습(SFL, simplified feature learning) 방식으로 구성되는,
    빔포밍 방법.
  14. 청구항 10에 있어서,
    상기 명령어들은 상기 프로세서가 상기 심층 신경망에 대한 비지도(unsupervised) 학습을 수행하는 단계를 추가로 수행하도록 하고, 상기 심층 신경망에 대한 비지도 학습을 수행하는 단계는:
    상기 채널 정보(
    Figure pat00260
    )와 상기 송신 전력 제한 값(
    Figure pat00261
    )을 상기 입력 계층으로 입력하는 단계; 및
    상기 심층 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값에 -1을 곱하여 정의되는 손실 함수(loss function)를 최소화하도록 상기 심층 신경망의 파라미터들을 학습시키는 단계를 포함하는,
    빔포밍 제어 장치.
  15. 청구항 10에 있어서,
    상기 명령어들은 상기 프로세서가 상기 심층 신경망에 대한 지도(supervised) 학습을 수행하는 단계를 추가로 수행하도록 하고, 상기 심층 신경망에 대한 지도 학습을 수행하는 단계는:
    상기 채널 정보(
    Figure pat00262
    )와 상기 송신 전력 제한 값(
    Figure pat00263
    )을 상기 입력 계층으로 입력하는 단계; 및
    상기 채널 정보(
    Figure pat00264
    )와 상기 송신 전력 제한 값(
    Figure pat00265
    )에 대응하는 최적의 빔포밍 벡터들에 따른 합계 데이터 전송율 계산 값과 상기 심층 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값의 차이로 정의되는 손실 함수를 최소화하도록 상기 심층 신경망의 파라미터들을 학습시키는 단계를 포함하는,
    빔포밍 제어 장치.
  16. 중앙 제어 장치(CP, centralized processor)와 복수의 RRH(remote radio head)들을 포함하는 클라우드 무선 액세스 네트워크(C-RAN, cloud radio access network) 시스템으로, 상기 CP는 입력 계층,
    Figure pat00266
    (L은 1이상의 자연수)개의 은닉 계층들, 및 출력 계층으로 구성된 심층 신경망을 포함하고,
    상기 CP는 상기 복수의 RRH들과
    Figure pat00267
    개(
    Figure pat00268
    는 1이상의 자연수) 단말들 간의 채널 정보(
    Figure pat00269
    )와 상기 복수의 RRH들의 송신 전력 제한 값(
    Figure pat00270
    )들을 획득하여 상기 입력 계층으로 입력하고, 상기 출력 계층과 활성화 함수를 이용하여 출력된 빔포밍 벡터들을 이용하여 상기 K개의 단말들에게 전송될 신호들에 대한 빔포밍 벡터들을 생성하여, 상기 생성된 빔포밍 벡터들을 상기 복수의 RRH들에게 전달하며,
    상기 복수의 RRH들은 상기 생성된 빔포밍 벡터들을 이용하여 빔포밍된 신호들을 상기 K개의 단말들에게 전송하는,
    C-RAN 시스템.
  17. 청구항 16에 있어서,
    상기 복수의 RRH들이
    Figure pat00271
    개(
    Figure pat00272
    은 1이상의 자연수)의 전송 안테나들을 포함한 경우, 상기 출력 계층은
    Figure pat00273
    개의 노드들을 포함하고, 상기
    Figure pat00274
    개의 노드들은 각각
    Figure pat00275
    개의 노드들로 구성된
    Figure pat00276
    개의 노드 그룹들을 그룹핑되며, 각 노드 그룹은 각 단말에 대한 빔포밍 벡터를 출력하는 직접 빔포밍 학습(DBL, direct beamforming learning) 방식으로 구성되는,
    C-RAN 시스템.
  18. 청구항 16에 있어서,
    상기 출력 계층은
    Figure pat00277
    개의 노드들을 포함하고,
    Figure pat00278
    개의 노드들은 각각
    Figure pat00279
    개의 노드들로 구성된 2개의 노드 그룹들로 그룹핑되며, 각 노드 그룹은 최적 빔포밍 해에 포함되는
    Figure pat00280
    개의 예측 변수를 출력하는 특징 학습(FL, feature learning) 방식으로 구성되는,
    C-RAN 시스템.
  19. 청구항 16에 있어서,
    상기 출력 계층은
    Figure pat00281
    개의 노드들을 포함하고, 상기
    Figure pat00282
    개의 노드들은 업링크-다운링크 빔포밍 쌍대성(duality) 및 대각 성분 우월성(diagonal dominance)에 따른 근사화에 기반하여 최적 빔포밍 해에 포함되는
    Figure pat00283
    개의 예측 변수들을 출력하는 단순 특징 학습(SFL, simplified feature learning) 방식으로 구성되는,
    C-RAN 시스템.
  20. 청구항 16에 있어서,
    상기 심층 신경망은 상기 심층 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값에 -1을 곱하여 정의되는 손실 함수(loss function)를 최소화하도록 상기 심층 신경망의 파라미터들을 학습시키는 비지도(unsupervised) 학습 방식 또는 상기 채널 정보(
    Figure pat00284
    )와 상기 송신 전력 제한 값(
    Figure pat00285
    )들에 대응하는 최적의 빔포밍 벡터들에 따른 합계 데이터 전송율 계산 값과 상기 심층 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값의 차이로 정의되는 손실 함수를 최소화하도록 상기 심층 신경망의 파라미터들을 학습시키는 지도(supervised) 학습 방식으로 학습되는,
    C-RAN 시스템.
KR1020210091256A 2020-07-27 2021-07-12 심층 학습 기반의 빔포밍 방법 및 이를 위한 장치 KR102510513B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/380,826 US11742901B2 (en) 2020-07-27 2021-07-20 Deep learning based beamforming method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200092834 2020-07-27
KR1020200092834 2020-07-27

Publications (2)

Publication Number Publication Date
KR20220013906A true KR20220013906A (ko) 2022-02-04
KR102510513B1 KR102510513B1 (ko) 2023-03-16

Family

ID=80268233

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210091256A KR102510513B1 (ko) 2020-07-27 2021-07-12 심층 학습 기반의 빔포밍 방법 및 이를 위한 장치

Country Status (1)

Country Link
KR (1) KR102510513B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023185890A1 (zh) * 2022-03-31 2023-10-05 华为技术有限公司 一种数据处理方法及相关装置
WO2023216494A1 (zh) * 2022-05-09 2023-11-16 北京淇瑀信息科技有限公司 基于联邦学习的用户服务策略确定方法及装置
CN117996967A (zh) * 2024-04-03 2024-05-07 湖南巨森电气集团有限公司 一种智能电力断路器的控制系统及控制方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190069332A (ko) * 2017-12-11 2019-06-19 한국전자통신연구원 딥러닝을 이용한 빔포빙 방법
KR20190106949A (ko) * 2019-08-31 2019-09-18 엘지전자 주식회사 지능적 빔포밍 방법, 빔포밍 장치 및 지능형 컴퓨팅 디바이스

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190069332A (ko) * 2017-12-11 2019-06-19 한국전자통신연구원 딥러닝을 이용한 빔포빙 방법
KR20190106949A (ko) * 2019-08-31 2019-09-18 엘지전자 주식회사 지능적 빔포밍 방법, 빔포밍 장치 및 지능형 컴퓨팅 디바이스

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Junbeom Kim 외 3, Deep Learning Methods for Universal MISO Beamforming, Information Theory (cs.IT), 페이지 1-5, 2020.07.09. 1부.* *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023185890A1 (zh) * 2022-03-31 2023-10-05 华为技术有限公司 一种数据处理方法及相关装置
WO2023216494A1 (zh) * 2022-05-09 2023-11-16 北京淇瑀信息科技有限公司 基于联邦学习的用户服务策略确定方法及装置
CN117996967A (zh) * 2024-04-03 2024-05-07 湖南巨森电气集团有限公司 一种智能电力断路器的控制系统及控制方法

Also Published As

Publication number Publication date
KR102510513B1 (ko) 2023-03-16

Similar Documents

Publication Publication Date Title
KR102510513B1 (ko) 심층 학습 기반의 빔포밍 방법 및 이를 위한 장치
Xia et al. A deep learning framework for optimization of MISO downlink beamforming
Qi et al. Integrating sensing, computing, and communication in 6G wireless networks: Design and optimization
CN113411110B (zh) 一种基于深度强化学习的毫米波通信波束训练方法
CN111865378A (zh) 基于深度学习的大规模mimo下行预编码方法
CN114422059B (zh) 信道预测方法、装置、电子设备及存储介质
CN113162666B (zh) 一种面向智慧钢铁的大规模mimo混合预编码方法及装置
US11742901B2 (en) Deep learning based beamforming method and apparatus
CN113965233A (zh) 一种基于深度学习的多用户宽带毫米波通信资源分配方法及系统
Xia et al. Deep learning based beamforming neural networks in downlink MISO systems
CN114567358B (zh) 大规模mimo鲁棒wmmse预编码器及其深度学习设计方法
Pereira-Ruisánchez et al. Deep contextual bandit and reinforcement learning for IRS-assisted MU-MIMO systems
WO2023185978A1 (zh) 信道特征信息上报及恢复方法、终端和网络侧设备
CN117240331A (zh) 一种基于图神经网络的无蜂窝网络下行预编码设计方法
Stylianopoulos et al. Online RIS configuration learning for arbitrary large numbers of 1-bit phase resolution elements
CN115549745A (zh) Ris相移设计方法、装置、计算机设备及存储介质
CN116092332A (zh) 无人机携载智能反射面的多模调控与轨迹优化方法及系统
CN102055509B (zh) 下行信号加权处理方法、装置和通信系统
JP2024512358A (ja) 情報報告方法、装置、第1機器及び第2機器
CN114710187A (zh) 一种用户数动态变换场景下多小区大规模mimo智能通信的功率分配方法
CN111541472B (zh) 低复杂度机器学习辅助鲁棒预编码方法及装置
CN114268348A (zh) 一种基于深度强化学习的无蜂窝大规模mimo功率分配方法
Liao et al. Ultra-reliable intelligent link scheduling based on DRL for manned/unmanned aerial vehicle cooperative scenarios
Boroujerdi et al. Efficient beamforming scheme in distributed massive MIMO system
CN115001553B (zh) 一种机器学习辅助的卫星下行预编码方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right