KR20210089604A - 맵 상의 종착지를 결정하는 방법, 기기 및 저장매체 - Google Patents

맵 상의 종착지를 결정하는 방법, 기기 및 저장매체 Download PDF

Info

Publication number
KR20210089604A
KR20210089604A KR1020210083626A KR20210083626A KR20210089604A KR 20210089604 A KR20210089604 A KR 20210089604A KR 1020210083626 A KR1020210083626 A KR 1020210083626A KR 20210083626 A KR20210083626 A KR 20210083626A KR 20210089604 A KR20210089604 A KR 20210089604A
Authority
KR
South Korea
Prior art keywords
segment
map
model
area
type
Prior art date
Application number
KR1020210083626A
Other languages
English (en)
Inventor
진신 자오
리앙준 장
Original Assignee
바이두 유에스에이 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 바이두 유에스에이 엘엘씨 filed Critical 바이두 유에스에이 엘엘씨
Publication of KR20210089604A publication Critical patent/KR20210089604A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/38Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/387Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/909Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Library & Information Science (AREA)
  • Remote Sensing (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Instructional Devices (AREA)

Abstract

맵 상의 종착지를 결정하는 방법, 기기 및 저장매체를 제공한다. 당해 방법에서, 텍스트의 N개의 세그먼트를 획득하고; 텍스트의 N개의 세그먼트 간의 문법관계에 기반하여 N개의 세그먼트의 재귀순서를 결정하고; N개의 세그먼트 중의 각각에 대하여, 당해 세그먼트의 의미에 기반하여 복수의 모델 중에서 매칭 모델을 선택하고; 재귀순서에 따라, 각 세그먼트를, 맵의 초기 영역이나 또는 매칭 모델에 의하여 재귀순서에서의 당해 세그먼트의 바로 전의 세그먼트에 대해 출력되는 업데이트 영역과 함께, 당해 세그먼트의 매칭 모델에 입력하고; 매칭 모델에 의하여 재귀순서에서의 마지막 세그먼트에 대해 출력되는 업데이트 영역을 맵에서의 종착지로 사용한다.

Description

맵 상의 종착지를 결정하는 방법, 기기 및 저장매체{METHOD, APPARATUS AND STORAGE MEDIUM FOR DETERMINING DESTINATION ON MAP}
본 개시의 실시예는 전반적으로 컴퓨터 기술분야에 관한 것이고, 더 구체적으로, 맵 상의 종착지를 결정하는 방법, 기기 및 컴퓨터 판독가능 저장매체에 관한 것이다.
인간-컴퓨터 인터랙션에서, 자연어는 사용자와 로봇 간의 가장 이상적인 통신 형식 중 하나이다. 그러나, 로봇에 있어서, 자연어 해석은 여전히 매우 어려운 과제이다. 주요한 문제점으로는 음성을 텍스트로 성공적으로 변환하였을지라도 텍스트와 그에 대한 바람직한 해석 간에는 여전히 상당한 갭이 존재한다는 것이다.
제1 측면으로, 맵 상의 종착지를 결정하는 방법을 제공한다. 당해 방법은 텍스트의 N개의 세그먼트를 획득하는 단계 - 상기 N은 1보다 큰 정수임 - ; 텍스트의 N개의 세그먼트 간의 문법관계에 기반하여 N개의 세그먼트의 재귀순서(recursive order)를 결정하는 단계; N개의 세그먼트 중의 각각에 대하여, 각 세그먼트의 의미에 기반하여 복수의 모델 중에서 매칭 모델을 선택하는 단계 - 각 세그먼트의 매칭 모델은 모두 입력 텍스트 및 맵의 입력 영역을 입력으로 사용하고 입력 텍스트의 의미 및 입력 영역에 기반하여 맵의 업데이트 영역을 출력함 - ; 재귀순서에 따라, 각 세그먼트를, 맵의 초기 영역(initial region)이나 또는 매칭 모델에 의하여 재귀순서에서의 당해 세그먼트의 바로 전의 세그먼트에 대해 출력되는 업데이트 영역과 함께, 당해 세그먼트의 매칭 모델에 입력하는 단계; 및 매칭 모델에 의하여 재귀순서에서의 마지막 세그먼트에 대해 출력되는 업데이트 영역을 맵에서의 종착지로 사용하는 단계를 포함한다.
제2 측면으로, 맵 상의 종착지를 결정하는 기기를 제공한다. 당해 기기는 하나 또는 복수의 프로세서 및 메모리를 포함한다. 당해 메모리는 하나 또는 복수의 프로세서에 의해 실행가능한 명령을 저장하고 기기가 하기 조작을 수행하도록 하는바, 당해 조작은, 텍스트의 N개의 세그먼트를 획득하는 단계 - 상기 N은 1보다 큰 정수임 - ; 텍스트의 N개의 세그먼트 간의 문법관계에 기반하여 N개의 세그먼트의 재귀순서를 결정하는 단계; N개의 세그먼트 중의 각각에 대하여, 각 세그먼트의 의미에 기반하여 복수의 모델 중에서 매칭 모델을 선택하는 단계 - 각 세그먼트의 매칭 모델은 모두 입력 텍스트 및 맵의 입력 영역을 입력으로 사용하고, 입력 텍스트의 의미 및 입력 영역에 기반하여 맵의 업데이트 영역을 출력함 - ; 재귀순서에 따라, 각 세그먼트를, 맵의 초기 영역이나 또는 매칭 모델에 의하여 재귀순서에서의 당해 세그먼트의 바로 전의 세그먼트에 대해 출력되는 업데이트 영역과 함께, 당해 세그먼트의 매칭 모델에 입력하는 단계; 및 매칭 모델에 의하여 재귀순서에서의 마지막 세그먼트에 대해 출력되는 업데이트 영역을 맵에서의 종착지로 사용하는 단계를 포함한다.
제3 측면으로, 명령이 저장되어 있는 비일시적 컴퓨터 판독가능 저장매체를 제공하는바, 여기서, 당해 명령은 프로세서에 의해 실행되어 조작을 수행하는바, 당해 조작은, 텍스트의 N개의 세그먼트를 획득하는 단계 - 상기 N은 1보다 큰 정수임 - ; 텍스트의 N개의 세그먼트 간의 문법관계에 기반하여 N개의 세그먼트의 재귀순서를 결정하는 단계; N개의 세그먼트 중의 각각에 대하여, 세그먼트의 의미에 기반하여 복수의 모델 중에서 매칭 모델을 선택하는 단계 - 각 세그먼트의 매칭 모델은 모두 입력 텍스트 및 맵의 입력 영역을 입력으로 사용하고, 입력 텍스트의 의미 및 입력 영역에 기반하여 맵의 업데이트 영역을 출력함 - ; 재귀순서에 따라, 각 세그먼트를, 맵의 초기 영역이나 또는 매칭 모델에 의하여 재귀순서에서의 당해 세그먼트의 바로 전의 세그먼트에 대해 출력되는 업데이트 영역과 함께, 당해 세그먼트의 매칭 모델에 입력하는 단계; 및 매칭 모델에 의하여 재귀순서에서의 마지막 세그먼트에 대해 출력되는 업데이트 영역을 맵에서의 종착지로 사용하는 단계를 포함한다.
제4 측면으로, 매체에 저장된 컴퓨터 프로그램을 제공하는바, 상술한 프로그램이 프로세서에 의해 실행되는 경우, 제1 측면에 따른 방법이 구현된다.
아래, 첨부도면을 결부한 상세한 서술에서, 본 개시의 실시방식의 상술한 및 다른 특징, 이점 및 측면은 더욱 분명해질 것이다. 첨부도면에서, 같거나 또는 유사한 도면부호는 같거나 또는 유사한 소자를 나타낸다.
도1은 본 개시의 일부 실시방식에 따른 맵 상의 종착지를 결정하는 방법의 흐름도이고;
도2는 본 개시의 일부 실시방식에 따른 세그멘트의 재귀순서를 결정하는 구현방식의 개략도이고;
도3은 텍스트 세그멘트 각각을 매칭 모델에 입력하는 구현방식의 개략도이고;
도4는 텍스트 세그멘트 각각을 매칭 모델에 입력하는 응용 예시의 개략도이고;
도5는 본 개시의 일부 다른 실시방식에 따른 맵 상의 종착지를 결정하는 방법의 흐름도이고;
도6은 본 개시의 일부 실시방식에 따른 복수의 모델의 업데이트 함수에 대한 시멘틱 도해의 개략도이고;
도7은 본 개시의 일부 실시방식에 따른 텍스트 세그멘트에 대해 계산을 수행하는 개략도이고;
도8은 맵 상의 종착지를 결정하는 방법의 응용 시나리오이고;
도9는 본 개시의 일부 실시방식에 따른 맵 상의 종착지를 결정하는 기기의 개략도이다.
아래, 첨부도면 및 실시방식을 결부하여 본 개시를 나아가 상세히 서술하고자 한다. 여기서 서술하는 구체적인 실시방식은 관련되는 개시내용을 해석하기 위한 것이지 본 개시의 내용을 한정하기 위한 것이 아님을 이해하여야 한다. 또한, 서술의 편의를 위해, 첨부도면에는 관련 개시 내용에 연관되는 부품만을 도시하였음을 유의하여야 한다.
본 개시 중의 실시방식 및 실시방식 중의 특징들은 상충되지 않은 한 상호 결합이 가능하다는 점 또한 유의하여야 한다. 아래, 첨부도면을 참조하고 실시방식을 결부하여 본 개시를 상세히 서술하고자 한다.
대다수의 현재 로봇 언어 주소지정 알고리즘(robot language addressing algorithm)은 고정적인 씬(fixed scene)을 위한 제한적인 전략세트(limited strategy set)를 유지관리하고, 대량의 훈련을 통해 이미지 또는 지리 정보와 자연어 간의 매핑을 구축한다. 종래 기술은 대부분 신경망의 학습능력을 이용하여 대량의 데이터로부터 언어와 목표 위치 간의 매핑관계를 기억한다. 이러한 방법은 언어의 구조를 충분히 이용하지 못하고, 자연어로된 종착지 서술에 대한 추론 성질(inference nature)은 간과한다. 단점으로는 데이터에 대한 방대한 수요, 기록되지 않은 언어 구조에 대한 범용성(universality)의 결여 및 추리(reasoning)가 필요한 위치에 대한 서술을 이해하기 어려운 점을 포함하는바, 이는 로봇을 제어함에 있어서 불편함을 초래하게 된다.
도1은 본 개시의 일부 실시방식에 따른 맵 상의 종착지를 결정하는 방법의 흐름도이다. 당해 방법은 단계(101) 내지 단계(105)를 포함한다.
단계(101)는 텍스트의 N개의 세그먼트를 획득하는 단계를 포함하고, 여기서 N은 1보다 큰 정수이다.
일부 실시방식에서, 사용자 입력에 기반하여 텍스트를 획득한다. 사용자 입력은 기계나 컴퓨터가 수신할 수 있는 임의 입력일 수 있다. 일부 실시방식에서, 사용자 입력은 보이스, 키보드 입력, 센서 입력 또는 터치 스크린 입력 중의 적어도 하나를 포함한다.
일부 실시방식에서, N개의 세그먼트는 위치를 지시하는 세그멘트와 위치 관계를 지시하는 세그멘트를 포함한다.
일부 실시방식에서, 사용자가 "북측 출구 근처의 미팅룸으로 가요"라고 하면, 로봇이 보이스를 수신하여 보이스에서 텍스트 북측 출구 근처의 미팅룸으로 가요"를 획득한다. 일부 실시방식에서, 텍스트에 대해 시맨틱 분석을 수행하여 위치 서술에 대한 텍스트를 획득하는바, 예를 들면 "북측 출구 근처의 미팅룸"이다. 다음, 텍스트의 복수의 세그멘트를 획득하는바, 즉 명사 세그멘트(예를 들면 "미팅룸"과"북측 출구") 및 전치사 세그먼트(예를 들면 "근처")가 있다.
단계(102)는 텍스트의 N개의 세그먼트 간의 문법관계에 기반하여 N개의 세그먼트의 재귀순서를 결정하는 단계를 포함한다.
일부 실시방식에서, 단계(102)는 도2에 도시한 바와 같은 단계(1021) 및 단계(1022)를 포함한다. 단계(1021)는 N개의 세그먼트에서, 전치사 세그먼트 앞의 주명사(head noun) 세그먼트, 전치사 세그먼트 및 전치사 세그먼트의 목적어 세그먼트를 결정하는 단계를 포함한다.
일부 실시방식에서, 자연어 처리(NLP) 툴을 사용하여 텍스트를 헤드워드(head words)(uh), 전치사(uprep0) 및 전치사의 목적어(upobj)를 가지는 의존 구조로 파싱한다.
단계(1022)는 전치사 세그먼트 앞의 주명사를 재귀순서에서의 제1 세그먼트로 결정하고, 전치사 세그먼트를 재귀순서에서의 제2 세그먼트로 결정하고, 목적어 세그먼트를 재귀순서에서의 제3 세그먼트로 결정하는 단계를 포함한다.
단계(103)는 N개의 세그먼트 중의 각각에 대하여, 각 세그먼트의 의미에 기반하여 복수의 모델 중에서 매칭 모델을 선택하는 단계를 포함하고, 여기서, 각 세그먼트의 매칭 모델은 모두, 입력 텍스트 및 맵의 입력 영역을 입력으로 사용하고 입력 텍스트의 의미 및 입력 영역에 기반하여 맵의 업데이트 영역을 출력한다.
일부 실시방식에서, 복수의 모델은 제1 유형 모델과 제2 유형 모델을 포함하고, 여기서, 제1 유형 모델은 제1 맵 영역 및 위치를 지시하는 제1 유형 텍스트를 입력으로 사용하여 제1 맵 영역 내의 제1 업데이트 영역을 출력하고, 여기서, 제2 유형 모델은 제2 맵 영역, 및 상기 위치 관계를 지시하는 제2 유형 텍스트을 입력으로 사용하여 제2 맵 영역 및 위치 관계를 기반으로 제2 업데이트 영역을 출력한다.
일부 실시방식에서, 위치 관계(position relationship)는 근접관계(proximity relationship)를 포함하고, 제2 유형 모델은 근접 모델(proximity-model)을 포함하고 , 당해 근접 모델은 제2 맵 영역 및 근접관계를 지시하는 제2 유형 텍스트를 입력으로 사용하여 제2 맵 영역에 근접되는 제2 업데이트 영역을 출력한다.
일부 실시방식에서, 위치 관계는 방향 관계를 포함하고, 제2 유형 모델은 방향 모델을 포함하고, 당해 방향 모델은 제2 맵 영역 및 방향 관계를 지시하는 제2 유형 텍스트를 입력으로 사용하여 제2 맵 영역의 방향으로 제2 업데이트 영역을 출력한다.
일부 실시방식에서, 전치사 세그먼트 앞의 명사 세그멘트, 전치사 세그먼트 및 목적어 명사 세그멘트에 매칭되는 모델은 각각 하기 등식을 사용할 수 있다.
Figure pat00001
여기서,
Figure pat00002
는 θ를 파라미터로 하는 그라운딩 함수(grounding function)를 나타내고, b0는 더미 신뢰(dummy belief) 또는 전체 맵(m)에 걸친 초기 분포를 나타낸다. 일부 실시방식에서, 등식(1)과 등식(3)은 동일한 함수를 공유한다.
단계(104)는, 재귀순서에 따라, 각 세그먼트를, 맵의 초기 영역이나 또는 매칭 모델에 의하여 재귀순서에서의 당해 세그먼트의 바로 전의 세그먼트에 대해 출력되는 업데이트 영역과 함께, 각 세그먼트의 매칭 모델에 입력하는 단계를 포함한다.
일부 실시방식에서, 단계(104)는 도3에 도시한 바와 같은 단계(1041)와 단계(1042)를 포함한다.
단계(1041)는 재귀순서에서의 제1 세그먼트 및 맵의 초기 영역을 제1 세그먼트의 매칭 모델에 입력하여 제1 업데이트 영역을 획득하는 단계를 포함한다.
단계(1042)는 재귀순서에서의 제2 세그먼트 내지 제N 세그먼트 중의 각각에 대하여, 당해 세그먼트 및 매칭 모델에 의하여 재귀순서에서의 당해 세그먼트의 바로 전의 세그먼트에 대해 출력되는 업데이트 영역을 당해 세그먼트의 매칭 모델에 입력하여 당해 세그먼트를 위한 업데이트 영역을 획득하는 단계를 포함한다.
도4는 단계(104)의 응용 예시를 도시한다. 도4에서, 등식(1)에서 정의한 바와 같이, 제1 세그먼트 "북축 출구"를 맵의 초기 영역과 함께 제1 모델에 입력한다. 다음, 등식(2)에서 정의한 바와 같이, 제2 세그먼트 "근처" 를 제1 모델의 출력과 함께 제2 모델에 입력한다. 마지막으로, 등식(3)에서 정의한 바와 같이, 제3 세그먼트 "미팅룸"을 제2 모델의 출력과 함께 제3 모델에 입력한다.
단계(105)는 재귀순서에 따른 마지막 세그먼트를 위한 매칭 모델에 의해 출력된 업데이트 영역를 맵에서의 종착지로 하는 단계를 포함한다.
일부 실시방식에서, 도4의 제3 모델의 출력을 종착지로 사용한다. 일부 실시방식에서, 맵의 좌표는 로봇에 의해 맵 상의 종착지에 기반하여 결정되고, 다음, 로봇이 로봇의 현재 위치에서 맵의 좌표까지의 경로를 계획하고, 계획한 경로를 따라 이동한다.
본 개시의 일부 실시방식에 따른 방법은 자연어의 구조 특징을 최대한 이용하고, 명령 구조에 따라 온전한 주소지정 태스크(complete addressing task)를 복수의 독립된 언어 이해 태스크(several independent language understanding tasks)로 분할하고, 추출된 정보를 확률분포의 형식으로 송신한다. 초기 상태에서, 목표 확률은 전체 맵 범위 내에 균일하게 분포된다. 확률분포는 독립된 언어에 의해 하나 하나씩(one by one) 이해되거나 업데이트되고, 최종적인 목표 위치를 가리키게 된다.
본 개시의 일부 실시방식에 따른 방법은 해석이 가능하고, 최적화가 용이하며 필요한 데이터가 보다 적은 특징을 가진다. 본 개시의 일부 실시방식에 따른 방법을 이용하면, 맵에서의 종착지의 좌표는 로봇에 의해 사용자의 입력을 기반으로 용이하게 결정될 수 있고, 따라서 사용자를 도와 로봇을 제어할 수 있다.
도5는 본 개시의 일부 다른 실시방식에 따른 맵 상의 종착지를 결정하는 방법의 흐름도이다. 당해 방법은 단계(501) 내지 단계(505)를 포함한다.
단계(501)는 텍스트의 N개의 세그먼트를 획득하는 단계를 포함하고, 당해 N개의 세그먼트는 위치를 지시하는 세그멘트, 방향을 지시하는 세그멘트, 근접을 지시하는 세그멘트 및 아무런 위치 또는 아무런 위치 관계도 지시하지 않는 세그멘트를 포함한다.
단계(502)는 텍스트의 N개의 세그먼트 간의 문법관계에 기반하여 N개의 세그먼트의 재귀순서를 결정하는 단계를 포함한다. 단계(502)는 단계(102)와 같으므로, 관련 서술은 단계(102)의 서술을 참조할 수 있다.
단계(503)는 N개의 세그먼트 중의 각각에 대하여 매칭 모델을 선택하는 단계를 포함하고, 당해 선택 단계는 제1 유형 모델을 위치를 지시하는 세그멘트를 위한 매칭 모델로 선택하는 단계, 방향 모델을 방향을 지시하는 세그멘트를 위한 매칭 모델로 선택하는 단계, 근접 모델을 근접을 지시하는 세그멘트를 위한 매칭 모델로 선택하는 단계, 및 제3 유형 모델을 아무런 위치 또는 아무런 위치 관계도 지시하지 않는 세그멘트를 위한 매칭 모델로 선택하는 단계를 포함한다.
본 개시의 아래 서술에서, 텍스트의 세그멘트는 수식어(modifier)로 지칭되기도 하고, 모델의 입력 및 출력은 사전(prior) 및 사후(posterior)로 지칭되기도 한다. 표I는 일부 실시방식에 따른 제1 유형 모델(즉 정밀 모델(precise model)), 근접 모델, 방향 모델 및 제3 유형 모델(즉 더미 모델(dummy model)) 및 그 사용가능한 입력, 출력 및 규칙의 예시를 도시한다.
표I
업데이트 유형
Figure pat00003
일부 실시방식에서, 등식(1) 내지 (3)은 보편적 신뢰 업데이트의 연쇄(a chain of general belief updates)로 통합되고 간주된다.
Figure pat00004
여기서, k는 upobj과 uprep의 총량을 가리킨다. 일부 실시방식에서, 텍스트는 문법적으로 관련되는 세그멘트(uk)들의 시퀀스로 분할되고 이들 각각은 신뢰b의 개념(notion)을 업데이트하는 데 재귀적으로 응용된다.
일부 실시방식에서, 학습가능 함수 세트
Figure pat00005
와 분류기
Figure pat00006
를 구축한다. 등식(4) 중의 업데이트 함수는 하기와 같이 작성될 수 있다.
Figure pat00007
여기서,
Figure pat00008
는 지시자 함수(indicator function)이다. 분류기(c)는 신경망으로 표시되고, 하기와 같이 정의된다.
Figure pat00009
여기서,
Figure pat00010
는 게이트 순환 유닛(gated recurrent unit, GRU)층에 의한 은닉 상태 추출(hidden state extraction)을 나타내고, Wc는 GRU 은닉 상태를 원 분류 가중(raw classification weights)에 매핑하는 선형층의 가중을 가리킨다. 도6은 본 개시의 일부 실시방식에 따른 복수의 모델의 업데이트 함수에 대한 시멘틱 도해를 도시한다. 정밀 모델, 방향 모델, 근접 모델 및 더미 모델의 업데이트 함수에 대한 서술은 하기와 같다.
정밀 모델(Precise model)
일부 실시 방식에서, 맵 (m ∈ M)은 관심 구역 세트
Figure pat00011
로 분할되고, 이들 각각이 맵 경계(B0) 내에 경계(boundary) (Bi)를 가진다. 각 구역
Figure pat00012
은 자주 언급되는 문자열의 튜플에 연관되는바, 예를 들면 가능한, 유일 구역 id(unique area id), 구역 카테고리(area category) 및 구역 명칭(area name if applicable)이 있고, 가장 많이는 N개 단어가 각 관심 구역에 할당된다.
일부 실시방식에서, 구역 정보 중의 각 단어를 고정적인 길이 임베딩으로 변환하고, 길이 임베딩을 연접한다. 결과로는 맵 정보에 대한 행렬 표현이고
Figure pat00013
로 표시된다. S는 관심 구역의 수량이고, N은 구역 서술자(area descriptors) 중의 토큰의 수량을 가리킨다. H는 단어 임베딩의 차원수이다. 일부 실시방식에서, 수식어(uk)는 임베딩 행렬
Figure pat00014
로 인코딩된다. 일부 실시방식에서, 정밀 모델은 S레벨의 분류 문제로 형성되고, 이는 맵 중의 모든 구역들에 정의되는 이산분포(wk)를 생성한다. 각각의 구역(
Figure pat00015
)에 대한 계산은 하기와 같다.
Figure pat00016
여기서
Figure pat00017
Figure pat00018
는 하기와 같이 해석되는 방향성 스케일링 인자(directional scaling factor), 수식어-맵 어텐션(modifier-map attention) 및 사전 가중(prior weights)을 표시하고,
Figure pat00019
는 정규화 인자(normalization factor)를 가리킨다. 다음, wk(i)을 경계(Bi)에 의해 지시되는 맵 상의 구역으로 할당하고 전체 맵에서 정규화를 함으로써 완전 신뢰(full belief)(bk)를 복구한다.
Figure pat00020
의 사용은 방향을 헤드워드의 형용사로서 통용(common use)하는 것에 의해 트리거링된다(표I 참조). 등식은 하기와 같다.
Figure pat00021
여기서σ는 시그모이드 함수이고, xi는 구역
Figure pat00022
의 도심(Centroid)이고, B0는 맵의 경계이고, eαk는 예측된 방향
Figure pat00023
의 단위 방향성 벡터(the unit directional vector)이고,
Figure pat00024
Figure pat00025
는 uk에 방향이 사용되는지 여부를 지시(indicate)하는 훈련가능한 변수이고,
Figure pat00026
Figure pat00027
의 스케일링 파워(scaling power)를 조절하는 형태결정 인자(shaping factor)이고
Figure pat00028
는 양의 상수이다. 방향성 형용사가 사용되는 경우,
Figure pat00029
는 1로 레이블링되어 지수의 형태로
Figure pat00030
을 나타내는바, 당해 지수 형태의
Figure pat00031
는 각 구역
Figure pat00032
의 도심의 예측방향의 투영으로 각 구역(
Figure pat00033
)을 가중한다.
Figure pat00034
를 오프셋으로 추가하여 추가된 유연성을 제공한다. 방향 형용사에 관련되지 않을 경우,
Figure pat00035
를 0으로 레이블링하고, 모든
Figure pat00036
에 대하여
Figure pat00037
Figure pat00038
에로 푸시하는바, 따라서 이러한 판별형 텀(this discriminative term)을 효과적으로 삭제한다. 등식(9)에서 xi와 bi이외의 모든 텀은 모든 구역 가중에 의해 공유되고, 아래와 같이 학습가능 함수에 의해 계산될 수 있다.
Figure pat00039
여기서,
Figure pat00040
는 GRU층에 의해 추출된 은닉 상태이고,
Figure pat00041
는 스칼라 출력을 생성하는 선형층의 가중이다.
등식(8) 중의 어텐션 텀(attention term)
Figure pat00042
은 다음과 같다.
Figure pat00043
여기서,
Figure pat00044
는 정규화 인자이고,
Figure pat00045
는 구역
Figure pat00046
에 할당된 j번째 단어 임베딩이고,
Figure pat00047
는 수식어
Figure pat00048
중의 l번째 단어 임베딩을 가리킨다. 당해 텀(term)은 사전정의된 구역 정보와 수식어(
Figure pat00049
)간의 매칭 단어 쌍을 카운팅함으로써 각 구역(
Figure pat00050
)에 대하여 가중한다. 역치(
Figure pat00051
)에 의해 정규화된 임베딩 내적을 필터링함으로써 단어 매칭을 검사한다.
마지막으로, 구역 사전(area prior)(
Figure pat00052
)은 사전 신뢰(prior belief)로부터 각 구역(
Figure pat00053
)의 가중을 모음(gather)으로써 산출된는바, 하기한 바와 같다.
Figure pat00054
여기서u, v는 맵 좌표를 가리키고 ηk-1은 정규화 인자(normalization factor)이다.
근접 모델(Proximity model)
근접관계에 관련되는 전치사가 존재하는 경우, 사후(posterior)는 사전(prior)을 중심으로 하는 가우스 분포로 나타나고, 사전 구역 사이즈(prior area size)와 비례하는 분산(variance)이 할당된다. 이때, 업데이트 함수는 다음으로 표시된다.
Figure pat00055
여기서, xk-1와 |Bk-1|은 사전(prior)(bk-1)에 의해 지시되는 구역의 도심 좌표(centroid coordinate) 및 사이즈이고, ρ는 스케일링 상수이다.
방향성 모델(Directional model)
형용사로 사용되는 외에, 방향 단어(예를 들어 "북")는 직접 헤드워드로 사용되기도 하는바, 예를 들어, "미팅룸(202)의 북측"이다. 일부 실시방식에서, 가우스분포를 사용하여 사전(prior)을 나타내는데, 당해 분포에는
Figure pat00056
에 일치되는 신뢰만을 보존하는 추가 마스크가 설치된다. 도6에 도시한 바를 참조하여 설명한다. 업데이트 함수는 하기와 같이 표시될 수 있다.
Figure pat00057
여기서, eαk은 유효 방향(valid direction)(αk)의 단위 방향 벡터(unit direction vector)이다. Nk-1는 등식(13)에서와 동일한 형식을 적용한다.
Figure pat00058
은 코사인 유사도(cosine similarity)이다. 일부 실시방식에서, αk는 하기와 같이, 등식(10)과 유사하게, 학습가능 변수로 표시된다.
Figure pat00059
더미 모델(Dummy model)
일부 실시방식에서, 더미 모델 함수는 아이덴티컬 매핑(identical mapping)이다.
일부 실시방식에서, 역전파를 통해 유형-특이적(type-specific) 손실을 최소화함으로써 학습가능 함수를 훈련시킨다. 일부 실시방식에서, 훈련을 위한 맵은 일반적인 작업 구역, 미팅룸 및 엔터테인먼트 구역과 같은 지정 구역으로 구성되는 사무실의 평면도이다. 일부 실시방식에서, 룸 및 지정 구역과 같은 기존 공간 구조를 재사용하는 외에, 복도와 같은 일반적인 공용공간도 세그멘트된다. 일부 실시방식에서, 전체 맵을 지정 속성을 가지는 80개 구역으로 세그멘트한다. 요약된 구역 속성은 표II를 참조할 수 있다.
표II
구역속성 및 수식어 딕셔너리
Figure pat00060
각각의 업데이트 유형(t)에 대하여, K=10개 수식어(u)는 사전정의된 딕셔너리(표II 참조)에 따라 무작위로 생성된 것이고, 각 구역(
Figure pat00061
)을 키 구역(key area)으로 한다.
일부 실시방식에서, 3200개의 업데이트 샘플이 훈련에 사용된다. 각 업데이트 함수에 대해 에선셜(essential) 훈련샘플을 생성하는 과정은 하기한 바와 같다.
더미 모델에 대하여: 사전 신뢰 및 사후 신뢰(prior and posterior believes)를 생략하고, 각 훈련샘플은 모두 유형 라벨(type label)
Figure pat00062
를 가지는 개체(singleton)(
Figure pat00063
) 이다.
근접 모델(proximity model)에 대하여: 사전(prior)(b0)은 키 구역 내에 균일하게 분포되고, 사후(posterior)(b1)는 키 구역을 중심으로 하는 가우스 분포이고, 그 표준편차(standard deviation)는 키 구역 사이즈에 비례한다. 각 훈련샘플은 모두 유형 태그
Figure pat00064
를 가지는 튜플(b0, b1,
Figure pat00065
) 이다.
방향 모델(directional model)에 대하여: 사전(prior)(b0)은 키 구역 내에 균일하게 분포하고, 균일한
Figure pat00066
로부터 방향각(direction angle)(
Figure pat00067
)을 샘플링하고 근접 업데이트에서와 유사하게 가우시안을 취급하여 사후(posterior)(b1)를 생성하는데,
Figure pat00068
가 나타내는 방향에 수직되는 분할 라인(dividing line)을 이용하여 이의 절반을 마스크 아웃(mask out)한다. 마지막으로,
Figure pat00069
에 기반하여 수식어(
Figure pat00070
)를 결정한다. 각 훈련샘플은 모두 유형 라벨
Figure pat00071
를 가지는 튜플(
Figure pat00072
)이다.
정밀 모델(precise model)에 대하여: 우선 사전(prior)(b0)을 무작위로 생성하여 키 구역 기반의 근접이나 방향 업데이트의 출력으로 한다. 다음, b0로부터 맵 위치를 샘플링하고 대다수 샘플링의 위치가 속하게 되는 Top 2 구역a1, a2 를 선택한다. 다음, 최소 규칙 집합(minimal rule set)에 기반하여 a1을 유일하게 위치결정(uniquely locates)하는 수식어(uk)(표III 참조, 괄호(brackets)는 사용옵션(optional usage)을 지시함)를 생성한다. 또한, 방향 단어가 형용사인 경우,
Figure pat00073
는 1로 레이블링되고 아닌 경우 0으로 레이블링된다. 사후(posterior)(b1)는 a1내에 균일하게 분포된다. 각 훈련샘플은 모두 유형 태그
Figure pat00074
를 가지는 튜플
Figure pat00075
이다.
표III
수식어 생성원칙
Figure pat00076
등식(6)에서 설정된 업데이트 함수 집합은, 각 업데이트 함수 유형에 적용가능한 모든 지도 텀(supervised terms)의 전체 손실을 최소화시키는 것을 통하여 훈련된다. 모든 지도 텀의 손실은 다음과 같이 정의된다. 분류기(c)에 대하여, 크로스 엔트로피 손실(Lc)은 다음과 같이 사용된다.
Figure pat00077
Figure pat00078
에 대하여, 한계 l2 손실 (marginal l2 loss)은 다음과 같이 사용된다.
Figure pat00079
지시자
Figure pat00080
에 대하여, 크로스 엔트로피 손실(
Figure pat00081
)은 다음과 같이 사용된다.
Figure pat00082
일부 실시방식에서, 훈련 단계에서, 10%의 데이터를 테스트 집합으로 하고, 나머지 샘플을 훈련시킨다. 각 단어에 대해 Bert베딩을 각각 사용하여 텍스트 명령을 인코딩하여 길이가 H=768인 단어 임베딩을 생성한다. 일부 실시방식에서, GRU은닉의 사이즈는 8로 설정하고 1e-4학습속도를 가지는 Adam을 사용하여 10개 에포크를 최적화한다.
일부 실시방식에서, 각 신뢰 업데이트에서, 입력은 사전-수식어 튜플(prior-modifier tuple)(b0, u)이고, 상술한 바와 같이, 각 입력 튜플은 그라운드 실제 업데이트 유형(ground true update type)(
Figure pat00083
) 및 필요한 출력 텀과 쌍을 이룬다.
단계(504)는 재귀순서에 따라 N개의 세그먼트 중의 각 세그먼트를 매칭 모델에 입력하는 단계를 포함하고, 여기서, N개의 세그먼트 중의 각각은 맵의 초기 영역 또는 매칭 모델에 의하여 재귀순서에서의 당해 세그먼트의 바로 전의 세그먼트에 대해 출력되는 업데이트 영역를 가진다.
도7은 텍스트 세그멘트에 대해 계산을 수행하는 개략도를 도시한다.
단계(505)는 매칭 모델에 의해 재귀순서에서의 마지막 세그멘트에 의해 출력된 업데이트 영역을 맵에서의 종착지로 사용하는 단계를 포함한다.
단계(505)는 단계(105)와 같으므로, 관련 서술은 단계(105)의 서술을 참조할 수 있다.
도8은 맵 상의 종착지를 결정하는 방법의 응용 시나리오를 도시한다. 로봇의 스피커에 의해 사용자한테 내비게이팅 명령을 서술할 것을 요구한다. 응답으로, 사용자는 "엔터테인먼트 구역 근처의 북측 전화 룸으로 가주세요"라고 말한다. 로봇은 마이크로폰을 통해 사용자의 보이스를 수신하여 보이스를 텍스트로 전환한 후, 본 개시의 일부 실시방식에 따른 방법을 사용하여 텍스트를 기반으로 맵 상의 종착지를 결정한다. 종착지가 결정된 후, 로봇은 현재 위치에서 종착지까지의 경로를 계획하고 카메라와 센서를 사용하여 계획한 경로를 따라 이동한다.
도9에 도시한 바와 같이, 기기는 하나 또는 복수의 프로세서(901), 메모리(902), 및 각 부품을 연결하는 인터페이스를 포함하는바, 고속 인터페이스와 저속 인터페이스가 포함된다. 각 부품은 부동한 버스를 이용하여 서로 연결되고 공용 메인기판에 장착되거나 또는 필요에 따라 기타의 방식으로 장착될 수 있다. 프로세서는 기기 내에서 실행되는 명령을 처리할 수 있는바, 메모리 내에 또는 메모리 위에 저장되어 외부 입력/출력 장치(예를 들어 인터페이스에 커플링되는 디스플레이 기기)에 그래픽 유저 인터페이스(Graphical User Interface, GUI)의 그래픽 정보를 표시하는 명령이 포함된다. 다른 실시방식에서, 필요하다면, 복수의 프로세서 및/또는 복수의 버스를 복수의 메모리와 함께 사용할 수 있다. 유사하게, 복수의 전자 기기를 연결할 수 있는바, 각 기기는 일부 필요한 동작을 제공한다 - 예를 들어 서버 어레이, 한 그룹의 블레이드 서버 또는 멀티프로세서 시스템으로서 - . 도4는 하나의 프로세서(901)를 사용하는 경우를 예시한다.
메모리(902)는 본 개시에 의해 제공되는 비일시적 컴퓨터 판독가능 저장매체이다. 메모리는 적어도 하나의 프로세서에 의해 실행될 수 있는 명령을 저장하는바, 당해 명령은 적어도 하나의 프로세서에 의해 본 개시에 따른 실시방식의 맵 상의 종착지를 결정하는 방법이 수행되도록 한다. 본 개시의 비일시적 컴퓨터 판독가능 저장매체는 컴퓨터 명령을 저장하고, 당해 명령은 컴퓨터에 의해 본 개시에 따른 실시방식의 맵 상의 종착지를 결정하는 방법이 수행되도록 한다.
메모리(902)는 비일시적 컴퓨터 판독 가능 저장 매체로서, 비일시적 소프트웨어 프로그램, 비일시적 컴퓨터 실행 가능 프로그램 및 모듈, 예를 들면 본 출원의 실시예의 맵 상의 종착지를 결정하는 방법에 대응되는 프로그램 명령/모듈을 저장할 수 있는바, 예를 들면 도6에 도시한 수신 유닛(601)과 예측 유닛(602)이 있다. 프로세서(901)는 메모리(902)에 저장되는 비일시적 소프트웨어 프로그램, 명령 및 모듈을 실행함으로써 서버의 다양한 기능 응용 및 데이터 처리를 실행하는바, 즉 상술한 방법 실시예의 맵 상의 종착지를 결정하는 방법을 구현한다.
메모리(902)는 프로그램 저장 영역과 데이터 저장 영역을 포함할 수 있는바, 여기서, 프로그램 저장 영역은 운영 체제, 적어도 하나의 기능에 있어서 필요한 응용 프로그램을 저장할 수 있고, 데이터 저장 영역은 맵 상의 종착지를 결정하는 방법에 따른 전자 기기의 사용에 따라 구축되는 데이터 등을 저장할 수 있다. 이 외에도 메모리(902)는 고속 랜덤 액세스 메모리를 포함할 수도 있고, 비일시적 메모리, 예를 들어 적어도 하나의 자기 디스크 저장 장치, 플래시 메모리 장치 또는 다른 비일시적 고체 상태 저장 장치를 더 포함할 수도 있다. 일부 실시예에서, 메모리(902)는 선택적으로 프로세서(901) 대비 원격 설치되는 메모리를 포함할 수 있고, 이러한 원격 메모리는 네트워크를 통해 본 실시예의 맵 상의 종착지를 결정하는 방법을 구현하는 전자 기기에 연결될 수 있다. 상술한 네트워크의 실시예는 인터넷, 기업 내부 네트워크, 근거리 통신망, 이동 통신 네트워크 및 이들의 조합을 포함하나 이에 한정되지 않는다.
본 실시예의 맵 상의 종착지를 결정하는 방법을 구현하는 전자 기기는 입력 기기(903)와 출력 기기(904)를 더 포함할 수 있다. 프로세서(901), 메모리(902), 입력 장치(903) 및 출력 장치(904)는 버스 또는 다른 방식으로 연결될 수 있는바, 도9에서는 버스에 의한 연결을 예시한다.
입력 기기(903)는 입력되는 숫자 또는 캐릭터 정보를 수신하고, 본 실시예의 맵 상의 종착지를 결정하는 방법을 구현하는 전자 기기의 사용자 설정 및 기능 제어에 관련되는 키 신호 입력을 발생시킬 수 있는바, 예를 들면 터치 스크린, 숫자 키패드, 마우스, 트랙패드, 터치패드, 포인팅 스틱, 하나 또는 복수의 마우스 버튼, 트랙볼, 조종 스틱 등 입력 기기가 있다. 출력 기기(904)는 디스플레이 기기, 보조 조명장치, 예를 들어 발광 다이오드(Light Emitting Diode, LED; 및 촉각 피드백 장치, 예를 들어 진동 모터; 등을 포함할 수 있다. 당해 디스플레이 기기는 액정 디스플레이(Liquid Crystal Display, LCD), LED 디스플레이 및 플라즈마 디스플레이를 포함할 수 있으나, 이에 한정되지 않는다. 일부 실시 방식에서 디스플레이 기기는 터치 스크린일 수 있다.
위에서 제시한 다양한 형식의 과정을 적용하여 단계를 재정렬, 추가 또는 삭제할 수 있음을 이해하여야 한다. 예를 들어, 본 개시에 따른 각 단계는 병행으로 실행될 수도 있고, 순차로 실행될 수도 있고, 서로 다른 순서로 실행될 수도 있는바, 본 개시에서 개시하는 기술 방안에 대한 기대 효과를 구현할 수만 있으면 되며, 본 명세서는 이에 대해 한정하지 않는다.
상술한 구체적인 실시 방식은 본 출원의 보호 범위를 한정하지 않는다. 설계 요구와 기타 요소에 따른 다양한 수정, 조합, 서브 조합 및 치환이 가능하다는 점은 당업자에 있어서 자명할 것이다. 본 출원의 사상과 원칙 이내에 있는 임의의 수정, 등가적 치환 및 개량 등은 모두 본 출원의 보호 범위에 포함되어야 한다.

Claims (21)

  1. 맵 상의 종착지를 결정하는 방법으로서,
    텍스트의 N개의 세그먼트를 획득하는 단계 - 상기 N은 1보다 큰 정수임 - ;
    상기 텍스트의 상기 N개의 세그먼트 간의 문법관계에 기반하여 상기 N개의 세그먼트의 재귀순서를 결정하는 단계;
    상기 N개의 세그먼트 중의 각 세그먼트에 대하여, 상기 각 세그먼트의 의미에 기반하여 복수의 모델 중에서 매칭 모델을 선택하는 단계 - 상기 각 세그먼트의 매칭 모델은 모두 입력 텍스트 및 상기 맵의 입력 영역을 입력으로 사용하고, 상기 입력 텍스트의 의미 및 상기 입력 영역에 기반하여 상기 맵의 업데이트 영역을 출력함 - ;
    상기 재귀순서에 따라, 상기 각 세그먼트를, 상기 맵의 초기 영역이나 또는 상기 매칭 모델에 의하여 상기 재귀순서에서의 상기 각 세그먼트 전의 마지막 세그먼트에 대해 출력되는 업데이트 영역과 함께, 상기 각 세그먼트의 매칭 모델에 입력하는 단계; 및
    상기 매칭 모델에 의하여 상기 재귀순서에서의 마지막 세그먼트에 대해 출력되는 상기 업데이트 영역을 상기 맵에서의 종착지로 사용하는 단계를 포함하는,
    맵 상의 종착지를 결정하는 방법.
  2. 제1항에 있어서,
    상기 문법관계에 기반하여 상기 N개의 세그먼트의 재귀순서를 결정하는 단계는
    상기 N개의 세그먼트에서 전치사 세그먼트 앞의 주명사, 상기 전치사 세그먼트 및 상기 전치사 세그먼트의 목적어 세그먼트를 결정하는 단계; 및
    상기 주명사를 상기 재귀순서에서의 제1 세그먼트로 결정하고, 상기 전치사 세그먼트를 상기 재귀순서에서의 상기 제2 세그먼트로 결정하고, 및 상기 목적어 세그먼트를 상기 재귀순서에서의 상기 제3 세그먼트로 결정하는 단계를 포함하는,
    맵 상의 종착지를 결정하는 방법.
  3. 제1항에 있어서,
    상기 N개의 세그먼트는 위치를 지시하는 세그멘트와 위치 관계를 지시하는 세그멘트를 포함하고;
    상기 복수의 모델은 제1 유형 모델과 제2 유형 모델을 포함하고,
    상기 제1 유형 모델은,
    제1 맵 영역, 및 상기 위치를 지시하는 제1 유형 텍스트를 입력으로 사용하여 상기 제1 맵 영역 내의 제1 업데이트 영역을 출력하고;
    상기 제2 유형 모델은,
    제2 맵 영역, 및 상기 위치 관계를 지시하는 제2 유형 텍스트를 입력으로 사용하여 상기 제2 맵 영역 및 상기 위치 관계를 기반으로 제2 업데이트 영역을 출력하고;
    상기 재귀순서에 따라, 상기 각 세그먼트를, 상기 맵의 초기 영역이나 또는 상기 매칭 모델에 의하여 상기 재귀순서에서의 상기 각 세그먼트 전의 마지막 세그먼트에 대해 출력되는 업데이트 영역과 함께, 상기 각 세그먼트의 매칭 모델에 입력하는 단계는,
    상기 재귀순서에서의 제1 세그먼트 및 상기 맵의 초기 영역을 상기 제1 세그먼트의 매칭 모델에 입력하여 상기 제1 업데이트 영역을 획득하는 단계; 및
    상기 재귀순서에서의 제2 세그먼트 내지 제N 세그먼트 중의 상기 각 세그먼트에 대하여, 상기 각 세그먼트 및 상기 매칭 모델에 의하여 상기 재귀순서에서의 상기 각 세그먼트 전의 마지막 세그먼트에 대해 출력되는 상기 업데이트 영역을 상기 각 세그먼트의 매칭 모델에 입력하여 상기 각 세그먼트의 업데이트 영역을 획득하는 단계를 포함하는,
    맵 상의 종착지를 결정하는 방법.
  4. 제3항에 있어서,
    상기 위치 관계는 근접관계를 포함하고, 상기 제2 유형 모델은 근접 모델을 포함하고,
    상기 근접 모델은,
    상기 제2 맵 영역 및 상기 근접관계를 지시하는 상기 제2 유형 텍스트를 입력으로 사용하여 상기 제2 맵 영역에 근접되는 상기 제2 업데이트 영역을 출력하는,
    맵 상의 종착지를 결정하는 방법.
  5. 제4항에 있어서,
    상기 위치 관계는 방향 관계를 포함하고, 상기 제2 유형 모델은 방향 모델을 포함하고,
    상기 방향 모델은,
    상기 제2 맵 영역, 및 상기 방향 관계를 지시하는 상기 제2 유형 텍스트를 입력으로 사용하여 상기 제2 맵 영역의 방향으로 상기 제2 업데이트 영역을 출력하는,
    맵 상의 종착지를 결정하는 방법.
  6. 제5항에 있어서,
    상기 복수의 모델은 제3 유형 모델을 포함하고,
    상기 제3 유형 모델은,
    제3 맵 영역 및 제3 유형 텍스트를 입력으로 사용하여 상기 제3 맵 영역을 출력하고,
    상기 제3 유형 텍스트는 아무런 위치 또는 아무런 위치 관계도 지시하지 않는,
    맵 상의 종착지를 결정하는 방법.
  7. 제6항에 있어서,
    상기 텍스트의 N개의 세그먼트를 획득하는 단계는,
    상기 위치를 지시하는 상기 세그멘트, 방향을 지시하는 세그멘트, 근접을 지시하는 세그멘트 및 아무런 위치 또는 아무런 위치 관계도 지시하지 않는 세그멘트를 획득하는 단계를 포함하고,
    상기 N개의 세그먼트 중의 각 세그먼트에 대하여, 상기 각 세그먼트의 의미에 기반하여 상기 제1 유형 모델과 상기 제2 유형 모델을 포함하는 복수의 모델 중에서 매칭 모델을 선택하는 단계는,
    상기 제1 유형 모델을 상기 위치를 지시하는 상기 세그멘트의 매칭 모델로 선택하고, 상기 방향 모델을 상기 방향을 지시하는 상기 세그멘트의 매칭 모델로 선택하고, 상기 근접 모델을 근접을 지시하는 상기 세그멘트의 매칭 모델로 선택하고, 및 상기 제3 유형 모델을 아무런 위치 또는 아무런 위치 관계도 지시하지 않는 상기 세그멘트의 매칭 모델로 선택하는 단계를 포함하는,
    맵 상의 종착지를 결정하는 방법.
  8. 제3항에 있어서,
    상기 위치 관계는 방향 관계를 포함하고,
    상기 제2 유형 모델은 상기 방향 모델을 포함하고,
    상기 방향 모델은,
    상기 제2 맵 영역, 및 상기 방향 관계를 지시하는 상기 제2 유형 텍스트를 입력으로 사용하여 상기 제2 맵 영역의 방향으로 상기 제2 업데이트 영역을 출력하는,
    맵 상의 종착지를 결정하는 방법.
  9. 제3항에 있어서,
    상기 N개의 세그먼트 중의 각 세그먼트에 대하여, 상기 각 세그먼트의 의미에 기반하여 상기 제1 유형 모델과 상기 제2 유형 모델을 포함하는 복수의 모델 중에서 상기 매칭 모델을 선택하는 단계는,
    상기 각 세그먼트의 상기 의미에 기반하여, 분류기에 의해 상기 각 세그먼트의 유형을 결정하는 단계; 및
    상기 각 세그먼트의 유형 및 상기 모델의 유형에 기반하여 상기 N개의 세그먼트 중의 각 세그먼트의 매칭 모델을 결정하는 단계를 포함하는,
    맵 상의 종착지를 결정하는 방법.
  10. 제1항에 있어서,
    상기 방법은
    상기 맵에서의 종착지에 기반하여 로봇을 이동하도록 제어하는 단계를 더 포함하는,
    맵 상의 종착지를 결정하는 방법.
  11. 제1항에 있어서,
    사용자 입력에 기반하여 상기 텍스트를 획득하되, 상기 사용자 입력은 보이스, 키보드 입력, 센서 입력 또는 터치 스크린 입력 중의 적어도 하나를 포함하는,
    맵 상의 종착지를 결정하는 방법.
  12. 맵 상의 종착지를 결정하는 기기로서,
    하나 또는 복수의 프로세서; 및
    상기 하나 또는 복수의 프로세서에 의해 실행가능한 명령을 저장함으로써 상기 기기가 하기 조작을 수행하도록 하는 메모리를 포함하고,
    상기 조작은,
    텍스트의 N개의 세그먼트를 획득하 는것 - 상기 N은 1보다 큰 정수임 - ;
    상기 텍스트의 상기 N개의 세그먼트 간의 문법관계에 기반하여 상기 N개의 세그먼트의 재귀순서를 결정하는 것;
    상기 N개의 세그먼트 중의 각 세그먼트에 대하여, 상기 각 세그먼트의 의미에 기반하여 복수의 모델 중에서 매칭 모델을 선택하는 것 - 상기 각 세그먼트의 매칭 모델은 모두 입력 텍스트 및 상기 맵의 입력 영역을 입력으로 사용하고 상기 입력 텍스트의 의미 및 상기 입력 영역에 기반하여 상기 맵의 업데이트 영역을 출력함 - ;
    상기 재귀순서에 따라, 상기 각 세그먼트를, 상기 맵의 초기 영역이나 또는 상기 매칭 모델에 의하여 상기 재귀순서에서의 상기 각 세그먼트 전의 마지막 세그먼트에 대해 출력되는 업데이트 영역과 함께, 상기 각 세그먼트의 매칭 모델에 입력하는 것; 및
    상기 매칭 모델에 의하여 상기 재귀순서에서의 마지막 세그먼트에 대해 출력되는 상기 업데이트 영역을 상기 맵에서의 종착지로 사용하는 것을 포함하는,
    맵 상의 종착지를 결정하는 기기.
  13. 제12항에 있어서,
    상기 문법관계에 기반하여 상기 N개의 세그먼트의 재귀순서를 결정하는 것은
    상기 N개의 세그먼트에서 전치사 세그먼트 앞의 주명사, 상기 전치사 세그먼트 및 상기 전치사 세그먼트의 목적어 세그먼트를 결정하는 것; 및
    상기 주명사를 상기 재귀순서에서의 제1 세그먼트로 결정하고, 상기 전치사 세그먼트를 상기 재귀순서에서의 상기 제2 세그먼트로 결정하고, 및 상기 목적어 세그먼트를 상기 재귀순서에서의 상기 제3 세그먼트로 결정하는 것을 포함하는,
    맵 상의 종착지를 결정하는 기기.
  14. 제12항에 있어서,
    상기 N개의 세그먼트는 위치를 지시하는 세그멘트와 위치 관계를 지시하는 세그멘트를 포함하고;
    상기 복수의 모델은 제1 유형 모델과 제2 유형 모델을 포함하고,
    상기 제1 유형 모델은,
    제1 맵 영역, 및 상기 위치를 지시하는 제1 유형 텍스트를 입력으로 사용하여 상기 제1 맵 영역 내의 제1 업데이트 영역을 출력하고;
    상기 제2 유형 모델은,
    제2 맵 영역, 및 상기 위치 관계를 지시하는 제2 유형 텍스트를 입력으로 사용하여 상기 제2 맵 영역 및 상기 위치 관계를 기반으로 제2 업데이트 영역을 출력하고;
    상기 재귀순서에 따라, 상기 각 세그먼트를, 상기 맵의 초기 영역이나 또는 상기 매칭 모델에 의하여 상기 재귀순서에서의 상기 각 세그먼트 전의 마지막 세그먼트에 대해 출력되는 업데이트 영역과 함께, 상기 각 세그먼트의 매칭 모델에 입력하는 것은,
    상기 재귀순서에서의 제1 세그먼트 및 상기 맵의 초기 영역을 상기 제1 세그먼트의 매칭 모델에 입력하여 제1 업데이트 영역을 획득하는 것; 및
    상기 재귀순서에서의 제2 세그먼트 내지 제N 세그먼트 중의 상기 각 세그먼트에 대하여, 상기 각 세그먼트 및 상기 매칭 모델에 의하여 상기 재귀순서에서의 상기 각 세그먼트 전의 마지막 세그먼트에 대해 출력되는 상기 업데이트 영역을 상기 각 세그먼트의 매칭 모델에 입력하여 상기 각 세그먼트의 업데이트 영역을 획득하는 것을 포함하는,
    맵 상의 종착지를 결정하는 기기.
  15. 제14항에 있어서,
    상기 위치 관계는 근접관계를 포함하고,
    상기 제2 유형 모델은 근접 모델을 포함하고,
    상기 근접 모델은,
    상기 제2 맵 영역 및 상기 근접관계를 지시하는 상기 제2 유형 텍스트를 입력으로 사용하여 상기 제2 맵 영역에 근접되는 상기 제2 업데이트 영역을 출력하는,
    맵 상의 종착지를 결정하는 기기.
  16. 제14항에 있어서,
    상기 위치 관계는 방향 관계를 포함하고,
    상기 제2 유형 모델은 방향 모델을 포함하고,
    상기 방향 모델은,
    상기 제2 맵 영역, 및 상기 방향 관계를 지시하는 상기 제2 유형 텍스트를 입력으로 사용하여 상기 제2 맵 영역의 방향으로 상기 제2 업데이트 영역을 출력하는,
    맵 상의 종착지를 결정하는 기기.
  17. 제16항에 있어서,
    상기 복수의 모델은 제3 유형 모델을 포함하고,
    상기 제3 유형 모델은 제3 맵 영역 및 제3 유형 텍스트를 입력으로 사용하여 상기 제3 맵 영역을 출력하고,
    상기 제3 유형 텍스트는 아무런 위치 또는 아무런 위치 관계도 지시하지 않는,
    맵 상의 종착지를 결정하는 기기.
  18. 제17항에 있어서,
    상기 텍스트의 N개의 세그먼트를 획득하는 것은,
    상기 위치를 지시하는 상기 세그멘트, 방향을 지시하는 세그멘트, 근접을 지시하는 세그멘트 및 아무런 위치 또는 아무런 위치 관계도 지시하지 않는 세그멘트를 획득하는 것을 포함하고,
    상기 N개의 세그먼트 중의 각 세그먼트에 대하여, 상기 각 세그먼트의 의미에 기반하여 상기 제1 유형 모델과 상기 제2 유형 모델을 포함하는 복수의 모델 중에서 매칭 모델을 선택하는 것은,
    상기 제1 유형 모델을 상기 위치를 지시하는 상기 세그멘트의 매칭 모델로 선택하고, 상기 방향 모델을 상기 방향을 지시하는 상기 세그멘트의 매칭 모델로 선택하고, 상기 근접 모델을 근접을 지시하는 상기 세그멘트의 매칭 모델로 선택하고, 및 상기 제3 유형 모델을 아무런 위치 또는 아무런 위치 관계도 지시하지 않는 상기 세그멘트의 매칭 모델로 선택하는 것을 포함하는,
    맵 상의 종착지를 결정하는 기기.
  19. 제12항에 있어서,
    상기 조작은 상기 맵에서의 종착지에 기반하여 로봇을 이동하도록 제어하는 것을 더 포함하는,
    맵 상의 종착지를 결정하는 기기.
  20. 명령이 저장되어 있는 비일시적 컴퓨터 판독가능 저장매체로서,
    상기 명령은 프로세서에 의해 수행되어 상기 프로세서가 조작을 수행하게끔 할 수 있는바,
    상기 조작은,
    텍스트의 N개의 세그먼트를 획득하는 것 - 상기 N은 1보다 큰 정수임 - ;
    상기 텍스트의 상기 N개의 세그먼트 간의 문법관계에 기반하여 상기 N개의 세그먼트의 재귀순서를 결정하는 것;
    상기 N개의 세그먼트 중의 각 세그먼트에 대하여, 상기 각 세그먼트의 의미에 기반하여 복수의 모델 중에서 매칭 모델을 선택하는 것 - 상기 각 세그먼트의 매칭 모델은 모두 입력 텍스트 및 상기 맵의 입력 영역을 입력으로 사용하고 상기 입력 텍스트의 의미 및 상기 입력 영역에 기반하여 상기 맵의 업데이트 영역을 출력하는 것;
    상기 재귀순서에 따라, 상기 각 세그먼트를, 상기 맵의 초기 영역이나 또는 상기 매칭 모델에 의하여 상기 재귀순서에서의 상기 각 세그먼트 전의 마지막 세그먼트에 대해 출력되는 업데이트 영역과 함께, 상기 각 세그먼트의 매칭 모델에 입력하는 것; 및
    상기 매칭 모델에 의하여 상기 재귀순서에서의 마지막 세그먼트에 대해 출력되는 상기 업데이트 영역을 상기 맵에서의 종착지로 사용하는 것을 포함하는,
    비일시적 컴퓨터 판독가능 저장매체.
  21. 매체에 저장된 컴퓨터 프로그램으로서,
    상기 프로그램이 프로세서에 의해 실행되는 경우, 제1항 내지 제11항 중 어느 한 항의 방법이 구현되는 매체에 저장된 컴퓨터 프로그램.
KR1020210083626A 2020-12-30 2021-06-28 맵 상의 종착지를 결정하는 방법, 기기 및 저장매체 KR20210089604A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/138,380 US20220207235A1 (en) 2020-12-30 2020-12-30 Method, apparatus and storage medium for determining destination on map
US17/138,380 2020-12-30

Publications (1)

Publication Number Publication Date
KR20210089604A true KR20210089604A (ko) 2021-07-16

Family

ID=76522771

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210083626A KR20210089604A (ko) 2020-12-30 2021-06-28 맵 상의 종착지를 결정하는 방법, 기기 및 저장매체

Country Status (5)

Country Link
US (1) US20220207235A1 (ko)
EP (1) EP3872677A3 (ko)
JP (1) JP7198312B2 (ko)
KR (1) KR20210089604A (ko)
CN (1) CN113535869A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113672727A (zh) * 2021-07-28 2021-11-19 重庆大学 一种金融文本实体关系抽取方法及系统
CN116663938A (zh) * 2023-07-28 2023-08-29 珠海大横琴泛旅游发展有限公司 基于企业数据中台系统的信息化管理方法及其相关装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201306937D0 (en) 2013-04-17 2013-05-29 Tomtom Int Bv Methods, devices and computer software for facilitating searching and display of locations relevant to a digital map
US10073834B2 (en) * 2016-02-09 2018-09-11 International Business Machines Corporation Systems and methods for language feature generation over multi-layered word representation
CN106528526B (zh) * 2016-10-09 2019-05-28 武汉工程大学 一种基于贝叶斯分词算法的中文地址语义标注方法
CN108304411B (zh) * 2017-01-13 2020-08-18 中国移动通信集团辽宁有限公司 地理位置语句的语义识别方法和装置
US11151992B2 (en) * 2017-04-06 2021-10-19 AIBrain Corporation Context aware interactive robot
CN110928302A (zh) * 2019-11-29 2020-03-27 华中科技大学 一种人机协同自然语言空间导航方法及系统
CN111859060A (zh) 2020-01-10 2020-10-30 北京嘀嘀无限科技发展有限公司 一种信息查询方法、装置、电子设备和可读存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113672727A (zh) * 2021-07-28 2021-11-19 重庆大学 一种金融文本实体关系抽取方法及系统
CN113672727B (zh) * 2021-07-28 2024-04-05 重庆大学 一种金融文本实体关系抽取方法及系统
CN116663938A (zh) * 2023-07-28 2023-08-29 珠海大横琴泛旅游发展有限公司 基于企业数据中台系统的信息化管理方法及其相关装置
CN116663938B (zh) * 2023-07-28 2023-12-12 珠海大横琴泛旅游发展有限公司 基于企业数据中台系统的信息化管理方法及其相关装置

Also Published As

Publication number Publication date
CN113535869A (zh) 2021-10-22
JP2022006166A (ja) 2022-01-12
US20220207235A1 (en) 2022-06-30
JP7198312B2 (ja) 2022-12-28
EP3872677A3 (en) 2022-01-05
EP3872677A2 (en) 2021-09-01

Similar Documents

Publication Publication Date Title
JP7317791B2 (ja) エンティティ・リンキング方法、装置、機器、及び記憶媒体
KR102504699B1 (ko) 엔티티 링킹 방법, 장치, 기기, 저장 매체 및 컴퓨터 프로그램
JP7166322B2 (ja) モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム
EP3549069B1 (en) Neural network data entry system
WO2021233112A1 (zh) 基于多模态机器学习的翻译方法、装置、设备及存储介质
US11797822B2 (en) Neural network having input and hidden layers of equal units
KR20220043824A (ko) 문자 구조화 추출 방법, 장치, 기기 및 저장 매체
JP7301922B2 (ja) 意味検索方法、装置、電子機器、記憶媒体およびコンピュータプログラム
JP7113097B2 (ja) テキストエンティティの語義記述処理方法、装置及び機器
US11205110B2 (en) Device/server deployment of neural network data entry system
JP7108675B2 (ja) 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム
JP2022003539A (ja) テキスト誤り訂正方法、装置、電子機器及び記憶媒体
KR102604959B1 (ko) 지식 그래프의 벡터 표시 생성 방법, 장치 및 기기
WO2014137672A2 (en) Probabilistic parsing
CN110023930B (zh) 利用神经网络和在线学习的语言数据预测
JP7133002B2 (ja) 句読点予測方法および装置
KR20210089604A (ko) 맵 상의 종착지를 결정하는 방법, 기기 및 저장매체
US9460081B1 (en) Transcription correction using multi-token structures
JP2021111334A (ja) 検索データに基づくヒューマンコンピュータ対話型インタラクションの方法、装置及び電子機器
CN111767729B (zh) 文本分类方法、装置、设备以及存储介质
CN116432019A (zh) 一种数据处理方法及相关设备
JP7262519B2 (ja) 質問の答えの決定方法、装置、機器及び記憶媒体
US20210312173A1 (en) Method, apparatus and device for recognizing bill and storage medium
WO2021129411A1 (zh) 文本处理方法及装置
CN113553411A (zh) 查询语句的生成方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal