KR20220054753A - 음성 검색 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 한 저장 매체 및 컴퓨터 프로그램 - Google Patents

음성 검색 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 한 저장 매체 및 컴퓨터 프로그램 Download PDF

Info

Publication number
KR20220054753A
KR20220054753A KR1020220046654A KR20220046654A KR20220054753A KR 20220054753 A KR20220054753 A KR 20220054753A KR 1020220046654 A KR1020220046654 A KR 1020220046654A KR 20220046654 A KR20220046654 A KR 20220046654A KR 20220054753 A KR20220054753 A KR 20220054753A
Authority
KR
South Korea
Prior art keywords
data
search
data set
matching
text
Prior art date
Application number
KR1020220046654A
Other languages
English (en)
Inventor
롱 리우
지안타오 리
쉐양 헤
Original Assignee
아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디. filed Critical 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디.
Publication of KR20220054753A publication Critical patent/KR20220054753A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • G06F16/243Natural language query formulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/271Devices whereby a plurality of signals may be stored simultaneously controlled by voice recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/248Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/433Query formulation using audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/638Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/685Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/53Processing of non-Latin text
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/54Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Library & Information Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)

Abstract

본 발명은 음성 검색 방법, 장치, 전자 기기, 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램을 제공하고, 차량 인터넷, 스마트 캐빈, 음성 식별 등 기술분야에 관한 것이다. 구체적 구현 방안으로는 음성 데이터를 획득하고; 음성 데이터를 식별하여, 대응되는 텍스트 데이터를 얻으며; 텍스트 데이터 및 기설정된 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 얻고; 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 선별하여, 음성 데이터와 대응되는 검색 결과 집합을 얻는 것이다. 상기 실시형태는 음성 검색의 전면성을 향상시킨다.

Description

음성 검색 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 한 저장 매체 및 컴퓨터 프로그램{VOICE SEARCH METHOD AND DEVICE, ELECTRONIC DEVICE, COMPUTER READABLE STORAGE MEDIUM AND COMPUTER PROGRAM}
본 발명은 데이터 처리 기술분야에 관한 것으로, 구체적으로 차량 인터넷, 스마트 캐빈, 음성 식별 등 기술분야에 관한 것이고, 특히 음성 검색 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 매체 및 컴퓨터 프로그램에 관한 것이다.
단말기 통화 장면에서 사용자의 발음에 결함이 있으면(예를 들어 l/r 부분, 앞뒤 비음을 구분하지 못하는 등), 음성으로 연락처를 검색하여 연락처 검색 결과를 얻은 후, 이름의 병음 선후 순서로만 정렬하면, 검색 결과의 정렬 결과가 혼란스러운 문제가 발생하기 쉽다.
본 발명은 음성 검색 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 매체 및 컴퓨터 프로그램을 제공한다.
제1 양태에 따르면, 음성 데이터를 획득하는 단계; 음성 데이터를 식별하여, 대응되는 텍스트 데이터를 얻는 단계; 텍스트 데이터 및 기설정된 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 얻는 단계; 및 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 선별하여, 음성 데이터와 대응되는 검색 결과 집합을 얻는 단계를 포함하는 음성 검색 방법을 제공한다.
제2 양태에 따르면, 음성 데이터를 획득하는 수집 유닛; 음성 데이터를 식별하여, 대응되는 텍스트 데이터를 얻는 식별 유닛; 텍스트 데이터 및 기설정된 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 얻는 매칭 유닛; 및 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 선별하여, 음성 데이터와 대응되는 검색 결과 집합을 얻는 처리 유닛을 포함하는 음성 검색 장치를 제공한다.
제3 양태에 따르면, 적어도 하나의 프로세서 및 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하고, 메모리에는 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되며, 명령은 적어도 하나의 프로세서에 의해 실행되어, 적어도 하나의 프로세서가 제1 양태의 어느 한 구현형태에 따른 방법을 구현하도록 하는 전자 기기를 제공한다.
제4 양태에 따르면, 컴퓨터가 제1 양태의 어느 한 구현형태에 따른 방법을 구현하도록 하는 컴퓨터 명령이 저장되는 비일시적 컴퓨터 판독 가능 저장 매체를 제공한다.
제5 양태에 따르면, 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램을 제공하되, 컴퓨터 프로그램이 프로세서에 의해 실행될 경우 제1 양태의 어느 한 구현형태에 따른 방법을 구현하도록 한다.
본 발명의 실시예가 제공하는 음성 검색 방법 및 장치는, 먼저 음성 데이터를 획득하고; 다음 음성 데이터를 식별하여, 대응되는 텍스트 데이터를 얻으며; 그 다음, 텍스트 데이터 및 기설정된 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 얻고; 마지막으로, 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 선별하여, 음성 데이터와 대응되는 검색 결과 집합을 얻는다. 이로써, 텍스트 데이터 및 기설정된 매칭될 데이터 집합에 기반하여, 얻은 혼합 매칭 데이터 집합은, 텍스트 데이터와 매칭되는 혼합 매칭 데이터를 비교적 전면적으로 확장하여, 나아가 혼합 매칭 데이터에 대해 매칭될 데이터 집합에 적합한 더 합리적인 선별을 수행하므로, 음성 데이터 검색 결과가 더 정확하고, 사용자의 음성 검색 경험을 향상시킨다.
이 부분에서 설명되는 내용은 본 발명의 실시예의 핵심적이거나 중요한 특징을 표시하거나 본 발명의 범위를 한정하려는 것이 아님을 이해해야 할 것이다. 본 발명의 다른 특징은 아래의 명세서를 통해 이해하기 용이할 것이다.
도면은 본 해결수단을 더 잘 이해하기 위한 것이고, 본 발명을 제한하지 않는다.
도 1은 본 발명의 음성 검색 방법에 따른 일 실시예의 흐름도이다.
도 2는 본 발명에 따른 혼합 매칭 데이터 집합을 얻는 방법의 흐름도이다.
도 3은 본 발명에 따른 음성 데이터와 대응되는 검색 결과 집합을 얻는 방법의 흐름도이다.
도 4는 본 발명에 따른 검색 데이터 집합을 얻는 방법의 흐름도이다.
도 5는 본 발명에 따른 음성 검색 장치의 실시예의 구조 모식도이다.
도 6은 본 발명의 실시예의 음성 검색 방법을 구현하기 위한 전자 기기의 블록도이다.
아래 도면을 참조하여 본 발명의 예시적 실시예를 설명하되, 여기에 이해를 돕기 위한 본 발명의 실시예의 다양한 세부사항들이 포함되지만, 이들은 단지 예시적인 것으로 이해해야 한다. 따라서, 본 기술분야의 통상의 기술자는 본 발명의 범위 및 정신을 벗어나지 않는 전제 하에 여기서 설명된 실시예에 대해 다양한 변형 및 수정을 진행할 수 있음을 이해해야 한다. 마찬가지로, 명확 및 간략을 위해, 아래의 설명에서 공지 기능 및 구조에 대한 설명을 생략한다.
도 1은 본 발명의 음성 검색 방법에 따른 일 실시예의 프로세스(100)를 도시하고, 상기 음성 검색 방법은 하기의 단계를 포함한다.
단계(101)에서, 음성 데이터를 획득한다.
본 실시예에서, 음성 검색 방법이 구현되는 수행 주체는 실시간으로 음성 데이터를 획득할 수 있고, 상기 음성 데이터는 사용자가 사용자 단말을 통해 전송하거나 사용자가 음성 암호를 통해 정보를 검색하여 얻을 수 있으며, 음성 데이터는 검색 키워드를 포함하고, 음성 데이터를 통해, 검색 키워드와 관련되는 검색 결과 집합을 검색할 수 있으며, 결과 집합은 적어도 하나의 검색 결과를 포함하고, 각 검색 결과는 모두 음성 데이터와 관련되는 검색 데이터이다. 예를 들어 사용자가 단말 상의 연락처를 검색할 경우, 음성 데이터 중의 검색 키워드는 적어도 하나의 연락처의 정보를 포함할 수 있고, 상기 정보는 이름, 전화번호 등을 포함한다.
본 실시예에서, 음성 검색 방법이 구현되는 수행 주체는 사용자 단말에서 사용자의 연락처 판독 권한을 미리 획득하고, 단말의 주소록에서 연락처 정보를 판독하며, 연락처 정보를 미리 설정된 데이터 베이스에 저장하고, 나아가, 연락처 정보를 풍부하게 하기 위해, 주소록 연락처 병음 베이스를 미리 구축할 수도 있으며, 모든 연락처 정보 중의 연락처와 관련되는 병음은 모두 병음 베이스에 저장된다.
단계(102)에서, 음성 데이터를 식별하여, 대응되는 텍스트 데이터를 얻는다.
본 실시예에서, 음성 검색 방법이 구현되는 수행 주체는 음성 데이터에 대해 음성 식별을 수행한 후, 음성 데이터를 텍스트 데이터 형식으로 변환하여, 음성 데이터와 대응되는 텍스트 데이터를 얻는다.
단계(103)에서, 텍스트 데이터 및 기설정된 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 얻는다.
본 실시예에서, 매칭될 데이터 집합은 미리 설정된 이미 결정된 데이터이고, 수행 주체는 매칭될 데이터 집합 중 데이터를 텍스트 데이터와 매칭하는 것을 통해, 사용자의 검색 의도를 결정한다.
본 실시예에서, 혼합 매칭 데이터 집합은 적어도 하나의 혼합 매칭 데이터를 포함하고, 상기 혼합 매칭 데이터는 측정될 텍스트 또는 중간 데이터(측정될 텍스트가 데이터 변환을 통해 상이한 형식의 데이터를 얻음)와 매칭되는 데이터이다. 예를 들어, 혼합 매칭 데이터는 병음, 텍스트, 캐릭터, 심볼 등을 포함하고, 각각의 혼합 매칭 데이터는 모두 측정될 텍스트와 매칭되며, 예를 들어, 상기 병음은 텍스트 데이터와 발음이 동일한 병음이고, 병음 도구 라이브러리를 통해 텍스트 데이터로부터 병음 데이터의 변환을 완료할 수 있다.
음성 검색 방법이 구현되는 장면이 상이함에 따라, 매칭될 데이터 집합의 내용은 상이하고, 예를 들어, 사용자 검색 단말 중 연락처 정보의 장면에 있어서, 매칭될 데이터 집합은 상술한 데이터 베이스 중에 미리 저장된 모든 연락처 정보이다.
텍스트 형식의 텍스트 데이터를 얻은 후, 상기 매칭될 데이터 집합의 매칭될 데이터를 텍스트 데이터와 매칭할 수 있고, 만약 매칭될 데이터 집합 중의 매칭될 데이터가 텍스트 데이터와 동일하거나 유사도가 유사도 임계값(예를 들어 90%)보다 크면, 매칭될 데이터 집합에서 텍스트 데이터와 매칭된다고 결정하며, 텍스트 데이터 또는 매칭될 데이터 집합 중의 복수의 데이터가 통합(aggregation)되어 함께 혼합 매칭 데이터 집합으로 된다.
선택 가능하게, 상기 텍스트 데이터 및 기설정된 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 얻는 단계는, 텍스트 데이터에 대해 데이터 증강을 수행하여, 텍스트 데이터와 대응되는 적어도 하나의 증강 텍스트 데이터를 얻는 단계; 및 적어도 하나의 증강 텍스트 데이터 중 각 증강 텍스트 데이터를 매칭될 데이터 집합 중 각각의 매칭될 데이터와 매칭하고, 매칭에 성공한 증강 텍스트 데이터를 혼합 매칭 데이터 집합에 추가하는 단계를 포함한다. 본 선택 가능한 형태에서, 텍스트 데이터에 대해 데이터 증강을 수행하는 것은 텍스트 데이터와 발음이 동일한 텍스트 데이터를 획득하고, 획득된 텍스트 데이터를 텍스트 데이터에 추가하여, 텍스트 데이터량을 증가하는 것일 수 있다.
단계(104)에서, 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 선별하여, 음성 데이터와 대응되는 검색 결과 집합을 얻는다.
본 실시예에서, 검색 결과 집합은 적어도 하나의 검색 결과를 포함할 수 있고, 각 검색 결과는 모두 음성 데이터와 대응되며, 각 검색 결과는 매칭될 데이터 집합을 혼합 매칭 데이터와 매칭한 후, 선별되는 음성 데이터와 대응되는 검색 결과일 수 있다. 검색 결과 집합을 사용자에게 보여줄 경우, 사용자는 전시되는 검색 결과에 따라 상이하게 조작할 수 있고, 예를 들어, 음성 데이터에 검색 연락처가 포함되면, 검색 결과는 적어도 하나의 사용자 음성과 대응되는 연락처 정보를 포함하며, 상기 연락처 정보는 연락처 텍스트, 연락처 병음 등을 포함하고, 사용자는 연락처 정보를 얻은 후, 상기 연락처에 정보를 발송할 수 있다.
선택 가능하게, 검색 결과 집합을 얻은 후, 검색 결과 집합 중 각각의 검색 결과를 정렬할 수도 있고, 매칭될 데이터 집합 중 각각의 매칭될 데이터는 각자의 일련번호를 구비하며, 혼합 매칭 데이터 집합에서 각각의 혼합 매칭 데이터는 매칭될 데이터 집합 중의 각각의 매칭될 데이터와 대응될 수 있고, 먼저 혼합 매칭 데이터 집합에서 각각의 매칭 데이터와 대응되는 데이터를 선별하며, 다음 각각의 매칭될 데이터의 일련번호에 기반하여, 혼합 매칭 데이터 집합에서 각각의 혼합 매칭 데이터를 정렬하며, 음성 데이터와 대응되는 검색 결과를 신속하게 결정할 수 있다.
본 발명의 실시예가 제공하는 음성 검색 방법은, 먼저, 음성 데이터를 획득하고; 다음, 음성 데이터를 식별하여, 대응되는 텍스트 데이터를 얻으며; 그 다음, 텍스트 데이터 및 기설정된 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 얻고; 마지막으로, 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 선별하여, 음성 데이터와 대응되는 검색 결과 집합을 얻는다. 이로써, 텍스트 데이터 및 기설정된 매칭될 데이터 집합에 기반하여, 얻은 혼합 매칭 데이터 집합은, 텍스트 데이터와 매칭되는 혼합 매칭 데이터를 비교적 전면적으로 확장하여, 나아가 혼합 매칭 데이터에 대해 매칭될 데이터 집합에 적합한 더 합리적인 선별을 수행하므로, 음성 데이터 검색 결과가 더 정확하고, 사용자의 음성 검색 경험을 향상시킨다.
도 2는 본 발명에 따른 혼합 매칭 데이터 집합을 얻는 방법의 흐름도(200)를 도시하고, 상기 혼합 매칭 데이터 집합을 얻는 방법은 하기의 단계를 포함한다.
단계(201)에서, 텍스트 데이터에 대해 데이터 검색을 수행하여, 검색 데이터 집합을 얻는다.
본 실시예에서, 텍스트 데이터에 대해 데이터 검색을 수행하는 것은 측정될 텍스트에 대해 데이터 확장을 수행하는 과정이고, 예를 들어, 텍스트 데이터의 검색 병음 데이터를 검색하여 얻으며, 검색된 검색 병음 데이터에 대해 텍스트 데이터 변환을 수행하여, 측정될 텍스트와 발음이 동일한 음이 동일하되 글자가 상이한 검색 텍스트 데이터를 얻는다. 본 실시예에서, 병음 데이터를 텍스트 데이터로 변환하는 것은 텍스트 변환 도구를 사용하여 변환할 수 있고, 텍스트 변환 도구는 통상적인 도구이며, 여기서 더 이상 설명하지 않는다.
본 실시예에서, 검색 데이터 집합은 적어도 하나의 검색 데이터를 포함하고, 각각의 검색 데이터는 모두 텍스트 데이터와 관련되는 데이터이고, 검색 데이터의 표현 형식은 다양할 수 있으며, 예를 들어 검색 데이터는 검색 병음 데이터 또는 검색 텍스트 데이터 등이다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 텍스트 데이터에 대해 데이터 검색을 수행하여, 검색 데이터 집합을 얻는 단계는, 텍스트 데이터의 측정될 병음 데이터를 획득하는 단계; 측정될 병음 데이터와 동일한 발음의 텍스트 데이터를 검색하여, 검색 텍스트 데이터를 얻는 단계; 및 텍스트 데이터와 검색 텍스트 데이터를 조합하여, 검색 데이터 집합을 얻는 단계를 포함한다.
본 선택 가능한 구현형태에서, 각 중문 텍스트는 모두 그에 대응되는 병음을 구비하고, 텍스트 데이터를 병음 데이터로 변환하며, 다음 병음 데이터와 발음이 동일한 텍스트 데이터를 검색하여, 복수의 텍스트 데이터와 완전히 상이한 검색 텍스트 데이터를 얻을 수 있고, 복수의 검색 텍스트 데이터를 조합하여 검색 데이터 집합을 얻는다.
본 선택 가능한 구현형태에서, 텍스트 데이터와 발음이 동일한 검색 텍스트 데이터를 검색하는 것을 통해 검색 데이터 집합을 추가하여, 검색 데이터 집합을 풍부하게 하고, 텍스트 데이터를 효과적으로 매칭하는데 믿음직한 근거를 제공한다.
단계(202)에서, 검색 데이터 집합을 기설정된 매칭될 데이터 집합과 매칭하여, 혼합 매칭 데이터 집합을 얻는다.
본 선택 가능한 구현형태에서, 검색 데이터 집합 중 각각의 검색 데이터를 매칭될 데이터 집합 중의 각각의 매칭될 데이터와 비교할 수 있고, 만약 양자가 완전히 동일하면, 현재 완전히 동일한 검색 데이터를 혼합 매칭 데이터 집합에 추가하여, 혼합 매칭 데이터 집합에서 하나의 혼합 매칭 데이터로 한다.
선택 가능하게, 검색 데이터 집합 중 각각의 검색 데이터와 매칭될 데이터 중의 각각의 매칭될 데이터에 대해 유사도 계산을 수행할 수 있고, 양자의 유사도가 유사도 임계값보다 클 경우, 유사도가 유사도 임계값보다 큰 검색 데이터를 혼합 매칭 데이터 집합에 추가하여, 혼합 매칭 데이터 집합에서 하나의 혼합 매칭 데이터로 한다.
본 선택 가능한 구현형태가 제공하는 혼합 매칭 데이터 집합을 얻는 방법은, 텍스트 데이터를 검색하여, 검색 데이터 집합을 얻고, 텍스트 데이터의 데이터량을 확장 하며, 사용자 음성 중 발음에 결함이 존재하는 텍스트 데이터에 대해 데이터 보상을 미리 수행할 수 있고, 사용자 음성의 전면적인 검색 결과를 얻는데 믿음직한 기초를 제공한다.
도 3은 본 발명에 따른 음성 데이터와 대응되는 검색 결과 집합을 얻는 방법의 흐름도(300)를 도시하고, 상기 음성 데이터와 대응되는 검색 결과 집합을 얻는 방법은 하기의 단계를 포함한다.
단계(301)에서, 혼합 매칭 데이터 집합에서 검색 데이터 집합 중 상이한 우선순위의 검색 데이터와 매칭되는 혼합 매칭 데이터를 선별하여, 상이한 우선순위의 중간 데이터 집합을 얻는다.
본 선택 가능한 구현형태에서, 검색 데이터 집합에 상이한 타입의 검색 데이터가 구비될 경우, 사용자에게 비교적 우수한 검색 결과 집합을 나타내기 위해, 검색 데이터 집합 중 검색 데이터를 상이한 우선순위로 미리 구획할 수 있고, 각각의 검색 데이터는 하나의 우선 등급에 대응되며, 예를 들어, 검색 데이터 집합은 검색 병음 데이터 및 검색 텍스트 데이터를 포함하고, 검색 텍스트 데이터의 우선순위를 1급으로 설정하며, 검색 병음 데이터의 우선순위를 2급으로 설정하고, 검색 병음 데이터의 우선순위는 검색 텍스트 데이터보다 낮다.
나아가, 검색 데이터 집합 중 상이한 타입의 검색 데이터는 혼합 매칭 데이터 집합 중의 혼합 매칭 데이터와 매칭될 경우, 검색 데이터의 타입에 따라, 매칭하여 얻은 혼합 매칭 데이터를 검색 데이터에 대응되는 우선순위에 따라 혼합 매칭 데이터를 구획하고, 상이한 우선순위의 중간 데이터 집합을 얻으며, 각 중간 데이터 집합은 하나의 검색 데이터와 대응되고, 예를 들어, 검색 텍스트 데이터와 대응되는 중간 데이터 집합의 우선 등급은 1급이며, 검색 병음 데이터와 대응되는 중간 데이터 집합의 우선순위는 2급이다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 검색 데이터 집합은 텍스트 데이터 및 우선순위가 텍스트 데이터보다 낮은 검색 텍스트 데이터를 포함하고, 상기 혼합 매칭 데이터 집합에서 검색 데이터 집합 중 상이한 우선순위의 검색 데이터와 매칭되는 혼합 매칭 데이터를 선별하여, 상이한 우선순위의 중간 데이터 집합을 얻는 단계는, 텍스트 데이터를 혼합 매칭 데이터 집합과 매칭하여, 텍스트 데이터와 매칭되는 측정될 중간 데이터 집합을 얻는 단계; 및 혼합 매칭 데이터 집합 중의 측정될 중간 데이터 집합을 제거하여, 검색 텍스트 데이터와 매칭되는 검색 중간 데이터 집합을 얻는 단계를 포함하며, 검색 중간 데이터 집합의 우선순위는 측정될 중간 데이터 집합보다 낮다.
본 선택 가능한 구현형태에서, 검색 데이터 집합에 텍스트 데이터 및 검색 텍스트 데이터 두 가지 상이한 우선순위 데이터가 포함될 경우, 텍스트 데이터 및 검색 텍스트 데이터에 따라 혼합 매칭 데이터 집합 중의 혼합 매칭 데이터를 선별하여, 두 가지 상이한 우선순위의 중간 데이터 집합의 전면성을 보장하고, 사용자에게 두 가지 상이한 우선순위의 중간 데이터 집합을 보여주며, 사용자 경험을 향상시킨다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 검색 데이터 집합은 우선순위 등급이 순차적으로 낮아지는 텍스트 데이터, 검색 텍스트 데이터, 수정 텍스트 데이터를 포함하고, 혼합 매칭 데이터 집합에서 검색 데이터 집합 중 상이한 우선순위의 검색 데이터와 매칭되는 혼합 매칭 데이터를 선별하여, 상이한 우선순위의 중간 데이터 집합을 얻는 단계는, 텍스트 데이터를 혼합 매칭 데이터 집합과 매칭하여, 텍스트 데이터와 매칭되는 측정될 중간 데이터 집합을 얻는 단계; 혼합 매칭 데이터 집합 중의 측정될 중간 데이터를 제거하여, 단계적 부분집합을 얻는 단계; 검색 텍스트 데이터를 단계적 부분집합과 매칭하여, 검색 텍스트 데이터와 매칭되는 검색 중간 데이터 집합을 얻는 단계; 및 단계적 부분집합 중의 검색 중간 데이터 집합을 제거하여, 수정 텍스트 데이터와 매칭되는 수정 중간 데이터 집합을 얻는 단계를 포함하며, 측정될 중간 데이터 집합, 검색 중간 데이터 집합, 수정 중간 데이터 집합의 우선순위는 순차적으로 낮아진다.
본 선택 가능한 구현형태에서, 검색 데이터 집합에 텍스트 데이터, 검색 텍스트 데이터, 수정 텍스트 데이터 세 가지 상이한 우선순위 데이터가 포함될 경우, 텍스트 데이터, 검색 텍스트 데이터, 수정 텍스트 데이터에 따라 혼합 매칭 데이터 집합 중의 혼합 매칭 데이터를 선별하여, 세 가지 상이한 우선순위의 중간 데이터 집합의 전면성을 보장하고, 사용자에게 다양한 우선순위의 중간 데이터 집합을 보여주며, 사용자 경험을 향상시킨다.
단계(302)에서, 매칭될 데이터 집합 중 매칭될 데이터의 순서에 따라, 각각의 중간 데이터 집합을 정렬 및 조합하여, 음성 데이터와 대응되는 검색 결과 집합을 얻는다.
본 실시예에서, 매칭될 데이터 집합 중 매칭될 데이터 또는 각각의 중간 데이터 집합의 우선순위에 따라 모든 중간 데이터 집합을 정렬하고, 정렬된 모든 중간 데이터 집합을 조합하여, 사용자에게 보여줄 수 있는 검색 결과 집합을 얻을 수 있다.
선택 가능하게, 중간 데이터 집합에 매칭될 데이터와 동일하거나 대응되는 데이터(예를 들어, 매칭될 데이터와 발음이 동일함)가 구비되므로, 각각의 중간 데이터 집합을 정렬하는 것은 각 중간 데이터 집합 중의 데이터를 정렬하는 것일 수 있다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 매칭될 데이터 집합 중 매칭될 데이터의 순서에 따라, 각각의 중간 데이터 집합을 정렬 및 조합하여, 음성 데이터와 대응되는 검색 결과 집합을 얻는 단계는, 각각의 중간 데이터 집합 중 각각의 중간 데이터를 병음자모 순서에 따라 정렬하여, 상이한 정렬의 데이터 집합을 얻는 단계; 각 정렬의 데이터 집합에 대해, 상기 정렬 데이터 집합에 동일한 병음의 복수의 정렬 데이터가 구비되는 결정에 응답하여, 복수의 정렬 데이터를 매칭될 데이터 집합 중 각각의 정렬 데이터와 대응되는 데이터의 순서에 따라 정렬하는 단계; 및 각각의 중간 데이터 집합의 우선순위 등급에 따라, 모든 정렬 데이터 집합을 정렬 및 조합하여, 음성 데이터와 대응되는 검색 결과 집합을 얻는 단계를 포함한다.
본 선택 가능한 구현형태에서, 먼저 각각의 중간 데이터 집합 중 각각의 중간 데이터를 병음자모 순서에 따라 정렬하고, 다음 정렬된 정렬 데이터를 매칭될 데이터 집합 중 각각의 정렬 데이터와 대응되는 데이터의 순서에 따라 정렬하며, 사용자에게 병음 및 텍스트가 모두 합리적인 검색 결과를 나타내어, 사용자가 정확한 선택을 할 수 있도록 한다.
본 실시예는 세 가지 상이한 우선 등급에 따라 연락처 정렬 방법을 최적화하였고, 구체적으로 정렬은 1) 중문 완전 매칭 정도; 2) 병음 완전 매칭 정도; 3) 오류 수정 정도이며; 여기서 중문 매칭 정도를 최고 우선순위로 하고, 예를 들어 검색 키워드에 중문(숫자 불포함) 완전 매칭 결과가 존재하면 최우선으로 표시하며, 다음은 병음(숫자 불포함) 완전 매칭 정도이고, 만약 병음 및 중문이 모두 불완전하면, 검색 병음 및 결과 병음의 유사도에 따라 정렬한다.
본 선택 가능한 구현형태가 제공하는 음성 데이터와 대응되는 검색 결과를 얻는 방법은, 혼합 매칭 데이터 집합에서 검색 데이터 집합 중 검색 데이터와 매칭되는 혼합 매칭 데이터를 선별하고, 혼합 매칭 데이터 집합 및 매칭될 데이터 집합의 상이한 매칭 효과가 구비되는 데이터를 분층(Stratification)하여 표시하기 용이하며, 나아가, 매칭될 데이터 집합 중 매칭될 데이터의 순서에 따라, 중간 데이터 집합을 정렬하여, 매칭된 검색 결과의 효과적인 정렬을 보장하고, 사용자의 음성 검색 경험을 향상시킨다.
도 4는 본 발명에 따른 검색 데이터 집합을 얻는 방법의 일 실시예의 프로세스(400)를 도시하고, 상기 검색 데이터 집합을 얻는 방법은 하기의 단계를 포함한다.
단계(401)에서, 텍스트 데이터의 측정될 병음 데이터를 획득한다.
본 선택 가능한 구현형태에서, 텍스트 데이터를 병음 데이터로 변환하여, 측정될 병음 데이터를 얻고, 텍스트 데이터를 병음 데이터로 변환하는 것은 종래의 병음 변환 도구를 사용할 수 있으며, 병음 변환 도구에 대해 본 실시예에서는 더 이상 설명하지 않는다.
단계(402)에서, 측정될 병음 데이터와 동일한 발음의 텍스트 데이터를 결정하여, 검색 텍스트 데이터를 얻는다.
본 선택 가능한 구현형태에서, 측정될 병음 데이터는 텍스트 데이터의 병음 형식이고, 측정될 병음 데이터를 통해 모든 텍스트 데이터와 발음이 동일한 텍스트 데이터를 결정할 수 있으며, 텍스트 데이터와 발음이 동일한 텍스트 데이터는 검색 텍스트 데이터이다.
단계(403)에서, 측정될 병음 데이터에 대해 데이터 수정을 수행하여, 수정 병음 데이터를 얻는다.
본 선택 가능한 구현형태에서, 측정될 병음 데이터에 대해 데이터 수정을 수행하는 단계는 측정될 병음 데이터 중의 성모(聲母)를 또 다른 성모를 사용하여 대체하고, 예를 들어 측정될 병음 데이터 중의 “l”을 “r”로 대체하거나 측정될 병음 데이터 중의 “r”을 “l”로 대체하는 것이다. 측정될 병음 데이터에 대해 데이터 수정을 하는 단계는 측정될 병음 데이터 중의 운모를 또 다른 운모를 사용하여 대체하는 단계를 더 포함할 수 있고, 예를 들어 측정될 병음 데이터 중의 “ing”을 “in”으로 대체하는 것이다.
단계(404)에서, 수정 병음 데이터와 동일한 발음의 텍스트 데이터를 검색하여, 수정 텍스트 데이터를 얻는다.
본 선택 가능한 구현형태에서, 수정 병음 데이터를 얻은 후, 수정 병음 데이터와 발음이 동일한 텍스트 데이터를 결정하고, 얻은 텍스트 데이터가 바로 수정 텍스트 데이터이다.
본 선택 가능한 구현형태에서, 수정 텍스트 데이터는 검색 텍스트 데이터와 완전히 상이한 텍스트 데이터이고, 예를 들어, 검색 텍스트 데이터가 “장싼(
Figure pat00001
)”이면, 그 발음은 zhangsan이며; 그에 대응되는 수정 텍스트는 “짱싼(藏三)”일 수 있고, 그 발음은 zangsan이다.
단계(405)에서, 검색 텍스트 데이터, 수정 텍스트 데이터, 텍스트 데이터를 조합하여 검색 데이터 집합을 얻는다.
본 실시예에서, 검색 텍스트 데이터, 수정 텍스트 데이터, 텍스트 데이터를 조합하는 것은 삼자를 융합하여 함께 검색 데이터 집합에 넣는 것을 의미하고, 검색 데이터 집합은 적어도 하나의 검색 데이터를 포함하며, 각 검색 데이터는 검색 텍스트 데이터, 또는 수정 텍스트 데이터, 또는 텍스트 데이터일 수 있다.
본 선택 가능한 구현형태에서, 먼저 텍스트 데이터의 측정될 병음 데이터에 기반하여, 검색 텍스트를 얻고, 텍스트 데이터와 음이 동일하되 글자가 상이한 검색 데이터를 보장하며; 나아가, 측정될 병음 데이터에 대해 데이터 수정을 수행하여, 수정 병음 데이터를 얻고, 수정 병음 데이터에 의해 수정 텍스트 데이터를 얻으므로, 발음에 결함이 존재하는 인원의 텍스트 데이터에 대한 효과적인 보완을 보장하고, 검색 데이터 집합의 전면성 및 신뢰성을 보장한다.
하나의 구현예로서, 사용자가 연락처 정보를 검색하는 장면에 있어서, 매칭될 데이터 집합은 연락처 정보가 미리 저장된 데이터 집합이고, 본 발명의 음성 검색 방법은 하기의 단계를 포함한다.
첫째, 사용자 단말에서 사용자의 연락처 판독 권한을획득한 후, 단말의 주소록에서 연락처 정보를 판독한다.
둘째, 음성 데이터를 통해, 사용자가 입력한 타깃 연락처(P1)를 결정하고, 음성 데이터를 식별하여 텍스트 데이터로 변환하며, 텍스트 데이터 및 매칭될 데이터 집합에 따라, 혼합 매칭 데이터 집합을 획득하되, 본 실시예에서, 혼합 매칭 데이터 집합을 획득하는 것은 텍스트 데이터(예를 들어 “장싼(
Figure pat00002
)”)를 병음 도구 라이브러리를 통해 측정될 병음 데이터(zhangsan)로 식별하고, 측정될 병음 데이터와 발음이 완전히 동일한 검색 텍스트 데이터를 결정하며, 다음 기설정된 수정 병음표(표 1에 도시된 바와 같음)에 따라 측정될 병음 데이터를 수정하여, 예를 들어 zhanshan, zhansan, zhangshan, zhangshang 등 수정 병음 데이터를 얻을 수 있고; 수정 병음 데이터를 수정 텍스트 데이터로 변환하여, 텍스트 데이터, 수정 텍스트 데이터를 조합하여 혼합 매칭 데이터 집합을 얻는다.
병음 수정 후의 병음 예시
l r lejin-rejin
r l huarongdao-hualongdao
ch c liuche-liuce
c ch caocao-chaochao
sh s xiahoushang-xiahousang
s sh simayi-shimayi
z zh xiayize-xiayizhe
zh z zhangsan-zangsan
h f hushi-fushi
f h dufu-duhu
in ing xinqiji-xingqiji
ing in yingzheng-yinzheng
셋째, 혼합 매칭 데이터 집합 중의 숫자를 필터링하고, 숫자가 필터링된 혼합 매칭 데이터 집합(M)에서, 타깃 연락처(P1)의 중문과 완전히 매칭되는 측정될 중간 데이터 집합(R1)을 선별한다. 넷째, 혼합 매칭 데이터 집합(M) 중의 측정될 중간 데이터(P)를 제거하여, 단계적 부분집합(J1)을 얻는다.
다섯째, 단계적 부분집합(J1)에서, 타깃 연락처(P1)와 발음이 완전히 매칭되는 데이터 집합, 즉 검색 텍스트 데이터와 완전히 매칭되는 데이터 집합을 선별하고, 상기 데이터 집합에는 다음자(多音字)가 나타나는 경우가 있을 수 있고, 동시에 병음에 대응되는 중문이 상이할 수도 있으므로, 상기 데이터 집합에서 재정렬이 이루어질 필요가 있고, 규칙은 하기와 같다.
(1) 상기 데이터 집합에서, 중문 병음에 따라 1차 정렬을 수행하고, 예를 들어 “
Figure pat00003
(발음은 장러, 장위에 두가지임)에게 전화해줘”이면, zhangle/zhangyue 두 개의 결과를 얻을 수 있으며, 1차에서는 병음자모 순서에 따라 병음을 정렬하여 텍스트 데이터 집합을 얻는다.
(2) 1차 정렬의 결과 내에서, 병음이 동일한 결과 그룹(예를 들어 “장싼(
Figure pat00004
)”, “장싼(
Figure pat00005
)”, “장싼(
Figure pat00006
)”)은, 매칭될 데이터 집합 중 각각의 매칭될 데이터의 순서에 따라 2차 정렬을 수행하여, 최종적 검색 중간 데이터 집합(R2)을 얻고, 예를 들어 zhangle/zhangyue에 있어서, 만약 주소록에 이름이 “장위에(
Figure pat00007
)”, “장위에(
Figure pat00008
)”, “장위에(
Figure pat00009
)”인 연락처가 존재하면, 검색 중간 데이터 집합(R2)은 “장위에(
Figure pat00010
)”, “장위에(
Figure pat00011
)”, “장위에(
Figure pat00012
)”일 수 있다.
여섯째, 단계적 부분집합(J1) 중의 검색 중간 데이터 집합(R2)을 제거하여, 수정 텍스트 데이터와 완전히 매칭되는 데이터 집합을 얻고, 수정 텍스트 데이터와 완전히 매칭되는 데이터 집합을 검색 중간 데이터 집합(R2)과 같은 방식으로 재정렬하여, 수정 중간 데이터 집합(R3)을 얻으며, 위의 음성 데이터가 zhangsan이고, 만약 주소록에 이름이 “장산(
Figure pat00013
)”인 연락처가 존재하면, 그녀의 병음은 음성 입력된 정확한 병음이 아니기 때문에(zhangsan이 정확함), “장산(
Figure pat00014
)”이 수정 중간 데이터 집합(R3)에 나타난다.
일곱째, 측정될 중간 데이터 집합(R1), 검색 중간 데이터 집합(R2), 수정 중간 데이터 집합(R3)의 순서에 따라 정렬하고, 정렬된 측정될 중간 데이터 집합(R1), 검색 중간 데이터 집합(R2), 수정 중간 데이터 집합(R3)을 사용자에게 보여준다.
본 실시예는 세 개의 상이한 우선 등급에 따라 연락처 정렬 방법을 최적화하였고, 구체적 정렬은 1) 중문 완전 매칭 정도; 2) 병음 완전 매칭 정도; 3) 오류 수정 정도이며; 여기서 중문 매칭 정도를 최고 우선순위로 하고, 예를 들어 검색 키워드에 중문(숫자 불포함) 완전 매칭 결과가 존재하면 최우선으로 나타내며, 다음은 병음(숫자 불포함) 완전 매칭 정도이고, 만약 병음 및 중문이 모두 불완전하면, 검색 병음 및 결과 병음의 유사도에 따라 정렬한다.
나아가 도 5를 참조하면, 상술한 각 도에 도시된 방법의 구현으로서, 본 발명은 음성 검색 장치의 일 실시예를 제공하고, 상기 장치 실시예는 도 1에 도시된 방법 실시예와 대응되며, 상기 장치는 구체적으로 다양한 전자 기기에 응용될 수 있다.
도 5에 도시된 바와 같이, 본 실시예가 제공하는 음성 검색 장치(500)는 수집 유닛(501), 식별 유닛(502), 매칭 유닛(503), 처리 유닛(504)을 포함한다. 상기 수집 유닛(501)은, 음성 데이터를 획득하도록 구성될 수 있다. 상기 식별 유닛(502)은, 음성 데이터를 식별하여, 대응되는 텍스트 데이터를 얻도록 구성될 수 있다. 상기 매칭 유닛(503)은, 텍스트 데이터 및 기설정된 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 얻도록 구성될 수 있다. 상기 처리 유닛(504)은, 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 선별하여, 음성 데이터와 대응되는 검색 결과 집합을 얻도록 구성될 수 있다.
본 실시예에서, 음성 검색 장치(500) 중 수집 유닛(501), 식별 유닛(502), 매칭 유닛(503), 처리 유닛(504)의 구체적 처리 및 그가 가져오는 기술적 효과는 각각 도 1에 대응되는 실시예 중의 단계(101), 단계(102), 단계(103), 단계(104)의 관련 설명을 참조할 수 있고, 여기서 더 이상 설명하지 않는다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 매칭 유닛(503)은 검색 모듈(미도시), 매칭 모듈(미도시)을 포함한다. 상기 검색 모듈은, 텍스트 데이터에 대해 데이터 검색을 수행하여, 검색 데이터 집합을 얻도록 구성될 수 있다. 상기 매칭 모듈은, 검색 데이터 집합을 기설정된 매칭될 데이터 집합와 매칭하여, 혼합 매칭 데이터 집합을 얻도록 구성될 수 있다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 검색 모듈은 제1 획득 서브 모듈(미도시), 제1 검색 서브 모듈(미도시), 제1 조합 서브 모듈(미도시)을 포함한다. 상기 제1 획득 서브 모듈은, 텍스트 데이터의 측정될 병음 데이터를 획득할 수 있다. 상기 제1 검색 서브 모듈은, 측정될 병음 데이터와 동일한 발음의 텍스트 데이터를 검색하여, 검색 텍스트 데이터를 얻도록 구성될 수 있다. 상기 제1 조합 서브 모듈은, 텍스트 데이터와 검색 텍스트 데이터를 조합하여, 검색 데이터 집합을 얻도록 구성될 수 있다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 검색 모듈은 제2 획득 서브 모듈(미도시), 결정 서브 모듈(미도시), 수정 서브 모듈(미도시), 제2 검색 서브 모듈(미도시), 제2 조합 서브 모듈(미도시)을 포함한다. 상기 제2 획득 서브 모듈은, 텍스트 데이터의 측정될 병음 데이터를 획득하도록 구성될 수 있다. 상기 결정 서브 모듈은, 측정될 병음 데이터와 동일한 발음의 검색 텍스트 데이터를 결정하여, 검색 텍스트 데이터를 얻도록 구성될 수 있다. 상기 수정 서브 모듈은, 측정될 병음 데이터에 대해 데이터 수정을 수행하여, 수정 병음 데이터를 얻도록 구성될 수 있다. 상기 제2 검색 서브 모듈은, 수정 병음 데이터와 동일한 발음의 텍스트 데이터를 검색하여, 수정 텍스트 데이터를 얻도록 구성될 수 있다. 상기 제2 조합 서브 모듈은, 텍스트 데이터, 수정 텍스트 데이터 및 검색 텍스트 데이터를 조합하여, 검색 데이터 집합을 얻도록 구성될 수 있다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 처리 유닛(504)은 선별 모듈(미도시), 정렬 모듈(미도시)을 포함한다. 상기 선별 모듈은, 혼합 매칭 데이터 집합에서 검색 데이터 집합 중 상이한 우선순위의 검색 데이터와 매칭되는 혼합 매칭 데이터를 선별하여, 상이한 우선순위의 중간 데이터 집합을 얻도록 구성될 수 있다. 상기 정렬 모듈은, 매칭될 데이터 집합 중 매칭될 데이터의 순서에 따라, 각각의 중간 데이터 집합을 정렬 및 조합하여, 음성 데이터와 대응되는 검색 결과 집합을 얻도록 구성될 수 있다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 정렬 모듈은 제1 정렬 서브 모듈(미도시), 제2 정렬 서브 모듈(미도시), 얻음 서브 모듈(미도시)을 포함한다. 상기 제1 정렬 서브 모듈은, 각각의 중간 데이터 집합 중 각각의 중간 데이터를 병음자모 순서에 따라 정렬하여, 상이한 정렬의 데이터 집합을 얻도록 구성될 수 있다. 상기 제2 정렬 서브 모듈은, 각 정렬의 데이터 집합에 대해, 상기 정렬 데이터 집합에 동일한 병음의 복수의 정렬 데이터가 구비되는 결정에 응답하여, 복수의 정렬 데이터를 매칭될 데이터 집합 중 각각의 정렬 데이터와 대응되는 데이터의 순서에 따라 정렬하도록 구성될 수 있다. 상기 얻음 서브 모듈, 각각의 중간 데이터 집합의 우선순위 등급에 따라, 모든 정렬 데이터 집합을 정렬 및 조합하여, 음성 데이터와 대응되는 검색 결과 집합을 얻도록 구성될 수 있다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 텍스트 데이터 및 우선순위가 텍스트 데이터보다 낮은 검색 텍스트 데이터에서, 상기 선별 모듈은 제1 측정될 서브 모듈(미도시), 제1 제거 서브 모듈(미도시)을 포함한다. 상기 제1 측정될 서브 모듈은, 텍스트 데이터를 혼합 매칭 데이터 집합과 매칭하여, 텍스트 데이터와 매칭되는 측정될 중간 데이터 집합을 얻도록 구성될 수 있다. 상기 제1 제거 서브 모듈은, 혼합 매칭 데이터 집합 중의 측정될 중간 데이터 집합을 제거하여, 검색 텍스트 데이터와 매칭되는 검색 중간 데이터 집합을 얻도록 구성되되, 검색 중간 데이터 집합의 우선순위는 측정될 중간 데이터 집합보다 낮을 수 있다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 검색 데이터 집합은 우선순위 등급이 순차적으로 낮아지는 텍스트 데이터, 수정 텍스트 데이터 및 검색 텍스트 데이터를 포함한다. 상기 선별 모듈은 제2 측정될 서브 모듈(미도시), 제2 제거 서브 모듈(미도시), 제1 매칭 서브 모듈(미도시), 제3 제거 서브 모듈(미도시)을 포함한다. 상기 제2 측정될 서브 모듈은, 텍스트 데이터를 혼합 매칭 데이터 집합과 매칭하여, 텍스트 데이터와 매칭되는 측정될 중간 데이터 집합을 얻도록 구성될 수 있다. 상기 제2 제거 서브 모듈은, 혼합 매칭 데이터 집합 중의 측정될 중간 데이터를 제거하여, 단계적 부분집합을 얻도록 구성될 수 있다. 상기 제1 매칭 서브 모듈은, 검색 텍스트 데이터를 단계적 부분집합과 매칭하여, 검색 텍스트 데이터와 매칭되는 검색 중간 데이터 집합을 얻도록 구성될 수 있다. 상기 제3 제거 서브 모듈은, 단계적 부분집합 중의 검색 중간 데이터 집합을 제거하여, 수정 텍스트 데이터와 매칭되는 수정 중간 데이터 집합을 얻도록 구성되되, 측정될 중간 데이터 집합, 검색 중간 데이터 집합, 수정 중간 데이터 집합의 우선순위는 순차적으로 낮아질 수 있다.
본 발명의 실시예가 제공하는 음성 검색 장치는, 먼저 획득 유닛(501)이 음성 데이터를 획득하고; 다음, 식별 유닛(502)이 음성 데이터를 식별하여, 대응되는 텍스트 데이터를 얻으며; 그 다음, 매칭 유닛(503)이 텍스트 데이터 및 기설정된 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 얻고; 마지막으로, 처리 유닛(504)이 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 선별하여, 음성 데이터와 대응되는 검색 결과 집합을 얻는다. 이로써, 텍스트 데이터 및 기설정된 매칭될 데이터 집합에 기반하여, 얻은 혼합 매칭 데이터 집합은, 텍스트 데이터와 매칭되는 혼합 매칭 데이터를 비교적 전면적으로 확장하여, 나아가 혼합 매칭 데이터에 대해 매칭될 데이터 집합에 적합한 더 합리적인 선별을 수행하므로, 음성 데이터 검색 결과가 더 정확하고, 사용자의 음성 검색 경험을 향상시킨다.
본 발명의 실시예에 따라, 본 발명은 전자 기기, 판독 가능 저장 매체 및 컴퓨터 프로그램을 더 제공한다.
도 6은 본 발명의 실시예를 구현할 수 있는 예시 전자 기기(600)의 예시적 블록도를 도시한다. 전자 기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 운영 플랫폼, 개인 정보 단말기, 서버, 블레이드 서버, 대형 컴퓨터, 및 다른 적합한 컴퓨터와 같은 다양한 형태의 디지털 컴퓨터를 의미한다. 전자 기기는 개인 디지털 처리, 셀룰러폰, 스마트폰, 웨어러블 기기 및 다른 유사한 컴퓨팅 장치와 같은 다양한 형태의 이동 장치를 의미할 수도 있다. 본문에서 나타낸 부재, 이들의 연결과 관계, 및 이들의 기능은 단지 예시적인 것으로, 본문에서 설명 및/또는 요구된 본 발명의 구현을 한정하지 않는다.
도 6에 도시된 바와 같이, 기기(600)는 판독 전용 메모리(ROM)(602)에 저장된 컴퓨터 프로그램 또는 저장 유닛(608)으로부터 랜덤 액세스 메모리(RAM)(603)에 로딩된 컴퓨터 프로그램에 따라 다양하고 적절한 동작 및 처리를 수행할 수 있는 산출 유닛(601)을 포함한다. RAM(603)에는, 기기(600)의 조작에 필요한 다양한 프로그램 및 데이터가 저장될 수 있다. 산출 유닛(601), ROM(602) 및 RAM(603)은 버스(604)를 통해 서로 연결된다. 입/출력(I/O) 인터페이스(605) 역시 버스(604)에 연결된다.
기기(600) 중의 복수의 부재는, 키보드, 마우스 등과 같은 입력 유닛(606); 다양한 유형의 디스플레이, 스피커 등과 같은 출력 유닛(607); 자기 디스크, 광 디스크 등과 같은 저장 유닛(608); 및 랜 카드, 모뎀, 무선 통신 트랜시버 등과 같은 통신 유닛(609)을 포함하는 I/O 인터페이스(605)에 연결된다. 통신 유닛(609)은 기기(600)가 인터넷과 같은 컴퓨터 네트위크 및/또는 다양한 전신망을 통해 다른 기기와 정보/데이터를 교환하도록 허용한다.
산출 유닛(601)은 다양한 처리 및 계산 능력이 구비되는 일반 및/또는 전용 처리 부재일 수 있다. 산출 유닛(601)의 일부 예시는 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU), 다양한 전용 인공 지능(AI) 컴퓨팅 칩, 다양한 기계 학습 모델 알고리즘을 실행하는 산출 유닛, 디지털 신호 프로세서(DSP) 및 임의의 적절한 프로세서, 제어기, 마이크로 제어기 등을 포함하지만 이에 한정되지 않는다. 산출 유닛(601)은 예를 들어 음성 검색 방법과 같은, 위에서 설명된 각 방법 및 처리를 실행한다. 예를 들어, 일부 실시예에서, 음성 검색 방법은 컴퓨터 소프트웨어 프로그램으로 구현될 수 있고, 이는 기계 판독 가능한 매체, 예를 들어 저장 유닛(608)에 물리적으로 포함된다. 일부 실시예에서, 컴퓨터 프로그램의 일부 또는 전부는 ROM(602) 및/또는 통신 유닛(609)에 의해 기기(600)에 로딩 및/또는 설치될 수 있다. 컴퓨터 프로그램이 RAM(603)에 로딩되고 산출 유닛(601)에 의해 실행될 경우, 위에서 설명되는 음성 검색 방법 중 하나 이상의 단계를 수행할 수 있다. 대체 선택 가능하게, 다른 실시예에서, 산출 유닛(601)은 다른 임의의 적절한 방식을 통해(예를 들어, 펌웨어를 이용) 음성 검색 방법을 구현하도록 구성될 수 있다.
본문에서 이상 설명된 시스템 및 기술의 다양한 실시형태는 디지털 전자 회로 시스템, 집적 회로 시스템, 필드 프로그램 가능 게이트 어레이(FPGA), 전용 집적 회로(ASIC), 전용 표준 제품(ASSP), 시스템 온 칩의 시스템(SOC), 복합 프로그램 가능 논리 소자(CPLD), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합에서 구현될 수 있다. 이러한 다양한 실시형태는 하나 또는 다수의 컴퓨터 프로그램에서의 구현을 포함할 수 있고, 상기 하나 또는 다수의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템에서 실행 및/또는 해석될 수 있으며, 상기 프로그램 가능 프로세서는 전용 또는 범용 프로그램 가능 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력 장치, 및 적어도 하나의 출력 장치로부터 데이터 및 명령을 수신할 수 있으며, 데이터 및 명령을 상기 저장 시스템, 상기 적어도 하나의 입력 장치, 및 상기 적어도 하나의 출력 장치에 전송할 수 있다.
본 발명의 방법을 구현하는 프로그램 코드는 하나 또는 복수 개의 프로그래밍 언어의 임의의 조합으로 편집할 수 있다. 이러한 프로그램 코드는 범용 컴퓨터, 전용 컴퓨터 또는 다른 프로그램 가능 데이터 처리 장치의 프로세서 또는 제어기에 제공될 수 있으며, 프로그램 코드는 프로세서 또는 제어기에 의해 실행될 경우, 흐름도 및/또는 블록도에 지정된 기능/작동이 구현되도록 할 수 있다. 프로그램 코드는 완전히 기계에서 실행되거나, 부분적으로 기계에서 실행되거나, 독립형 소프트웨어 패키지로서 기계에서 실행되며, 일부는 원격 기계에서 실행되거나 완전히 원격 기계 또는 서버에서 실행될 수 있다.
본 발명의 컨텍스트에서, 기계 판독 가능 매체는 명령 실행 시스템, 장치 또는 기기에 의해 또는 명령 실행 시스템, 장치 또는 기기와 결합하여 사용하기 위한 프로그램을 포함하거나 저장할 수 있는 유형 매체일 수 있다. 기계 판독 가능 매체는 기계 판독 가능 신호 매체 또는 기계 판독 가능 저장 매체일 수 있다. 기계 판독 가능 매체는 전자, 자기, 광학, 전자기, 적외선 또는 반도체 시스템, 장치 또는 기기, 또는 상기 내용의 임의의 적절한 조합을 포함할 수 있지만 이에 한정되지 않는다. 기계 판독 가능 저장 매체의 보다 구체적인 예는 하나 또는 복수 개의 와이어에 기반한 전기 연결, 휴대용 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 소거 가능 프로그램 가능 판독 전용 메모리(EPROM 또는 플래시 메모리), 광섬유, CD-ROM, 광학 저장 기기, 자기 저장 기기 또는 상술한 내용의 임의의 적절한 조합을 포함한다.
사용자와의 인터랙션을 제공하기 위하여, 컴퓨터에서 여기서 설명된 시스템 및 기술을 실시할 수 있고, 상기 컴퓨터는 사용자에게 정보를 표시하기 위한 표시 장치(예를 들어, CRT(음극선관) 또는 LCD(액정 표시 장치) 모니터); 및 키보드 및 지향 장치(예를 들어, 마우스 또는 트랙 볼)를 구비하며, 사용자는 상기 키보드 및 상기 지향 장치를 통해 컴퓨터에 입력을 제공한다. 다른 타입의 장치는 또한 사용자와의 인터랙션을 제공할 수 있는데, 예를 들어, 사용자에게 제공된 피드백은 임의의 형태의 감지 피드백(예를 들어, 시각 피드백, 청각 피드백, 또는 촉각 피드백)일 수 있고; 임의의 형태(소리 입력, 음성 입력, 또는 촉각 입력)로 사용자로부터의 입력을 수신할 수 있다.
여기서 설명된 시스템 및 기술을 백그라운드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버), 또는 미들웨어 부재를 포함하는 컴퓨팅 시스템(예를 들어, 응용 서버), 또는 프론트 엔드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 그래픽 사용자 인터페이스 또는 웹 브라우저를 구비하는 사용자 컴퓨터이고, 사용자는 상기 그래픽 사용자 인터페이스 또는 웹 브라우저를 통해 여기서 설명된 시스템 및 기술의 실시형태와 인터랙션할 수 있음), 또는 이러한 백그라운드 부재, 미들웨어 부재, 또는 프론트 엔드 부재의 임의의 조합을 포함하는 컴퓨팅 시스템에서 실시할 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)을 통해 시스템의 부재를 서로 연결시킬 수 있다. 통신 네트워크의 예시로 근거리 통신망(LAN), 광역 통신망(WAN), 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로 멀리 떨어져 있고 일반적으로 통신 네트워크를 통해 서로 인터랙션한다. 대응되는 컴퓨터에서 실행되고 또한 서로 클라이언트-서버 관계를 가지는 컴퓨터 프로그램을 통해 클라이언트 및 서버의 관계를 생성한다.
본 발명의 기술적 해결수단에서, 관련되는 사용자 개인 정보의 획득, 저장 및 응용 등은 모두 관련 법규의 규정에 부합되고, 필요한 비밀 유지 조치를 취했으며, 공서양속에 어긋나지 않는다.
위에서 설명한 다양한 형태의 프로세스를 사용하여 단계를 재배열, 추가 또는 삭제할 수 있음을 이해해야 한다. 예를 들어, 본 발명에 기재된 각 단계는 동시에 수행될 수 있거나 순차적으로 수행될 수 있거나 상이한 순서로 수행될 수 있고, 본 발명에서 공개된 기술적 해결수단이 이루고자 하는 결과를 구현할 수만 있으면, 본문은 여기서 한정하지 않는다.
상기 구체적인 실시형태는 본 발명의 보호 범위를 한정하지 않는다. 본 기술분야의 통상의 기술자는 설계 요구 및 다른 요소에 따라 다양한 수정, 조합, 서브 조합 및 대체를 진해할 수 있음을 이해해야 한다. 본 발명의 정신 및 원칙 내에서 진행한 임의의 수정, 등가적 대체 및 개선 등은 모두 본 발명의 보호 범위 내에 속해야 한다.

Claims (13)

  1. 음성 데이터를 획득하는 단계;
    상기 음성 데이터를 식별하여, 대응되는 텍스트 데이터를 얻는 단계;
    상기 텍스트 데이터 및 기설정된 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 얻는 단계; 및
    상기 매칭될 데이터 집합에 기반하여, 상기 혼합 매칭 데이터 집합을 선별하여, 상기 음성 데이터와 대응되는 검색 결과 집합을 얻는 단계를 포함하는 음성 검색 방법.
  2. 제1 항에 있어서,
    상기 텍스트 데이터 및 기설정된 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 얻는 단계는,
    상기 텍스트 데이터에 대해 데이터 검색을 수행하여, 검색 데이터 집합을 얻는 단계; 및
    상기 검색 데이터 집합을 기설정된 매칭될 데이터 집합과 매칭하여, 혼합 매칭 데이터 집합을 얻는 단계를 포함하는 방법.
  3. 제2 항에 있어서,
    상기 텍스트 데이터에 대해 데이터 검색을 수행하여, 검색 데이터 집합을 얻는 단계는,
    상기 텍스트 데이터의 측정될 병음 데이터를 획득하는 단계;
    상기 측정될 병음 데이터와 동일한 발음의 텍스트 데이터를 검색하여, 검색 텍스트 데이터를 얻는 단계; 및
    상기 텍스트 데이터와 상기 검색 텍스트 데이터를 조합하여, 검색 데이터 집합을 얻는 단계를 포함하는 방법.
  4. 제2 항에 있어서,
    상기 텍스트 데이터에 대해 데이터 검색을 수행하여, 검색 데이터 집합을 얻는 단계는,
    상기 텍스트 데이터의 측정될 병음 데이터를 획득하는 단계;
    상기 측정될 병음 데이터와 동일한 발음의 검색 텍스트 데이터를 결정하여, 검색 텍스트 데이터를 얻는 단계;
    상기 측정될 병음 데이터에 대해 데이터 수정을 수행하여, 수정 병음 데이터를 얻는 단계;
    상기 수정 병음 데이터와 동일한 발음의 텍스트 데이터를 검색하여, 수정 텍스트 데이터를 얻는 단계; 및
    상기 텍스트 데이터, 상기 수정 텍스트 데이터 및 상기 검색 텍스트 데이터를 조합하여, 검색 데이터 집합을 얻는 단계를 포함하는 방법.
  5. 제2 항 내지 제4 항 중 어느 한 항에 있어서,
    상기 매칭될 데이터 집합에 기반하여, 상기 혼합 매칭 데이터 집합을 선별하여, 상기 음성 데이터와 대응되는 검색 결과 집합을 얻는 단계는,
    상기 혼합 매칭 데이터 집합에서 상기 검색 데이터 집합 중 상이한 우선순위의 검색 데이터와 매칭되는 혼합 매칭 데이터를 선별하여, 상이한 우선순위의 중간 데이터 집합을 얻는 단계; 및
    상기 매칭될 데이터 집합 중 매칭될 데이터의 순서에 따라, 각각의 중간 데이터 집합을 정렬 및 조합하여, 상기 음성 데이터와 대응되는 검색 결과 집합을 얻는 단계를 포함하는 방법.
  6. 제5 항에 있어서,
    상기 매칭될 데이터 집합 중 매칭될 데이터의 순서에 따라, 각각의 중간 데이터 집합을 정렬 및 조합하여, 상기 음성 데이터와 대응되는 검색 결과 집합을 얻는 단계는,
    각각의 중간 데이터 집합 중 각각의 중간 데이터를 병음자모 순서에 따라 정렬하여, 상이한 정렬의 데이터 집합을 얻는 단계;
    각 정렬의 데이터 집합에 대해, 상기 정렬 데이터 집합에 동일한 병음의 복수의 정렬 데이터가 구비되는 결정에 응답하여, 상기 복수의 정렬 데이터를 상기 매칭될 데이터 집합 중 각각의 정렬 데이터와 대응되는 데이터의 순서에 따라 정렬하는 단계; 및
    각각의 중간 데이터 집합의 우선순위 등급에 따라, 모든 정렬 데이터 집합을 정렬 및 조합하여, 상기 음성 데이터와 대응되는 검색 결과 집합을 얻는 단계를 포함하는 방법.
  7. 제5 항에 있어서,
    상기 검색 데이터 집합은, 텍스트 데이터 및 우선순위가 상기 텍스트 데이터보다 낮은 검색 텍스트 데이터를 포함하고, 상기 혼합 매칭 데이터 집합에서 상기 검색 데이터 집합 중 상이한 우선순위의 검색 데이터와 매칭되는 혼합 매칭 데이터를 선별하여, 상이한 우선순위의 중간 데이터 집합을 얻는 단계는,
    상기 텍스트 데이터를 상기 혼합 매칭 데이터 집합과 매칭하여, 상기 텍스트 데이터와 매칭되는 측정될 중간 데이터 집합을 얻는 단계; 및
    상기 혼합 매칭 데이터 집합 중의 측정될 중간 데이터 집합을 제거하여, 상기 검색 텍스트 데이터와 매칭되는 검색 중간 데이터 집합을 얻는 단계를 포함하며,
    상기 검색 중간 데이터 집합의 우선순위는 상기 측정될 중간 데이터 집합보다 낮은 방법.
  8. 제5 항에 있어서,
    상기 검색 데이터 집합은, 우선순위 등급이 순차적으로 낮아지는 텍스트 데이터, 검색 텍스트 데이터, 수정 텍스트 데이터를 포함하고, 상기 혼합 매칭 데이터 집합에서 상기 검색 데이터 집합 중 상이한 우선순위의 검색 데이터와 매칭되는 혼합 매칭 데이터를 선별하여, 상이한 우선순위의 중간 데이터 집합을 얻는 단계는,
    상기 텍스트 데이터를 상기 혼합 매칭 데이터 집합과 매칭하여, 상기 텍스트 데이터와 매칭되는 측정될 중간 데이터 집합을 얻는 단계;
    상기 혼합 매칭 데이터 집합 중의 측정될 중간 데이터를 제거하여, 단계적 부분집합을 얻는 단계;
    상기 검색 텍스트 데이터를 상기 단계적 부분집합과 매칭하여, 상기 검색 텍스트 데이터와 매칭되는 검색 중간 데이터 집합을 얻는 단계; 및
    상기 단계적 부분집합 중의 검색 중간 데이터 집합을 제거하여, 상기 수정 텍스트 데이터와 매칭되는 수정 중간 데이터 집합을 얻는 단계를 포함하며,
    상기 측정될 중간 데이터 집합, 상기 검색 중간 데이터 집합, 상기 수정 중간 데이터 집합의 우선순위는 순차적으로 낮아지는 방법.
  9. 음성 데이터를 획득하는 수집 유닛;
    상기 음성 데이터를 식별하여, 대응되는 텍스트 데이터를 얻는 식별 유닛;
    상기 텍스트 데이터 및 기설정된 매칭될 데이터 집합에 기반하여, 혼합 매칭 데이터 집합을 얻는 매칭 유닛; 및
    상기 매칭될 데이터 집합에 기반하여, 상기 혼합 매칭 데이터 집합을 선별하여, 상기 음성 데이터와 대응되는 검색 결과 집합을 얻는 처리 유닛을 포함하는 음성 검색 장치.
  10. 제9 항에 있어서,
    상기 매칭 유닛은,
    상기 텍스트 데이터에 대해 데이터 검색을 수행하여, 검색 데이터 집합을 얻는 검색 모듈; 및
    상기 검색 데이터 집합을 기설정된 매칭될 데이터 집합과 매칭하여, 혼합 매칭 데이터 집합을 얻는 매칭 모듈을 포함하는 장치.
  11. 전자 기기로서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하고,
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되며, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서가 제1항 내지 제8항 중 어느 한 항에 따른 방법을 구현하는 전자 기기.
  12. 컴퓨터 명령이 저장되는 비일시적 컴퓨터 판독 가능 저장 매체로서,
    상기 컴퓨터 명령은 상기 컴퓨터가 제1항 내지 제8항 중 어느 한 항에 따른 방법을 구현하는 비일시적 컴퓨터 판독 가능 저장 매체.
  13. 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램으로서,
    상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우 제1항 내지 제8항 중 어느 한 항에 따른 방법을 구현하는 컴퓨터 프로그램.
KR1020220046654A 2021-05-27 2022-04-15 음성 검색 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 한 저장 매체 및 컴퓨터 프로그램 KR20220054753A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110586407.7 2021-05-27
CN202110586407.7A CN113326279A (zh) 2021-05-27 2021-05-27 语音搜索方法和装置、电子设备、计算机可读介质

Publications (1)

Publication Number Publication Date
KR20220054753A true KR20220054753A (ko) 2022-05-03

Family

ID=77421909

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220046654A KR20220054753A (ko) 2021-05-27 2022-04-15 음성 검색 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 한 저장 매체 및 컴퓨터 프로그램

Country Status (5)

Country Link
US (1) US20220269722A1 (ko)
EP (1) EP4020951A3 (ko)
JP (1) JP7403571B2 (ko)
KR (1) KR20220054753A (ko)
CN (1) CN113326279A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113536764A (zh) * 2021-09-07 2021-10-22 湖南双菱电子科技有限公司 口令信息匹配方法、计算机设备和计算机可读存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5004863B2 (ja) 2008-04-30 2012-08-22 三菱電機株式会社 音声検索装置および音声検索方法
CN104238991B (zh) 2013-06-21 2018-05-25 腾讯科技(深圳)有限公司 语音输入匹配方法及装置
CN106683677B (zh) 2015-11-06 2021-11-12 阿里巴巴集团控股有限公司 语音识别方法及装置
CN106933561A (zh) * 2015-12-31 2017-07-07 北京搜狗科技发展有限公司 语音输入方法和终端设备
CN107707745A (zh) * 2017-09-25 2018-02-16 百度在线网络技术(北京)有限公司 用于提取信息的方法和装置
CN111198936B (zh) * 2018-11-20 2023-09-15 北京嘀嘀无限科技发展有限公司 一种语音搜索方法、装置、电子设备及存储介质
CN110310634A (zh) * 2019-06-19 2019-10-08 广州小鹏汽车科技有限公司 车载语音推送方法、终端、服务器以及推送系统
CN110428822B (zh) * 2019-08-05 2022-05-03 重庆电子工程职业学院 一种语音识别纠错方法及人机对话系统
CN110880316A (zh) * 2019-10-16 2020-03-13 苏宁云计算有限公司 一种音频的输出方法和系统
CN112231440A (zh) * 2020-10-09 2021-01-15 安徽讯呼信息科技有限公司 一种基于人工智能的语音搜索方法
CN112767925B (zh) * 2020-12-24 2023-02-17 贝壳技术有限公司 语音信息识别方法及装置
CN112818089B (zh) * 2021-02-23 2022-06-03 掌阅科技股份有限公司 文本注音方法、电子设备及存储介质

Also Published As

Publication number Publication date
US20220269722A1 (en) 2022-08-25
CN113326279A (zh) 2021-08-31
JP2022103161A (ja) 2022-07-07
EP4020951A2 (en) 2022-06-29
EP4020951A3 (en) 2022-11-02
JP7403571B2 (ja) 2023-12-22

Similar Documents

Publication Publication Date Title
US20160117405A1 (en) Information Processing Method and Apparatus
JP6517352B2 (ja) 翻訳情報の提供方法及びシステム
CN107526846B (zh) 频道排序模型的生成、排序方法、装置、服务器和介质
US11531693B2 (en) Information processing apparatus, method and non-transitory computer readable medium
CN113590796B (zh) 排序模型的训练方法、装置和电子设备
CN112699645B (zh) 语料标注方法、装置及设备
CN113836314B (zh) 知识图谱构建方法、装置、设备以及存储介质
WO2020076179A1 (ru) Способ определения тегов для отелей и устройство для его осуществления
CN114595686A (zh) 知识抽取方法、知识抽取模型的训练方法及装置
JP2019032704A (ja) 表データ構造化システムおよび表データ構造化方法
JP2023007369A (ja) 翻訳方法、分類モデルの訓練方法、装置、デバイス及び記憶媒体
US20190303437A1 (en) Status reporting with natural language processing risk assessment
CN110275938B (zh) 基于非结构化文档的知识提取方法及系统
KR20220054753A (ko) 음성 검색 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 한 저장 매체 및 컴퓨터 프로그램
US10650195B2 (en) Translated-clause generating method, translated-clause generating apparatus, and recording medium
JP6373243B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
KR20190090636A (ko) 문서 자동 편집 방법
JP2019211959A (ja) 検索方法、検索プログラムおよび検索装置
CN114238689A (zh) 视频生成方法、装置、电子设备、存储介质和程序产品
JP6656894B2 (ja) 対訳辞書作成装置、対訳辞書作成方法およびプログラム
CN114201607B (zh) 一种信息处理的方法和装置
CN112527819B (zh) 通讯录信息检索方法、装置、电子设备及存储介质
US20230409620A1 (en) Non-transitory computer-readable recording medium storing information processing program, information processing method, information processing device, and information processing system
WO2021056347A1 (en) Method for retrieving information about pronunciation associated with logogram
CN117633127A (zh) Poi更新信息的获取方法、装置、电子设备和介质