KR102548600B1 - 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템 및 방법 - Google Patents

음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템 및 방법 Download PDF

Info

Publication number
KR102548600B1
KR102548600B1 KR1020210114807A KR20210114807A KR102548600B1 KR 102548600 B1 KR102548600 B1 KR 102548600B1 KR 1020210114807 A KR1020210114807 A KR 1020210114807A KR 20210114807 A KR20210114807 A KR 20210114807A KR 102548600 B1 KR102548600 B1 KR 102548600B1
Authority
KR
South Korea
Prior art keywords
data
response
standard question
surgical
result report
Prior art date
Application number
KR1020210114807A
Other languages
English (en)
Other versions
KR20230032223A (ko
Inventor
조치흠
Original Assignee
계명대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 계명대학교 산학협력단 filed Critical 계명대학교 산학협력단
Priority to KR1020210114807A priority Critical patent/KR102548600B1/ko
Priority to PCT/KR2022/012924 priority patent/WO2023033498A1/ko
Publication of KR20230032223A publication Critical patent/KR20230032223A/ko
Application granted granted Critical
Publication of KR102548600B1 publication Critical patent/KR102548600B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Pathology (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템 및 방법은 수술 이후에 수기로 작성하는 수술 결과 보고서를 인공지능 기반의 음성 인식으로 수술 절차 및 수술 진단 결과를 입력하고, 이에 대한 응답으로 수술 결과 보고서를 자동으로 생성한다.
본 발명은 음성 인식으로 수술 절차 및 진단 결과를 입력할 수 있으며, 응답 선택 신호를 번호로 구성하여 발음에 따른 입력값 인식의 부정확성을 방지할 수 있고, 수술 결과 보고서 생성의 편의성과 정확성을 높이는 효과가 있다.

Description

음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템 및 방법{Development of AI Based Surgery Result Report System and Method Using Voice Recognition Platform}
본 발명은 인공지능 기반의 수술결과보고서 제공 시스템에 관한 것으로서, 더욱 상세하게는 수술 이후에 수기로 작성하는 수술 결과 보고서를 인공지능 기반의 음성 인식으로 수술 절차 및 수술 진단 결과를 입력하고, 이에 대한 응답으로 수술 결과 보고서를 자동으로 생성하는 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템 및 방법에 관한 것이다.
기존의 의사들은 병원 수술이 끝난 이후에 수술 과정 및 수술 결과 보고서를 작성하였다.
그러나 의사들은 수술 결과 보고서를 수술마다 직접 수기로 작성해야 하므로 보고서 작성에 오랜 시간이 소요되며, 복잡한 수술의 경우, 수술 이후에 많은 시간이 지난 후에 수술 결과 보고서를 작성하게 되므로 기억 오류로 수술 과정을 빼먹게 되는 단점이 있다.
즉, 의사들은 수술이 복잡하거나 수술 시간이 긴 경우, 수술 이후에 수술 결과 보고서를 작성해야 하므로 수술 과정을 꼼꼼히 기억하고 작성하는데 어렵기 때문에 수술 결과 보고서의 기록 정확성이 떨어질 수 있다.
한국 등록특허번호 제10-1990895호
이와 같은 문제점을 해결하기 위하여, 본 발명은 수술 이후에 수기로 작성하는 수술 결과 보고서를 인공지능 기반의 음성 인식으로 수술 절차 및 수술 진단 결과를 입력하고, 이에 대한 응답으로 수술 결과 보고서를 자동으로 생성하는 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템 및 방법을 제공하는데 그 목적이 있다.
상기 목적을 달성하기 위한 본 발명의 특징에 따른 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템은,
특정 진료과에 대한 수술 절차, 수술 및 진단 결과를 포함한 표준 수술 결과 보고서를 분석하여 문자열 데이터로 변환하고, 상기 문자열 데이터에서 키워드를 추출하여 의료 정보를 포함한 진단 표준 질문 데이터를 각각 생성하는 표준 질문 생성부;
상기 각각의 진단 표준 질문 데이터에 포함된 응답 영역의 키워드를 추출하여 응답 데이터를 생성하는 질의 응답 생성부;
상기 각각의 진단 표준 질문 데이터와 이에 대응하는 응답 데이터를 학습 데이터로 하여 인공 신경 처리망과 연동하여 인공지능에 학습하는 학습부; 및
상기 각각의 진단 표준 질문 데이터는 질의에 대응하여 선택하는 응답 선택 번호를 포함하고, 상기 각각의 진단 표준 질문 데이터를 음성 신호로 변환하여 사용자 단말기로 전송하고, 상기 사용자 단말기로부터 상기 응답 선택 번호를 음성 신호로 입력받아 수신하고, 상기 인공 신경 처리망을 통해 상기 응답 선택 번호에 대응하는 응답 데이터를 출력하는 제어부를 포함한다.
본 발명의 특징에 따른 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 방법은,
표준 수술 결과 보고서를 기반으로 인공지능에 학습하여 진단 표준 질문 데이터를 복수개 생성하는 단계;
상기 각각의 진단 표준 질문 데이터는 질의에 대응하여 선택하는 응답 선택 번호를 포함하고, 상기 각각의 진단 표준 질문 데이터를 음성 신호로 변환하여 사용자 단말기로 전송하고, 상기 사용자 단말기로부터 상기 응답 선택 번호를 음성 신호로 입력받아 수신하는 단계; 및
상기 인공지능에 학습한 진단 표준 질문 데이터를 이용하여 상기 수신한 응답 선택 신호에 대응하는 응답 데이터를 각각 생성하고, 상기 생성한 응답 데이터를 기반으로 수술 절차, 수술 및 진단 결과로 이루어진 최종 수술 결과 보고서를 생성하는 단계를 포함한다.
전술한 구성에 의하여, 본 발명은 음성 인식으로 수술 절차 및 진단 결과를 입력할 수 있으며, 응답 선택 신호를 번호로 구성하여 발음에 따른 입력값 인식의 부정확성을 방지할 수 있고, 수술 결과 보고서 생성의 편의성과 정확성을 높이는 효과가 있다.
도 1은 본 발명의 실시예에 따른 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템의 구성을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 수술결과보고서 제공 서버의 내부 구성을 간략하게 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 부인과 수술 절차 및 진단 표준 질문 데이터의 일례를 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 방법을 나타낸 전체 개념도이다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
도 1은 본 발명의 실시예에 따른 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템의 구성을 나타낸 도면이다.
본 발명의 실시예에 따른 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템(100)은 사용자 단말기(101), 통신망(102) 및 수술결과보고서 제공 서버(110)를 포함한다.
사용자 단말기(101)는 HTML(Hypertext Markup Language)5 기반의 웹브라우저를 탑재하는 유선단말 또는 무선단말을 포함하고, 유선단말인 데스크탑 PC 뿐만 아니라 스마트폰, PDA, 태블릿 PC 등과 같이 모바일 기기를 모두 포함한다.
사용자 단말기(101)는 문자, 숫자, 기호 등을 입력 모듈(키보드, 터치 스크린 등)을 통해 입력할 수 있고, 음성 신호를 입력하는 마이크 모듈과, 음성 신호를 출력하는 스피커 모듈을 구비한다.
사용자 단말기(101)는 수술결과보고서 제공 서버(110)와 통신을 수행하기 위한 인터페이스를 제공하는데, 이를테면, 지그비(Zigbee), 알에프(RF), 와이파이(WiFi), 3G, 4G, LTE, LTE-A, 와이브로(Wireless Broadband Internet) 등의 무선통신, 또는 인터넷, SNS(Social Network Service) 등을 사용할 수 있다.
사용자 단말기(101)는 각종 프로그램(예를 들면, 보고서 생성 애플리케이션) 및 단말 제어부(미도시)를 통해 처리된 각종 데이터들을 저장하며, 저장매체로 플래시 메모리 등 비휘발성 메모리를 사용할 수 있다.
사용자 단말기(101)는 보고서 생성 애플리케이션을 구동하여 통신망(102)을 통해 수술결과보고서 제공 서버(110)에 접속하고, 수술 결과 보고서를 자동으로 생성하기 위한 일련의 절차를 수행한다.
통신망(102)은 유무선 통신망을 모두 포함하고, 유무선 인터넷망이 이용되거나 연동될 수 있다. 여기서, 유선망은 케이블망이나 공중 전화망(PSTN)과 같은 인터넷망을 포함하는 것이고, 무선 통신망은 CDMA, WCDMA, GSM, EPC(Evolved Packet Core), LTE(Long Term Evolution), 와이브로(Wibro) 망 등을 포함한다.
사용자 단말기(101)는 수술결과보고서 제공 서버(110)에 접속하여 수술 결과 보고서를 작성하기 위한 보고서 생성 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 수신한다.
수술결과보고서 제공 서버(110)는 수술 결과 보고서를 작성하는 보고서 생성 애플리케이션을 생성하여 통신망(102)을 거쳐 사용자 단말기(101)로 전송한다.
사용자 단말기(101)는 보고서 생성 애플리케이션을 구동하여 수술결과보고서 제공 서버(110)에 접속하여 연결된다.
수술결과보고서 제공 서버(110)는 본 발명에서 예시한 부인과 수술 절차 및 진단 표준 질문 데이터를 음성 정보로 변환하여 생성하고, 생성된 음성 정보를 사용자 단말기(101)로 제공한다.
사용자 단말기(101)는 부인과 수술 절차 및 진단 표준 질문 데이터에 포함된 응답 선택 번호를 사용자의 음성 신호로 입력받는다.
사용자 단말기(101)는 입력된 음성 신호를 통신망(102)을 거쳐 수술결과보고서 제공 서버(110)로 전송한다.
수술결과보고서 제공 서버(110)는 각각의 진단 표준 질문 데이터를 음성 신호로 변환하여 사용자 단말기(101)로 전송한다.
사용자 단말기(101)는 각각의 진단 표준 질문 데이터에 포함된 응답 선택 번호를 사용자로부터 음성 신호로 입력받아 수술결과보고서 제공 서버(110)로 전송한다.
수술결과보고서 제공 서버(110)는 인공지능에 학습한 진단 표준 질문 데이터를 이용하여 사용자 단말기(101)로부터 수신한 음성 신호에 대응하는 응답 데이터를 생성하고, 생성한 응답 데이터를 기반으로 수술 절차. 수술 및 진단 결과로 이루어진 최종 수술 결과 보고서를 생성한다.
진단 표준 질문 데이터는 부인과 수술 절차, 수술 결과 및 진단 결과를 나타낸 것이다.
진단 표준 질문 데이터의 일례를 다음과 같다.
첫 번째 단계는 1번 복강경 검사와 2번 기계장치 중 어떤 플랫폼으로 시작할지에 대한 질문에 응답한다. 여기서, 응답 선택 번호는 1번 또는 2번이다.
두 번째 단계는 어떤 절차를 수행하고 있는지에 대해 1번 자궁 절제술, 2번 근종 절제술, 3번 난소 낭선종 절제술 중 하나를 택하여 응답한다. 여기서, 응답 선택 번호는 1번, 2번, 3번이다.
세 번째 단계는 진단 결과로 1번 자궁선근종, 2번 자궁근종, 3번 상피내암, 4번 기타 중 어떤 진단을 내렸는지를 선택하여 응답한다. 여기서, 응답 선택 번호는 1번, 2번, 3번이다.
네 번째 단계는 자궁의 크기 확인을 위한 질문의 답으로 1번부터 8번까지 차례대로 보통 크기, 6 내지 8주, 8 내지 10주, 10 내지 12주, 12 내지 14주, 14 내지 16주, 16 내지 18주, 20주 이상 크기로 응답란이 구성되어 있다. 여기서, 응답 선택 번호는 1번부터 8번이다.
다섯 번째 단계는 난소의 왼쪽 오른쪽 크기가 각각 정상인지 아닌지에 대한 질문에 응답함으로써 비정상이라면 6가지의 선택란 중 하나를 선택한다. 여기서, 응답 선택 번호는 1번부터 6번이다.
6가지 선택란에는 단순 낭종, 유피포낭, 자궁내막종, 점액성, 장액, 그리고 기타가 있다. 낭종의 크기가 4cm, 6cm, 8cm, 10cm, 12cm, 14cm 이상 중 어디에 해당하는지를 선택하여 응답한다.
여섯 번째는 자궁경부, 난소 나팔관 등의 유착 여부를 확인하는 단계로, 유착이 있다면 약간, 보통, 심한 중 한 가지를 선택하여 응답한다.
일곱 번째는 출혈량 추정에 관한 질문에는 50ml, 100ml, 150ml, 200ml, 300ml 이상 중 해당하는 선택란으로 응답한다. 여기서, 응답 선택 번호는 1번부터 5번이다.
여덟 번째는 자궁 수술 유형으로 1번 복강경보조 질식 자궁 절제술(LAVH)와 2번 전체 복강경하 자궁 적출술(TLH) 중 하나를 택하여 응답한다. 여기서, 응답 선택 번호는 1번 또는 2번이다.
아홉 번째는 난관 난소 절개술을 했는지에 대한 여부에 대한 응답으로서, 1번 편측 난관 난소 적출술(USO), 양측 난관 난소 절제술(BSO) 중 하나를 선택한다. 2번 편측 난관 난소 적출을 선택한 경우에는 오른쪽인지 왼쪽인지에 대해서도 응답하여야 한다. 여기서, 응답 선택 번호는 1번 또는 2번이다.
각각의 진단 표준 질문 데이터는 질의에 대응하여 선택하는 응답 선택 번호를 포함한다.
본 발명은 선택 진료과로 산부인과를 예시하고, 부인과 기반의 수술 결과 보고서를 음성 인식으로 수술 절차 및 진단 결과를 입력할 수 있으며, 응답 선택 신호를 번호로 구성하여 발음에 따른 입력값 인식의 부정확성을 방지할 수 있다.
도 2는 본 발명의 실시예에 따른 수술결과보고서 제공 서버의 내부 구성을 간략하게 나타낸 블록도이고, 도 3은 본 발명의 실시예에 따른 부인과 수술 절차 및 진단 표준 질문 데이터의 일례를 나타낸 도면이고, 도 4는 본 발명의 실시예에 따른 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 방법을 나타낸 전체 개념도이다.
본 발명의 실시예에 따른 수술결과보고서 제공 서버(110)는 수술 결과 보고서 데이터베이스부(111), 입력 데이터 처리부(112), 표준 질문 생성부(113), 질의 응답 생성부(114), 제어부(115), 수신부(116), ASR 모듈(117), NLU 모듈(118), 음성 합성 모듈(119), 전송부(119b), 디스플레이부, 학습 세트 생성부(120) 및 인공 신경 처리망(130)을 포함한다.
수술 결과 보고서 데이터베이스부(111)는 진료과에 따른 표준 수술 결과 보고서를 복수개 저장하고, 저장 시 수술 결과 보고서를 전처리를 수행하여 문자열 형태의 포맷으로 변환하여 저장한다.
입력 데이터 처리부(112)는 수술 결과 보고서 데이터베이스부(111)로부터 수술 결과 보고서를 수신하는 경우, 수신한 수술 결과 보고서의 텍스트 문장 구조를 형태론적, 구문론적, 의미론적으로 분석하여 벡터값을 산출할 수 있다.
입력 데이터 처리부(112)는 수술 결과 보고서의 텍스트 문장 구조인 문자열 형태를 NLP(Natural Language Understanding) 모듈(미도시)에 의해 개체(Entity)와 의미구(Intent)로 구분하고, 벡터화 모듈(미도시)에 의해 구분된 개체와 의미구를 벡터값으로 처리한다.
NLP 모듈은 최소 의미 단위인 형태소 분석, 어간 추출, 불용어 추출 등의 기능을 포함할 수 있다.
벡터화 모듈은 구분된 개체와 의미구를 Sen2vec, Word2vec 등을 이용한 벡터값으로 처리한다.
표준 질문 생성부(113)는 입력 데이터 처리부(112)로부터 수신한 수술 결과 보고서의 개체와 의미구로 이루어진 문자열 데이터에서 키워드를 추출하여 의료 정보를 포함한 문장 데이터를 생성한다.
표준 질문 생성부(113)는 데이터베이스 검색을 위해서 문장 데이터마다 인덱스를 레이블링하여 의료 정보를 포함한 부인과 수술 절차 및 진단 표준 질문 데이터를 각각 생성한다.
다른 실시예로서, 표준 질문 생성부(113)는 키워드를 출현 빈도수에 따라 선택하고, 키워드의 빈도수가 기설정된 횟수 이상인 경우, 진단 표준 질문 데이터의 생성 시 필요한 키워드로 선택한다.
부인과 수술 절차 및 진단 표준 질문 데이터는 다양한 의료 데이터로 환자 생성 데이터, 증상 데이터, 진단 데이터, 수술 과정 데이터, 수술 결과 데이터 등을 포함할 수 있다.
질의 응답 생성부(114)는 질의인 진단 표준 질문 데이터에서 쿼리 영역인 응답 선택 번호를 추출하고, 쿼리 영역에 대한 응답 데이터를 생성한다.
질의 응답 생성부(114)는 질의인 진단 표준 질문 데이터에 대응하는 응답 데이터를 추출하여 생성한다.
제어부(115)는 질의 응답 생성부(114)로부터 진단 표준 질문 데이터와 이에 대응하는 응답 데이터를 수신하여 학습 세트 생성 모듈로 전송한다.
각각의 진단 표준 질문 데이터는 질의에 대응하여 선택하는 응답 선택 번호를 포함한다.
제어부(115)는 각각의 진단 표준 질문 데이터를 음성 신호로 변환하여 사용자 단말기(101)로 전송하고, 사용자 단말기(101)로부터 응답 선택 번호를 음성 신호로 입력받아 수신하고, 인공 신경 처리망(130)을 통해 응답 선택 번호에 대응하는 응답 데이터를 출력한다.
제어부(115)는 출력한 응답 데이터를 고려하여 수술 절차, 수술 및 진단 결과를 포함한 최종 수술 결과 보고서를 생성한다.
본 발명의 실시예에 따른 인공 지능 장치는 학습 세트 생성 모듈 및 인공 신경 처리망(130)을 포함한다.
학습 세트 생성 모듈은 학습 데이터 처리부(121), 학습부(122) 및 분류부(123)를 포함한다.
인공 신경 처리망(130)은 입력층(131), 컨볼루션 레이어부(133), 풀링 레이어부 및 풀리 커넥티드 레이어부로 이루어진 은닉층(132), 출력층(136)을 포함한다.
학습 데이터 처리부(121)는 입력 데이터 처리부(112)로부터 수신한 복수의 진단 표준 질문 데이터(인덱스 포함)와 응답 데이터를 수신하고, 학습 데이터로 분산하여 저장한다. 학습 데이터 처리부(121)는 분산 병렬 처리가 가능한 데이터베이스부로 형성될 수 있다.
인공 신경 처리망(130)은 학습 데이터 처리부(121)에 저장된 학습 데이터의 진단 표준 질문 데이터를 신경망에 입력시켜 오류를 수정하고, 수정된 오류를 이용하여 각각의 진단 표준 질문 데이터에 대응하는 응답 데이터를 출력한다.
이때, 인공 신경 처리망(130)은 심층 컨볼루션 신경망(Deep Convolutional Neural Neworks, CNNs)을 이용하고, 입력층(131), 은닉층(132), 출력층(136)을 포함할 수 있다.
입력층(131)은 학습 데이터 처리부(121)에 저장된 학습 데이터를 획득하고, 획득한 학습 데이터를 특징맵을 가지는 레이어로 저장한다. 여기서, 특징맵은 다수의 노드들이 2차원으로 배열된 구조를 가짐으로써 후술되는 은닉층(132)과의 연결을 용이하게 할 수 있다.
은닉층(132)은 상위 계층에 위치한 레이어의 특징맵을 획득하고, 획득한 특징맵으로부터 점차 높은 수준의 특징을 추출한다. 은닉층(132)은 하나 또는 그 이상으로 형성될 수 있으며 컨볼루션 레이어부(133), 풀링 레이어부 및 풀리 커넥티드 레이어부를 포함한다.
컨볼루션 레이어부(133)는 학습 데이터로부터 컨볼루션 연산을 수행하는 구성으로서, 복수의 입력 특징맵과 연결되는 특징맵을 포함한다.
풀링 레이어부(134)는 컨볼루션 레이어부(133)의 출력을 입력으로 받아 컨볼루션 연산, 즉 서브 샘플링 연산을 수행하는 구성이고, 은닉층(132)의 하위 계층에 위치한 컨볼루션 레이어부(133)가 가지는 입력 특징맵의 수와 동일한 수의 특징맵을 포함하며, 각각의 특징맵은 입력 특징맵과 일대일로 연결된다.
풀리 커넥티드 레이어부(135)는 컨볼루션 레이어부(133)의 출력을 입력으로 받아 출력층(130)에서 출력되는 각 카테고리별 출력에 맞게 학습하는 구성이고, 학습된 국소적 정보, 즉 특징들을 종합하여 추상적인 내용을 학습한다.
이때, 은닉층(132)이 풀링 레이어부(132)를 구비할 경우, 폴링 커넥티드 레이어부(135)는 폴링 레이어부(134)와 연결되며, 폴링 레이어부(134)의 출력으로부터 특징들을 종합하여 추상적인 내용을 학습한다.
출력층(136)은 소프트 맥스(soft-max) 등의 함수를 이용하여 분류하고자 원하는 각 카테고리별 출력을 확률값으로 매핑한다. 이때, 출력층(136)에서 출력된 결과는 학습부(122) 또는 분류부(123)로 전달되어 오류역전파를 수행하거나 응답 데이터로 출력될 수도 있다.
학습부(122)는 지도 학습을 수행하는 것으로, 지도 학습은 학습 데이터에 기계학습 알고리즘을 적용하여 함수를 추론하고, 그 추론된 함수를 통해 해답을 찾는다.
학습부(122)는 지도 학습을 통해서 학습 데이터를 대표하는 선형 모델을 생성하고, 그 선형 모델을 통해 미래의 사건을 예측할 수 있다.
학습부(122)는 이전까지 학습된 데이터를 근거로 새로운 데이터가 기존에 학습된 데이터에 어떻게 분류되는지 판단한다.
학습부(122)는 부인과 수술 절차 및 진단 표준 질문 데이터를 인공 신경 처리망(130)의 학습을 수행하고, 유형별 딥러닝 특징값을 이용하여 각 진단 표준 질문 데이터에 대응하는 응답 데이터를 학습한다.
본 발명의 일실시예에서 인공 신경 처리망(130)의 학습은 지도 학습(supervised-learning)으로 이루어진다.
지도 학습은 학습 데이터와 그에 대응하는 출력 데이터를 함께 인공 신경 처리망(130)에 입력하고, 학습 데이터에 대응하는 출력 데이터가 출력되도록 연결된 간선들의 가중치를 업데이트 하는 방법이다. 일예로, 본 발명의 인공 신경 처리망(130)은 델타 규칙 및 오류역전파 학습 등을 이용하여 인공뉴런들 사이의 연결 가중치를 업데이트 할 수 있다.
오류역전파(Error-back-propagation) 학습은 주어진 학습 데이터에 대해 전방계산(Feed-Forward)으로 오류를 추정한 후, 출력 레이어에서 시작하여 은닉층(132)과 입력층(131) 방향인 역방향으로 추정한 오류를 전파하고, 오류를 줄이는 방향으로 인공 뉴런들 사이의 연결 가중치를 업데이트한다.
학습부(122)는 입력층(131) - 은닉층(132) - 폴링 커넥티드 레이어부(135) - 출력층(136)을 통해 획득된 결과로부터 오차를 계산하고, 계산된 오차를 보정하기 위해 다시 출력층(136) - 폴링 커넥티드 레이어부(135) - 은닉층(132) - 입력층(131)의 순서로 오류를 전파하여 연결 가중치를 업데이트할 수 있다.
학습부(122)는 인공 신경 처리망(130)을 이용하여 입력되는 각각의 진단 표준 질문 데이터(인덱스 포함)의 특징값들이 입력 벡터가 되며, 입력층(131), 은닉층(132), 출력층(136)을 통과하면, 각각의 진단 표준 질문 데이터에 포함된 응답 데이터를 출력 벡터로 생성하도록 지도 학습을 통해 학습된다.
학습부(122)는 각각의 진단 표준 질문 데이터와 이에 대응하는 응답 데이터를 학습 데이터로 하여 인공 신경 처리망(130)과 연동하여 인공지능에 학습한다.
분류부(123)는 입력되는 응답 선택 번호를 이용하여 진단 표준 질문 데이터에 포함된 응답 데이터를 출력한다.
인공 신경 처리망(130)은 입력값(진단 표준 질문 데이터)이 어떤 것이 들어오면 출력값(응답 데이터)이 어떤 나와야 하는지 미리 알고 있다.
분류부(123)는 학습부(122)에서의 오류역전파를 통해 업데이트된 연결 가중치를 가지는 인공 신경 처리망(130)의 출력 데이터를 응답 데이터로 출력할 수 있다.
분류부(123)는 업데이트된 연결 가중치를 가지는 인공 신경 처리망(130)에 학습 데이터, 테스트 데이터 또는 학습에 사용되지 않은 새 데이터가 입력되면, 입력층(131) - 은닉층(132) - 폴링 커넥티드 레이어부(135) - 출력층(136)을 통해 출력된 결과를 획득하여 응답 데이터로 출력할 수 있다.
분류부(123)는 진단 표준 질문 데이터, 응답 선택 번호, 응답 데이터를 기반으로 최적화를 통해 딥러닝 기반 분류기 모델을 생성한다.
분류부(123)는 입력된 진단 표준 질문 데이터와, 응답 선택 번호가 딥러닝 기반 분류기 모델을 통해 응답 데이터의 결과값으로 출력한다.
수신부(116)는 사용자 단말기(101)로부터 부인과 수술 절차 및 진단 표준 질문 데이터에 포함된 응답 선택 번호를 사용자의 음성 신호로 수신한다.
ASR(Automatic Speech Recognition) 모듈(117)은 사용자 단말기(101)로부터 수신된 사용자의 음성 신호를 텍스트 데이터로 변환한다.
ASR 모듈(117)은 프론트-엔드 스피치 프리 프로세서(front-end speech pre-processor)를 포함한다. 프론트-엔드 스피치 프리프로세서는 스피치 입력으로부터 대표적인 특징을 추출한다. 예를 들어, 프론트-엔드 스피치 프리프로세서는 스피치 입력을 푸리에 변환을 수행하여 대표적인 다차원 벡터의 시퀀스로서 스피치 입력을 특징짓는 스펙트럼 특징을 추출한다. 또한, ASR 모듈(117)은 하나 이상의 스피치 인식 모델(예컨대, 음향 모델 및/또는 언어 모델)을 포함하고, 하나 이상의 스피치 인식 엔진을 구현할 수 있다. 스피치 인식 모델의 예는 은닉 마르코프 모델(hidden Markov models), 가우시안 혼합 모델(Gaussian-Mixture Models), 딥 신경망 모델(Deep Neural Network Models), n-gram 언어 모델, 및 기타 통계 모델 중 하나의 모델을 포함한다.
ASR 모듈(117)이 텍스트 문자열(예를 들어, 단어들, 또는 단어들의 시퀀스, 또는 토큰들의 시퀀스)을 포함하는 인식 결과를 생성하면, 인식 결과는 의도 추론을 위해 자연 언어 처리 모듈로 전달된다. 일부 예들에서, ASR 모듈(117)은 스피치 입력의 다수의 후보 텍스트 표현들을 생성한다. 각각의 후보 텍스트 표현은 스피치 입력에 대응하는 단어들 또는 토큰들의 시퀀스이다.
NLU(Natural Language Understanding) 모듈(118)은 각각의 진단 표준 질문 데이터를 법적 분석(Syntactic Analyze) 또는 의미적 분석(Semantic Analyze)을 수행하여 자연어의 텍스트 문자열 의미를 파악한다.
문법적 분석은 문법 단위(예를 들어, 단어, 구, 형태소 등)를 나누고, 나누어진 단위가 어떠한 문법적인 요소를 갖는지 파악할 수 있다. 상기 의미적 분석은 의미(semantic) 매칭, 룰(rule) 매칭, 포뮬러(formula) 매칭 등을 이용하여 수행할 수 있다. 이에 따라, NUL 모듈은 사용자 입력이 어느 도메인(Domain), 의도(Intent) 또는 상기 의도를 표현하는데 필요한 파라미터(Parameter)를 획득할 수 있다.
NLU 모듈(118)은 도메인, 의도 및 상기 의도를 파악하는데 필요한 파라미터로 나누어진 매핑 규칙을 이용하여 사용자의 의도 및 파라미터를 결정할 수 있다.
음성 합성 모듈(119)은 자연어의 텍스트 문자열을 음성 신호로 변환한다. 음성 합성 모듈(119)은 텍스트로부터의 스피치 출력을 생성하기 위하여 임의의 적절한 스피치 합성 기법을 사용하는데, 이는 편집 합성(concatenative synthesis), 단위 선택 합성(unit selection synthesis), 다이폰 합성, 도메인-특정 합성, 포먼트 합성(Formant synthesis), 조음 합성(Articulatory synthesis), HMM(hidden Markov model) 기반 합성 및 정현파 합성(sinewave synthesis)을 포함한다.
제어부(115)는 각각의 진단 표준 질문 데이터를 NLU(Natural Language Understanding) 모듈(118)에 의해 문법적 분석(Syntactic analyze) 또는 의미적 분석(semantic analyze)을 수행하여 자연어의 텍스트 문자열 의미를 파악하고, 음성 합성 모듈(119)에 의해 자연어의 텍스트 문자열을 음성 신호로 변환한다.
제어부(115)는 각각의 진단 표준 질문 데이터를 음성 신호로 변환하여 전송부(119b)를 통해 사용자 단말기(101)로 전송한다.
다른 실시예로서, 제어부(115)는 진단 표준 질문 데이터에 포함된 인덱스의 순서에 따라 음성 신호로 변환하여 사용자 단말기(101)로 전송한다.
사용자 단말기(101)는 각각의 진단 표준 질문 데이터를 음성 신호로 하여 스피커(미도시)를 통해 출력한다.
수술결과보고서 제공 서버(110)는 사용자 단말기(101)로부터 각각의 진단 표준 질문 데이터에 대한 응답 선택 신호를 수신하는 경우, 인공 신경 처리망(130)과 연동하여 응답 선택 신호의 오차 발생을 판단하고, 오차가 발생하지 않으면, 진단 표준 질문 데이터와 응답 데이터를 입력 데이터로 표준 수술 결과 보고서로 설정하여 수술 결과 보고서 데이터베이부(111)에 저장한다.
수술결과보고서 제공 서버(110)는 사용자 단말기(101)로부터 각각의 진단 표준 질문 데이터에 대한 응답 선택 신호를 수신하는 경우, 인공 신경 처리망(130)과 연동하여 응답 선택 신호의 오차 발생을 판단하고, 오차가 발생하면, 진단 표준 질문 데이터를 재질문하기 위한 재질문 요청 신호를 생성하여 표준 질문 생성부(113)로 전송한다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
100: 수술결과보고서 제공 시스템
101: 사용자 단말기
102: 통신망
110: 수술결과보고서 제공 서버

Claims (10)

  1. 특정 진료과에 대한 수술 절차, 수술 및 진단 결과를 포함한 표준 수술 결과 보고서를 분석하여 문자열 데이터로 변환하고, 상기 문자열 데이터에서 키워드를 추출하여 의료 정보를 포함한 진단 표준 질문 데이터를 각각 생성하는 표준 질문 생성부;
    상기 각각의 진단 표준 질문 데이터에 포함된 응답 영역의 키워드를 추출하여 응답 데이터를 생성하는 질의 응답 생성부;
    상기 각각의 진단 표준 질문 데이터와 이에 대응하는 응답 데이터를 학습 데이터로 하여 인공 신경 처리망과 연동하여 인공지능에 학습하는 학습부; 및
    상기 각각의 진단 표준 질문 데이터는 질의에 대응하여 선택하는 응답 선택 번호를 포함하고, 상기 각각의 진단 표준 질문 데이터를 음성 신호로 변환하여 사용자 단말기로 전송하고, 상기 사용자 단말기로부터 상기 응답 선택 번호를 음성 신호로 입력받아 수신하고, 상기 인공 신경 처리망을 통해 상기 응답 선택 번호에 대응하는 응답 데이터를 출력하는 제어부를 포함하는 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템.
  2. 청구항 1에 있어서,
    상기 제어부는 상기 출력한 응답 데이터를 고려하여 수술 절차, 수술 및 진단 결과를 포함한 최종 수술 결과 보고서를 생성하는 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템.
  3. 청구항 1에 있어서,
    상기 학습부는 상기 인공 신경 처리망을 이용하여 상기 각각의 진단 표준 질문 데이터의 특징값들이 입력 벡터가 되며, 입력층, 은닉층, 출력층을 통과하면, 상기 각각의 진단 표준 질문 데이터에 포함된 응답 데이터를 출력 벡터로 생성하도록 지도 학습을 통해 학습하는 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템.
  4. 청구항 1에 있어서,
    상기 제어부는 상기 각각의 진단 표준 질문 데이터를 NLU(Natural Language Understanding) 모듈에 의해 문법적 분석(Syntactic analyze) 또는 의미적 분석(semantic analyze)을 수행하여 자연어의 텍스트 문자열 의미를 파악하고, 음성 합성 모듈에 의해 상기 자연어의 텍스트 문자열을 음성 신호로 변환하고, 상기 변환한 음성 신호를 상기 사용자 단말기로 전송하는 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템.
  5. 청구항 1에 있어서,
    상기 제어부는 상기 사용자 단말기로부터 상기 각각의 진단 표준 질문 데이터에 포함된 응답 선택 번호를 사용자의 음성 신호로 수신하는 수신부와, 상기 수신부로부터 수신된 사용자의 음성 신호를 텍스트 데이터로 변환하는 ASR(Automatic Speech Recognition) 모듈을 더 포함하는 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템.
  6. 청구항 5에 있어서,
    상기 인공 신경 처리망을 이용하여 상기 텍스트 데이터인 상기 응답 선택 번호가 딥러닝 기반 분류기 모델을 통해 상기 응답 데이터의 결과값으로 출력하는 분류부를 더 포함하는 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템.
  7. 청구항 1에 있어서,
    상기 표준 질문 생성부는 상기 진단 표준 질문 데이터를 인덱스를 레이블링하여 각각 생성하는 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템.
  8. 표준 수술 결과 보고서를 기반으로 인공지능에 학습하여 진단 표준 질문 데이터를 복수개 생성하는 단계;
    상기 각각의 진단 표준 질문 데이터는 질의에 대응하여 선택하는 응답 선택 번호를 포함하고, 상기 각각의 진단 표준 질문 데이터를 음성 신호로 변환하여 사용자 단말기로 전송하고, 상기 사용자 단말기로부터 상기 응답 선택 번호를 음성 신호로 입력받아 수신하는 단계; 및
    상기 인공지능에 학습한 진단 표준 질문 데이터를 이용하여 상기 수신한 응답 선택 신호에 대응하는 응답 데이터를 각각 생성하고, 상기 생성한 응답 데이터를 기반으로 수술 절차, 수술 및 진단 결과로 이루어진 최종 수술 결과 보고서를 생성하는 단계를 포함하는 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 방법.
  9. 청구항 8에 있어서,
    상기 진단 표준 질문 데이터를 복수개 생성하는 단계는,
    상기 진단 표준 질문 데이터의 생성 시 인덱스를 레이블링하여 의료 정보를 포함한 진단 표준 질문 데이터를 각각 생성하는 단계를 더 포함하는 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 방법.
  10. 청구항 8에 있어서,
    인공 신경 처리망을 이용하여 상기 각각의 진단 표준 질문 데이터의 특징값들이 입력 벡터가 되며, 입력층, 은닉층, 출력층을 통과하면, 상기 각각의 진단 표준 질문 데이터에 포함된 응답 데이터를 출력 벡터로 생성하도록 지도 학습을 통해 학습하는 단계를 더 포함하는 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 방법.
KR1020210114807A 2021-08-30 2021-08-30 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템 및 방법 KR102548600B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210114807A KR102548600B1 (ko) 2021-08-30 2021-08-30 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템 및 방법
PCT/KR2022/012924 WO2023033498A1 (ko) 2021-08-30 2022-08-30 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210114807A KR102548600B1 (ko) 2021-08-30 2021-08-30 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20230032223A KR20230032223A (ko) 2023-03-07
KR102548600B1 true KR102548600B1 (ko) 2023-06-27

Family

ID=85412875

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210114807A KR102548600B1 (ko) 2021-08-30 2021-08-30 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템 및 방법

Country Status (2)

Country Link
KR (1) KR102548600B1 (ko)
WO (1) WO2023033498A1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101990895B1 (ko) 2018-01-23 2019-06-19 주식회사 두유비 온라인 게시물 및 댓글 자동 응답용 인공지능 대화형 댓글 제공 시스템
KR102039292B1 (ko) 2019-03-25 2019-10-31 김보언 키워드 기반 질의응답 도출방법, 장치 및 프로그램
KR102542049B1 (ko) 2017-08-01 2023-06-12 삼성전자주식회사 인공지능 학습모델을 이용하여 요약 정보를 제공하기 위한 전자 장치 및 이의 제어 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2640642C2 (ru) * 2012-07-24 2018-01-10 Конинклейке Филипс Н.В. Система и способ генерации отчета на основании входных данных от радиолога
US20160283839A1 (en) * 2015-03-23 2016-09-29 Jay J. Ye Secretary-mimicking artificial intelligence for pathology report preparation
KR101968200B1 (ko) * 2018-10-20 2019-04-12 최정민 진단명, 수술명 및 치료명에 기초한 의료정보 추천시스템
KR102322518B1 (ko) * 2019-04-05 2021-11-09 오스템임플란트 주식회사 사용자 맞춤형 템플릿 기반 수술 보고서 제공방법 및 그 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102542049B1 (ko) 2017-08-01 2023-06-12 삼성전자주식회사 인공지능 학습모델을 이용하여 요약 정보를 제공하기 위한 전자 장치 및 이의 제어 방법
KR101990895B1 (ko) 2018-01-23 2019-06-19 주식회사 두유비 온라인 게시물 및 댓글 자동 응답용 인공지능 대화형 댓글 제공 시스템
KR102039292B1 (ko) 2019-03-25 2019-10-31 김보언 키워드 기반 질의응답 도출방법, 장치 및 프로그램

Also Published As

Publication number Publication date
KR20230032223A (ko) 2023-03-07
WO2023033498A1 (ko) 2023-03-09

Similar Documents

Publication Publication Date Title
CN110782870B (zh) 语音合成方法、装置、电子设备及存储介质
CN111833853B (zh) 语音处理方法及装置、电子设备、计算机可读存储介质
US10896222B1 (en) Subject-specific data set for named entity resolution
US10997223B1 (en) Subject-specific data set for named entity resolution
WO2021139229A1 (zh) 文本修辞句的生成方法、装置、设备及可读存储介质
US20120221339A1 (en) Method, apparatus for synthesizing speech and acoustic model training method for speech synthesis
CN110797010A (zh) 基于人工智能的问答评分方法、装置、设备及存储介质
CN110309280B (zh) 一种语料扩容方法及相关设备
US20230061906A1 (en) Dynamic question generation for information-gathering
WO2023045186A1 (zh) 意图识别方法、装置、电子设备和存储介质
Bird et al. Optimisation of phonetic aware speech recognition through multi-objective evolutionary algorithms
CN118113831A (zh) 问答数据的处理方法、装置、电子设备及存储介质
CN113823259B (zh) 将文本数据转换为音素序列的方法及设备
CN118378148A (zh) 多标签分类模型的训练方法、多标签分类方法及相关装置
Ferreira et al. Adversarial bandit for online interactive active learning of zero-shot spoken language understanding
CN114239599A (zh) 一种机器阅读理解的实现方法、系统、设备及介质
KR102548600B1 (ko) 음성 인식 플랫폼을 활용한 인공지능 기반의 수술결과보고서 제공 시스템 및 방법
CN115116443A (zh) 语音识别模型的训练方法、装置、电子设备及存储介质
Boateng et al. Brilla ai: Ai contestant for the national science and maths quiz
CN112818096A (zh) 对话生成方法及其装置
CN114400006B (zh) 语音识别方法和装置
CN115132170A (zh) 语种分类方法、装置及计算机可读存储介质
CN112270192B (zh) 一种基于词性和停用词过滤的语义识别方法及系统
CN115129859A (zh) 意图识别方法、装置、电子装置及存储介质
CN113743126A (zh) 一种基于用户情绪的智能交互方法和装置

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant