KR20190033330A - 회의록 작성 방법, 전자장치 및 시스템 - Google Patents

회의록 작성 방법, 전자장치 및 시스템 Download PDF

Info

Publication number
KR20190033330A
KR20190033330A KR1020170121981A KR20170121981A KR20190033330A KR 20190033330 A KR20190033330 A KR 20190033330A KR 1020170121981 A KR1020170121981 A KR 1020170121981A KR 20170121981 A KR20170121981 A KR 20170121981A KR 20190033330 A KR20190033330 A KR 20190033330A
Authority
KR
South Korea
Prior art keywords
conference
meeting
data
voice data
control unit
Prior art date
Application number
KR1020170121981A
Other languages
English (en)
Inventor
서동철
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020170121981A priority Critical patent/KR20190033330A/ko
Publication of KR20190033330A publication Critical patent/KR20190033330A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06F17/27

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Operations Research (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Telephonic Communication Services (AREA)

Abstract

본 발명의 회의록 작성 방법 및 장치에 관한 것으로, 회의 시작 신호가 수신되면, 회의 관련정보를 분석하여 회의록 서식을 결정하는 단계, 적어도 하나의 획득장치로부터 획득된 음성데이터 및 영상데이터 중 적어도 하나를 포함하는 획득데이터를 분석하는 단계, 획득데이터의 분석결과에 따라 회의 진행 시에 참여자들의 발화에 대응되는 회의 내용을 적어도 하나의 카테고리로 분류하는 단계 및 회의 내용을 분류된 카테고리별로 정렬하여 회의록을 작성하는 단계를 포함할 수 있고, 다른 실시 예로도 적용이 가능하다.

Description

회의록 작성 방법, 전자장치 및 시스템{Method, Electronic Apparatus and System for Generating of Minutes}
본 발명은 회의록 작성 방법 및 전자장치에 관한 것으로, 회의 관련정보로 회의록 서식을 결정하고, 획득데이터 분석을 통해 확인된 회의 내용을 카테고리로 분류하고, 분류된 회의 내용을 회의록 서식에 안건별로 정렬 기록하여 회의록을 작성하는 회의록 작성 방법, 전자장치 및 시스템에 관한 것이다.
회의록은 회의 시에 이루어진 모든 내용을 작성하는 문서다. 종래에는 회의가 시작되어 종료될 때까지 녹음 또는 녹화를 통해 회의 내용을 기록하고, 회의록 작성자가 기록된 데이터를 확인하고 회의와 관련된 내용만을 간추려 회의록을 작성하였다. 또한, 회의록 작성자는 회의록 작성 시에 화자를 직접적으로 구별하여 작성하기 위해 기록된 데이터를 처음부터 끝까지 확인하였다.
이와 같이, 종래의 회의록 작성은, 회의록 작성자의 시간과 노력이 과도하게 소모되는 문제점이 있었으며, 회의록 작성자에 의해 작성된 회의록이 회의 참여자들에게 배포되기까지 일정 시간 이상이 소모되는 문제점이 있었다.
이러한 종래의 문제점을 해결하기 위한 본 발명의 다양한 실시 예들은 회의 관리자로부터 입력된 회의 관련정보로 회의록 서식을 자동으로 결정할 수 있는 회의록 작성 방법, 전자장치 및 시스템을 제공하는 것이다.
본 발명의 다양한 실시 예들은 회의 진행 시에 획득되는 획득데이터 분석을 통해 확인된 회의 내용을 카테고리로 분류하고, 분류된 회의 내용을 회의록 서식에 따라 안건별로 정렬 기록하여 회의록을 작성할 수 있는 회의록 작성 방법 및 전자장치를 제공하는 것이다.
본 발명의 일 실시 예에 따른 회의록 작성 방법은, 회의 시작 신호가 수신되면, 회의 관련정보를 분석하여 회의록 서식을 결정하는 단계, 적어도 하나의 획득장치로부터 획득된 음성데이터 및 영상데이터 중 적어도 하나를 포함하는 획득데이터를 분석하는 단계, 상기 획득데이터의 분석결과에 따라 회의 진행 시에 참여자들의 발화에 대응되는 회의 내용을 적어도 하나의 카테고리로 분류하는 단계 및 상기 회의 내용을 상기 분류된 카테고리별로 정렬하여 회의록을 작성하는 단계를 포함하는 것을 특징으로 한다.
또한, 회의록을 작성하는 단계는, 회의에 대한 안건이 확인되면, 상기 회의 내용 중에서 상기 안건과 관련된 회의 내용을 확인하여 정렬하되, 상기 확인된 회의 내용을 카테고리별로 정렬하여 상기 회의록을 작성하는 단계인 것을 특징으로 한다.
또한, 회의록 서식을 결정하는 단계는, 상기 회의의 제목, 상기 참여자들의 정보, 상기 회의에 대한 안건 및 상기 회의에서 사용될 자료 중 적어도 하나를 포함하는 상기 회의 관련정보의 분석에 따라 확인된 회의 유형에 대응되는 상기 회의록 서식을 결정하는 단계인 것을 특징으로 한다.
또한, 카테고리로 분류하는 단계는, 상기 음성데이터를 기반으로 키워드 분석을 통해 안건과의 관계 정도, 자연어 처리를 통한 문장 코드 중 적어도 하나를 확인하고, 확인결과에 따라 제안사항, 이슈사항, 지시사항, 합의사항 및 향후계획 중 적어도 하나의 카테고리로 분류하는 단계인 것을 특징으로 한다.
또한, 카테고리로 분류하는 단계는, 상기 음성데이터의 분석결과에 따라 기저장된 회의사전어DB에 포함된 제안어의 포함 여부를 확인하여 상기 음성데이터를 제안사항으로 분류하는 단계를 포함하는 것을 특징으로 한다.
또한, 카테고리로 분류하는 단계는, 상기 음성데이터의 분석결과에 따라 문장 완성도, 데시벨 및 옥타브 변화, 참여자의 감정 상태, 기저장된 회의사전어DB에 포함된 이슈어의 포함 여부 중 적어도 하나를 확인하고, 확인결과를 기반으로 상기 음성데이터를 이슈사항으로 분류하는 단계를 포함하는 것을 특징으로 한다.
또한, 카테고리로 분류하는 단계는, 상기 음성데이터의 분석결과에 따라 참여자 관계, 참여자의 감정 상태, 발화에 대한 응답 속도, 기저장된 회의사전어DB에 포함된 지시어의 포함 여부 중 적어도 하나를 확인하고, 확인결과를 기반으로 상기 음성데이터를 지시사항으로 분류하는 단계를 포함하는 것을 특징으로 한다.
또한, 카테고리로 분류하는 단계는, 상기 음성데이터의 분석결과에 따라 참여자 관계, 기저장된 회의사전어DB에 포함된 합의어의 포함 여부, 발화 중인 참여자의 감정 상태 중 적어도 하나를 확인하고, 확인결과를 기반으로 상기 음성데이터를 합의사항으로 분류하는 단계를 포함하는 것을 특징으로 한다.
또한, 카테고리로 분류하는 단계는, 상기 음성데이터의 분석결과에 따라 기저장된 회의사전어DB에 포함된 계획어의 포함 여부를 확인하여 상기 음성데이터를 향후계획으로 분류하는 단계를 포함하는 것을 특징으로 한다.
또한, 획득데이터를 분석하는 단계 이후에, 상기 획득데이터의 분석결과에 따라 참여자의 감정 상태 및 참여도를 확인하여 휴식 시간을 제안하는 단계를 더 포함하는 것을 특징으로 한다.
아울러, 본 발명의 일 실시 예에 따른 회의록 작성 전자장치는, 획득데이터를 획득하는 적어도 하나의 획득장치와 통신을 수행하는 통신부 및 회의 시작 신호에 따라 회의 관련정보를 분석하여 회의록 서식을 결정하고, 회의 진행 시 획득된 복수의 참여자들에 대한 상기 획득데이터의 분석결과에 따라 상기 참여자들의 발화에 대응되는 회의 내용을 적어도 하나의 카테고리로 분류하고, 상기 카테고리로 분류된 상기 회의 내용을 상기 분류된 카테고리별로 정렬하여 회의록을 작성하는 제어부를 포함하는 것을 특징으로 한다.
또한, 제어부는, 회의에 대한 안건이 확인되면, 상기 회의 내용 중에서 상기 안건과 관련된 회의 내용을 확인하여 정렬하되, 상기 확인된 회의 내용을 카테고리별로 정렬하여 상기 회의록을 작성하는 단계인 것을 특징으로 한다.
또한, 제어부는, 상기 회의의 제목, 상기 참여자들의 정보, 상기 회의에 대한 안건 및 상기 회의에 사용될 자료 중 적어도 하나를 포함하는 상기 회의 관련정보의 분석에 따라 확인된 회의 유형에 대응되는 상기 회의록 서식을 결정하는 것을 특징으로 한다.
또한, 제어부는, 상기 획득데이터에 포함된 음성데이터를 기반으로 키워드 분석을 통해 안건과의 관계 정도, 자연어 처리를 통한 문장 코드 중 적어도 하나를 확인하고, 확인결과에 따라 제안사항, 이슈사항, 지시사항, 합의사항 및 향후계획 중 적어도 하나의 카테고리로 분류하는 것을 특징으로 한다.
또한, 제어부는, 상기 음성데이터의 분석결과에 따라 기저장된 회의사전어DB에 포함된 제안어의 포함 여부를 확인하여 상기 음성데이터를 제안사항으로 분류하는 것을 특징으로 한다.
또한, 제어부는, 상기 음성데이터의 분석결과에 따라 문장 완성도, 데시벨 및 옥타브 변화, 참여자의 감정 상태, 기저장된 회의사전어DB에 포함된 이슈어의 포함 여부 중 적어도 하나를 확인하고, 확인결과를 기반으로 상기 음성데이터를 이슈사항으로 분류하는 것을 특징으로 한다.
또한, 제어부는, 상기 음성데이터의 분석결과에 따라 참여자 관계, 참여자의 감정 상태, 발화에 대한 응답 속도, 기저장된 회의사전어DB에 포함된 지시어의 포함 여부 중 적어도 하나를 확인하고, 확인결과를 기반으로 상기 음성데이터를 지시사항으로 분류하는 것을 특징으로 한다.
또한, 제어부는, 상기 음성데이터의 분석결과에 따라 참여자 관계, 기저장된 회의사전어DB에 포함된 합의어의 포함 여부, 발화 중인 참여자의 감정 상태 중 적어도 하나를 확인하고, 확인결과를 기반으로 상기 음성데이터를 합의사항으로 분류하는 것을 특징으로 한다.
또한, 제어부는, 상기 음성데이터의 분석결과에 따라 기저장된 회의사전어DB에 포함된 계획어의 포함 여부를 확인하여 상기 음성데이터를 향후계획으로 분류하는 것을 특징으로 한다.
또한, 제어부는, 상기 획득데이터의 분석결과에 따라 참여자의 감정 상태 및 참여도를 확인하여 휴식 시간을 제안하는 것을 특징으로 한다.
아울러, 본 발명의 일 실시 예에 따른 회의록 작성 시스템은, 회의 진행 시 복수의 참여자들에 대한 음성데이터 및 영상데이터를 포함하는 획득데이터를 획득하는 복수의 획득장치 및 회의 시작 신호에 따라 회의 관련정보를 분석하여 회의록 서식을 결정하고, 상기 획득데이터의 분석결과에 따라 상기 참여자들의 발화에 대응되는 회의 내용을 적어도 하나의 카테고리로 분류하고, 상기 카테고리로 분류된 상기 회의 내용을 상기 분류된 카테고리별로 정렬하여 회의록을 작성하는 전자장치를 포함하는 것을 특징으로 한다.
상술한 바와 같이 본 발명의 회의록 작성 방법, 전자장치 및 시스템은, 회의 관련정보로 회의록 서식을 자동으로 결정함으로써, 회의 유형에 따라 회의록 작성자가 회의록 서식을 선택해야 하는 번거로움을 해소할 수 있는 효과가 있다.
또한, 본 발명의 회의록 작성 방법, 전자장치 및 시스템은, 회의 진행 시에 획득되는 획득데이터 분석을 통해 확인된 회의 내용을 카테고리로 분류하고, 분류된 회의 내용을 회의록 서식에 따라 안건별로 정렬 기록하여 회의록을 작성함으로써, 회의록 작성에 소모되는 시간을 최소화할 수 있는 효과가 있다.
도 1은 본 발명의 실시 예에 따른 회의록을 작성하기 위한 시스템을 나타내는 도면이다.
도 2는 본 발명의 실시 예에 따른 회의록을 작성하는 전자장치의 주요 구성을 나타내는 도면이다.
도 3은 본 발명의 실시 예에 따른 회의록 작성 방법을 설명하기 위한 순서도이다.
도 4는 본 발명의 실시 예에 따른 획득데이터를 분석하는 방법을 설명하기 위한 상세 순서도이다.
도 5 내지 도 8은 본 발명의 실시 예에 따른 회의록 서식을 나타낸 도면이다.
도 9는 본 발명의 실시 예에 따른 사전어를 설명하기 위한 도면이다.
도 10은 본 발명의 실시 예에 따른 작성된 회의록을 나타낸 도면이다.
이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략할 수 있고, 명세서 전체를 통하여 동일 또는 유사한 구성 요소에 대해서는 동일한 참조 부호를 사용할 수 있다.
본 발명의 일 실시 예에서, “또는”, “적어도 하나” 등의 표현은 함께 나열된 단어들 중 하나를 나타내거나, 또는 둘 이상의 조합을 나타낼 수 있다. 예를 들어, “A 또는 B”, “A 및 B 중 적어도 하나”는 A 또는 B 중 하나만을 포함할 수 있고, A와 B를 모두 포함할 수도 있다.
도 1은 본 발명의 실시 예에 따른 회의록을 작성하기 위한 시스템을 나타내는 도면이다.
도 1을 참조하면, 본 발명에 따른 시스템(10)은 복수개의 획득장치(100) 및 전자장치(200)를 포함한다.
복수개의 획득장치(100)는 제1 획득장치(100a), 제2 획득장치(100b), …, 제n 획득장치(100n)를 포함하고, 전자장치(200)와 통신을 수행한다. 이를 위해 복수개의 획득장치(100)는 유선 또는 무선 통신 중 적어도 하나를 수행할 수 있다. 획득장치(100)는 WiFi(wireless fidelity), LTE(long term evolution), LTE-A(long term evolution-advanced), 블루투스(bluetooth), BLE(bluetooth low energy) 및 NFC(near field communication) 등의 무선 통신 및 USB(universal serial bus) Cable 등의 유선 통신을 통해 전자장치(200)와 통신을 수행할 수 있다.
복수개의 획득장치(100)는 회의실에 구비된 회의 테이블의 좌석마다 설치되어 회의 참여자에 대한 영상데이터 및 음성데이터를 획득할 수 있는 카메라 및 마이크일 수 있다. 또한, 복수개의 획득장치(100)는 태블릿 PC 등 카메라와 마이크가 구비된 전자장치로서, 회의 테이블의 좌석마다 설치될 수 있고, 회의 참여자가 구비한 스마트 폰, 태블릿 PC 등 카메라와 마이크가 구비된 전자장치일 수 있다.
복수개의 획득장치(100)가 전자장치일 경우, 획득장치(100)는 회의 참여자로부터 참여자의 ID를 수신할 수 있다. 획득장치(100)는 회의 참여자의 ID와 획득장치(100)의 고유 ID를 매핑하여 전자장치(200)로 전송할 수 있다. 획득장치(100)는 회의 중에 회의 참여자로부터 입력된 내용을 기록하여 저장할 수 있고, 전자장치(200)로부터 수신되는 회의록을 표시할 수 있다.
획득장치(100)는 회의 진행 중에 전자장치(200)로부터 휴식 시간을 제안하는 메시지가 수신되면, 수신된 메시지를 표시할 수 있다. 획득장치(100)는 전자장치(200)로부터 참여자 상태에 의해 회의가 중단되어 회의 재개 일정을 설정해야 하는 메시지가 수신되면, 수신된 메시지를 표시할 수 있다. 획득장치(100)는 회의 재개 일정을 설정하기 위해 달력을 표시하고, 회의 참여자로부터 선택된 일정을 전자장치(200)로 전송할 수 있다.
획득장치(100)는 회의 종료 시에 전자장치(200)로부터 수신되는 회의에 대한 설문을 표시할 수 있고, 회의 참여자로부터 입력된 설문에 대한 답변을 전자장치(200)로 전송한다.
전자장치(200)는 복수개의 획득장치(100)와 통신을 수행한다. 이를 위해 전자장치(200)는 유선 또는 무선 통신 중 적어도 하나를 수행할 수 있다. 전자장치(200)는 WiFi(wireless fidelity), LTE(long term evolution), LTE-A(long term evolution-advanced), 블루투스(bluetooth), BLE(bluetooth low energy) 및 NFC(near field communication) 등의 무선 통신 및 USB(universal serial bus) Cable 등의 유선 통신을 통해 획득장치(100)와 통신을 수행할 수 있다. 본 발명의 실시 예에는 설명의 편의를 위해 전자장치로 기재하고 있으나, 전자장치(200)는 서버 등의 장치일 수도 있다.
전자장치(200)는 회의 시작 신호에 따라 회의 관련정보를 분석하여 회의록 서식을 결정한다. 전자장치(200)는 획득데이터의 분석결과에 따라 참여자들의 발화에 대응되는 회의 내용을 적어도 하나의 카테고리로 분류한다. 전자장치(200)는 안건별로 관련된 회의 내용을 확인하고, 안건과 관련된 회의 내용을 카테고리별로 정렬하여 회의록을 작성한다.
보다 구체적으로, 전자장치(200)는 회의 시작에 앞서, 회의 주최자로부터 회의 관련정보를 수신한다. 회의 관련정보는, 회의 날짜, 회의 시각, 회의 장소, 회의 제목, 참여자들의 정보, 회의에 대한 안건 및 회의에 사용될 자료(파일 목록 또는 파일 링크)를 포함할 수 있다.
전자장치(200)는 외부로부터 회의 시작 신호가 수신되면, 회의 관련정보를 분석하여 회의록 서식을 결정한다. 이를 위해, 전자장치(200)는 회의 관련정보로부터 키워드를 추출하고, 추출된 키워드를 기반으로 회의 유형을 판단한다. 전자장치(200)는 판단 결과에 대응되는 회의 유형에 적합한 회의록 서식을 결정한다.
전자장치(200)는 결정된 회의록 서식을 표시하고, 적어도 하나의 획득장치(100)로부터 회의 내용에 대응되는 획득데이터를 수신한다. 전자장치(200)는 획득데이터에 포함된 음성데이터를 텍스트데이터로 변환하여 회의록 서식의 해당 항목에 회의 내용을 실시간으로 기록한다. 이를 위해, 전자장치(200)는 음성데이터의 분석, 텍스트데이터의 자연어 처리 및 획득데이터에 포함된 영상데이터의 분석을 수행할 수 있다. 이때, 해당 항목은, 실적 및 계획, 발표 내용, 안건, 토의 사항, 지시 사항, 기타 사항, 향후 계획, 결론 등의 항목을 포함할 수 있고, 회의록 서식의 종류에 따라 적어도 하나의 항목으로 회의록 서식이 구성될 수 있다.
전자장치(200)는 회의 내용을 각각의 항목에 맞게 입력하여 회의록을 작성하고, 외부로부터 외부로부터 회의 종료 신호가 수신되면, 회의록 작성을 완료하고, 이를 표시하거나, 적어도 하나의 획득장치(100)로 전송할 수 있다.
보다 구체적으로, 전자장치(200)는 회의 내용으로 기록되는 음성데이터로부터 적어도 하나의 키워드를 추출하고, 적어도 하나의 안건로부터 추출된 키워드와의 비교를 통해 회의 내용이 어떠한 안건과 관련되어 있는지를 확인할 수 있다.
전자장치(200)는 회의 내용을 복수의 카테고리로 분류하고, 회의록 서식의 일부에 각 카테고리에 대응되는 항목에 추가적으로 기록한다. 복수의 카테고리는 제안사항, 이슈사항, 지시사항, 합의사항 및 향후계획을 포함할 수 있다.
전자장치(200)는 음성데이터가 변환된 텍스트데이터의 자연어 처리 결과, 문장 코드가 제안 등에 포함하는 것으로 분석되거나, 음성데이터에서 제안어가 확인되면, 해당 음성데이터를 제안사항으로 분류할 수 있다.
전자장치(200)는 음성데이터가 변환된 텍스트데이터의 자연어 처리 결과, 문장 코드가 이슈 등에 포함하는 것으로 분석되거나, 음성데이터에서 이슈어가 확인되면, 해당 음성데이터를 이슈사항으로 분류할 수 있다. 또한, 전자장치(200)는 음성데이터 분석 결과, 음성데이터에 대한 문장 완성도가 미비하면 해당 음성데이터를 이슈사항으로 분류할 수 있다. 전자장치(200)는 음성데이터 분석 결과, 음성데이터의 데시벨 및 옥타브 변화로부터 확인된 발화자의 감정 변화에 따라 해당 음성데이터를 이슈사항으로 분류할 수 있다.
전자장치(200)는 음성데이터가 변환된 텍스트데이터의 자연어 처리 결과, 문장 코드가 지시, 실행, 정리, 결과, 동의 등에 포함되는 것으로 분석되거나, 음성데이터에서 지시어가 확인되면, 해당 음성데이터를 지시사항으로 분류할 수 있다. 또한, 전자장치(200)는 음성데이터 분석 결과, A발화자가 B발화자에게 지시할 수 있는 직책이면 A발화자의 발화에 대한 음성데이터를 지시사항으로 분류할 수 있다. 전자장치(200)는 음성데이터 분석 결과, A발화자의 발화에 대한 B발화자의 응답 속도를 확인하여 확인결과에 따라 A발화자의 발화에 대한 음성데이터를 지시사항으로 분류할 수 있다. 전자장치(200)는 A발화자의 발화에 대한 B발화자의 감정 상태를 확인하여 확인결과에 따라 A발화자의 발화에 대한 음성데이터를 지시사항으로 분류할 수 있다. 이를 위해, 전자장치(200)는 인사정보DB(미도시)에 접근하여 각 발화자 사이의 직급, 발화자의 조직, 발화자들 사이의 지시가 가능한 지시우선순위 등을 확인할 수 있다.
전자장치(200)는 음성데이터가 변환된 텍스트데이터의 자연어 처리 결과, 문장 코드가 합의, 의결, 리뷰, 정리, 결과, 동의 등에 포함되는 것으로 분석되거나, 음성데이터에서 합의어가 확인되면, 해당 음성데이터를 합의사항으로 분류할 수 있다. 또한, 전자장치(200)는 음성데이터 분석 결과, 복수의 발화자가 특정 주제에 대한 합의를 할 수 있는 직책이면 해당 음성데이터를 합의사항으로 분류할 수 있다. 전자장치(200)는 음성데이터 또는 영상데이터의 분석결과, 특정 발화자의 발화 시점에 참여자들의 감정 분포를 확인하여 참여자들의 감정이 일시적으로 좋아지거나 나빠지면 특정 발화자의 발화에 대한 음성데이터를 합의사항으로 분류할 수 있다.
전자장치(200)는 음성데이터가 변환된 텍스트데이터의 자연어 처리 결과, 문장 코드가 계획, 실행, 정리, 결과, 동의 등에 포함되는 것으로 분석되거나, 음성데이터에서 계획어가 확인되면, 해당 음성데이터를 향후계획으로 분류할 수 있다.
전자장치(200)는 음성데이터의 분석을 통해 제안사항, 이슈사항, 지시사항, 합의사항 및 향후계획 중 적어도 하나의 카테고리로 분류된 음성데이터가 적어도 하나의 안건 중 어떤 안건과 관련되어 있는지를 확인할 수 있다. 이를 위해, 전자장치(200)는 카테고리별로 분류된 음성데이터로부터 적어도 하나의 키워드를 추출하고, 적어도 하나의 안건로부터 추출된 키워드와의 비교를 통해 제안사항, 이슈사항, 지시사항, 합의사항 및 향후계획이 각각 어떠한 안건과 관련되어 있는지를 확인할 수 있다. 전자장치(200)는 확인결과에 따라 안건별로 제안사항, 이슈사항, 지시사항, 합의사항 및 향후계획을 정렬할 수 있다.
전자장치(200)는 회의 종료 신호가 수신되면, 상기와 같이 작성이 완료된 즉, 안건별로 회의 내용이 정리되고, 회의 내용이 각각의 카테고리별로 정렬된 회의록을 출력하거나, 적어도 하나의 획득장치(100)로 전송한다. 전자장치(200)는 회의 참여자들로부터 회의에 대한 점수를 수신하여 회의를 평가할 수 있다. 전자장치(200)는 회의에 대한 평가를 이용하여 종료된 회의에 대한 회의 내역을 생성하고, 생성된 회의 내역을 기 저장된 학습데이터에 반영하여 기 저장된 학습데이터를 갱신할 수 있다.
도 2는 본 발명의 실시 예에 따른 회의록을 작성하는 전자장치의 주요 구성을 나타내는 도면이다.
도 2를 참조하면, 본 발명에 따른 전자장치(200)는 통신부(210), 입력부(220), 출력부(230), 메모리(240) 및 제어부(250)를 포함한다.
통신부(210)는 전자장치(200)의 외부에 구비된 복수의 획득장치(100) 및 서버(미도시)를 포함하는 외부 장치와의 통신을 수행한다. 이를 위해, 통신부(210)는 유선 또는 무선 통신 중 적어도 하나를 수행할 수 있다. 통신부(210)는 WiFi(wireless fidelity), LTE(long term evolution), LTE-A(long term evolution-advanced), 블루투스(bluetooth), BLE(bluetooth low energy) 및 NFC(near field communication) 등의 무선 통신 및 USB(universal serial bus) Cable 등의 유선 통신을 수행할 수 있다.
입력부(220)는 전자장치(200)의 사용자 입력에 대응하여 입력 데이터를 발생시킨다. 입력부(220)는 적어도 하나의 입력수단을 포함한다. 입력부(220)는 키패드(key pad), 돔 스위치(dome switch), 터치 패널(touch panel), 터치 키(touch key) 및 버튼(button)을 포함한다.
출력부(230)는 전자장치(200)의 동작에 따라 영상데이터인 출력 데이터를 출력한다. 이를 위해, 출력부(230)는 액정 디스플레이(LCD; liquid crystal display), 발광 다이오드(LED; light emitting diode) 디스플레이, 유기 발광 다이오드(OLED; organic LED) 디스플레이, 마이크로 전자기계 시스템(MEMS; micro electro mechanical systems) 디스플레이 및 전자 종이(electronic paper) 디스플레이를 포함한다. 출력부(230)는 입력부(220)와 결합되어 터치 스크린(touch screen)으로 구현될 수 있다. 또한, 출력부(230)는 음향 데이터인 출력데이터를 출력하기 위해 스피커를 포함할 수 있다. 출력부(230)는 제어부(250)의 제어에 의해 회의 진행 중에 작성되는 회의록을 실시간으로 표시할 수 있다.
메모리(240)는 전자장치(100)의 동작 프로그램들을 저장한다. 메모리(240)는 회의 유형에 적합한 회의록 서식을 매핑하여 저장할 수 있다. 메모리(240)는 화자의 직급 확인을 위하여 사내 조직관리를 위한 인사정보를 저장할 수 있다. 메모리(240)는 획득장치(100)로부터 수신되는 음성데이터를 기반으로 화자를 구별하기 위해 음성데이터의 레퍼런스를 저장할 수 있다.
특히, 메모리(240)는 회의사전어DB(241) 및 학습DB(242)를 포함할 수 있다. 회의사전어DB(241)는 획득데이터에 포함된 음성데이터의 분석을 통해 회의 내용을 카테고리로 분류하기 위한 기준이 되는 사전어를 각각 저장한다. 사전어는, 제안어, 이슈어, 지시어, 합의어, 계획어를 포함할 수 있다. 회의사전어DB(241)는 회의 종료 시마다 학습에 의해 갱신될 수 있다.
학습DB(242)는 회의 진행에 따라 제어부(250)에서 생성된 회의록을 포함하는 회의 내역을 학습데이터로 저장할 수 있다. 이때, 회의 내역은, 회의 개최 시에 입력된 회의 정보와, 회의 종료 시각, 실제 회의 진행 시간, 회의 예정 시간보다 초과된 시간, 휴식 시간 횟수, 휴식 시간 제안 원인, 휴식 시간에 제공된 컨텐츠, 휴식 시간의 길이, 회의 점수 등을 포함할 수 있다.
제어부(250)는 회의 시작 신호에 따라 회의 관련정보를 분석하여 회의록 서식을 결정한다. 제어부(250)는 회의 진행 시 획득된 복수의 참여자들에 대한 획득데이터의 분석결과에 따라 참여자들의 발화에 대응되는 회의 내용을 적어도 하나의 카테고리로 분류한다. 제어부(250)는 회의 내용을 분류된 카테고리별로 정렬하여 회의록을 작성한다. 제어부(250)는 작성된 회의록을 출력부(230)에 표시한다.
보다 구체적으로, 제어부(250)는 회의 관련정보를 분석한다. 회의 관련정보는, 회의 제목, 참여자들의 정보, 회의에 대한 안건 및 회의에 사용될 파일(파일 목록 또는 파일 링크) 중 적어도 하나를 포함할 수 있다. 회의 관련정보는, 스케줄 서버(미도시)에 입력된 정보일 수 있다. 또한, 회의 관련정보는 회의 시작 이전에 회의 주최자로부터 입력될 수 있다. 제어부(250)는 회의 관련정보로부터 키워드를 추출하고, 추출된 키워드를 기반으로 회의 유형을 판단한다. 회의 유형은, 크게 4가지의 유형으로 나눌 수 있다. 보다 구체적으로, 제1 회의 유형은 주간보고, 업무보고, 월간보고 등 업무에 대한 보고의 성질을 갖는 회의 유형, 제2 회의 유형은 연구발표, 결과발표 등 특정 주제에 대한 발표의 성질을 갖는 회의 유형, 제3 회의 유형은 협의, 제안, 논의 등 적어도 하나의 안건에 대한 토의의 성질을 갖는 회의 유형 및 제4 회의 유형은 대책, 전략, 의결 등 적어도 하나의 안건에 대한 결정이 필요한 성질을 갖는 회의 유형으로 나눌 수 있다.
예컨대, 회의 제목이 “2017년 8월 2주 주간업무보고”이면 제목에 대한 키워드 분석 결과 “주간업무”, “업무보고”, “주간보고” 등의 키워드가 추출될 수 있다. 제어부(250)는 키워드 분석 결과에 따라 회의의 유형이 제1 회의 유형인 것으로 판단할 수 있다. 회의 제목이 “5G 사용실태에 대한 조사결과보고”이면 제목에 대한 키워드 분석 결과 “사용실태”, “조사결과”, “결과보고” 등의 키워드가 추출될 수 있다. 제어부(250)는 키워드 분석 결과에 따라 회의의 유형이 제2 회의 유형인 것으로 판단할 수 있다. 회의 제목이 “기가지니 응용 플랫폼 방안 논의”이고, 이와 관련된 안건이 “기가지니 쇼핑 플랫폼 획일화 방안”, “기가지니 뮤직 플랫폼 개선 방안” 등일 경우, 제목 및 안건에 대한 키워드 분석 결과 “방안논의”, “개선방안”, “획일화방안” 등의 키워드가 추출될 수 있다. 제어부(250)는 키워드 분석결과에 따라 회의의 유형이 제3 회의 유형인 것으로 판단할 수 있다. 회의 제목이 “5G 상용화 가속도 대책 마련 방안”이면 제목에 대한 키워드 분석 결과 “대책마련”, “대책방안”, “가속도방안” 등의 키워드가 추출될 수 있다. 제어부(250)는 키워드 분석결과에 따라 회의의 유형이 제4 회의 유형인 것으로 판단할 수 있다.
제어부(250)는 판단된 회의 유형에 적합한 회의록 서식을 결정한다. 예를 들면, 제1 회의 유형의 회의록 서식은 크게 실적/계획, 토의 사항, 지시 사항 및 기타 사항 등을 기록할 수 있는 항목으로 구성될 수 있다. 제2 회의 유형의 회의록 서식은 발표내용, 토의 사항 및 향후 계획 등을 기록할 수 있는 항목으로 구성될 수 있다. 제3 회의 유형의 회의록 서식은 적어도 하나의 안건, 토의 사항 및 결론 등을 기록할 수 있는 항목으로 구성될 수 있다. 제4 회의 유형의 회의록 서식은 적어도 하나의 안건, 토의 사항, 결론 및 향후 계획 등을 기록할 수 있는 항목으로 구성될 수 있다.
제어부(250)는 결정된 회의록 서식을 출력부(230)에 출력하고, 획득장치(100)로부터 지속적으로 수신되는 획득데이터를 분석한다. 제어부(250)는 획득데이터의 분석을 위해 획득데이터에 포함된 음성데이터와 영상데이터를 분류할 수 있다.
제어부(250)는 획득데이터에 포함된 음성데이터의 분석에 따라 음성데이터를 텍스트데이터로 변환하여 회의록 서식의 해당 항목에 회의 내용을 실시간으로 기록하여 표시할 수 있다. 이때, 제어부(250)는 회의 내용 기록 시에 발화자의 이름을 함께 기록할 수 있다.
제어부(250)는 회의 내용을 각각의 항목에 맞게 실시간으로 입력하여 회의록을 작성하고, 외부로부터 회의 종료 신호가 수신되면, 회의록 작성을 완료할 수 있다. 이때, 회의 종료 신호는 입력부(220)를 통해 입력될 수 있고, 회의 주최자에게 할당된 전자장치로부터 수신될 수도 있다.
제어부(250)는 회의 내용에 적어도 하나의 안건이 포함되면, 각각의 항목에 입력된 회의 내용을 적어도 하나의 카테고리로 분류하고, 상기 회의록 서식의 일부 영역에 회의 내용을 카테고리별로 정렬하여 표시하되, 안건별로 정렬하여 표시할 수 있다. 이때, 카테고리는, 제안사항, 이슈사항, 지시사항, 합의사항 및 향후계획 등을 포함할 수 있다. 이를 위해, 제어부(250)는 회의록에 기록된 회의 내용이 회의에서 제안된 안건 중 어떤 안건과 관련된 회의 내용인지 확인할 수 있다. 제어부(250)는 회의 내용으로 기록되는 음성데이터로부터 적어도 하나의 키워드를 추출하고, 적어도 하나의 안건로부터 추출된 키워드와의 비교를 통해 회의 내용이 어떠한 안건과 관련되어 있는지를 확인할 수 있다.
제어부(250)는 회의 내용을 적어도 하나의 카테고리로 분류할 수 있다. 제어부(250)는 음성데이터의 분석을 통해 발화자 확인, 복수의 발화자인 경우 발화자 사이의 관계, 키워드 추출, 추출된 키워드를 기반으로 적어도 하나의 안건과의 연관 관계, 회의사전어DB(241)에 추출된 키워드의 포함 여부, 음성데이터가 변환된 텍스트데이터의 자연어 처리를 통한 문장 코드, 음성데이터에 대응되는 문장의 완성도, 음성데이터의 분석을 통한 발화자의 감정 상태, 영상데이터를 통한 참여자의 감정 상태, 발화자가 복수일 경우 A발화에 대한 응답인 B발화의 속도 등을 확인할 수 있고, 영상데이터의 분석을 통해 발화자의 감정 상태를 추가적으로 확인할 수 있다.
보다 구체적으로, 제어부(250)는 음성데이터가 변환된 텍스트데이터의 자연어 처리 결과, 문장 코드가 제안 등에 포함하는 것으로 확인되거나, 음성데이터에서 회의사전어DB(241)에 포함된 제안어가 확인되면, 해당 음성데이터를 제안사항으로 분류할 수 있다.
제어부(250)는 음성데이터가 변환된 텍스트데이터의 자연어 처리 결과, 문장 코드가 이슈 등에 포함하는 것으로 확인되거나, 음성데이터에서 회의사전어DB(241)에 포함된 이슈어가 확인되면, 해당 음성데이터를 이슈사항으로 분류할 수 있다. 또한, 제어부(250)는 음성데이터 분석 결과, A발화자의 발화 도중 B발화자의 발화로 인해 A발화자의 발화에 대한 문장 완성도가 미비하면 A발화자와 B발화자의 발화에 대한 음성데이터를 이슈사항으로 분류할 수 있다. 제어부(250)는 음성데이터 분석 결과, 음성데이터의 데시벨 및 옥타브 변화로부터 발화자의 감정 변화가 이전의 발화자의 감정 변화를 기준으로 임계치 이상 변화한 것으로 확인되면 해당 음성데이터를 이슈사항으로 분류할 수 있다.
제어부(250)는 음성데이터가 변환된 텍스트데이터의 자연어 처리 결과, 문장 코드가 지시, 실행, 정리, 결과, 동의 등에 포함되는 것으로 확인되거나, 음성데이터에서 회의사전어DB(241)에 포함된 지시어가 확인되면, 해당 음성데이터를 지시사항으로 분류할 수 있다. 또한, 제어부(250)는 음성데이터 분석 결과, A발화자가 B발화자에게 지시할 수 있는 직책이면 A발화자의 발화에 대한 음성데이터를 지시사항으로 분류할 수 있다. 제어부(250)는 음성데이터 분석 결과, A발화자의 발화에 대한 B발화자의 응답 속도를 확인하여 확인결과에 따라 A발화자의 발화에 대한 음성데이터를 지시사항으로 분류할 수 있다. 제어부(250)는 A발화자의 발화에 대한 B발화자의 감정 상태를 확인하여 확인결과에 따라 A발화자의 발화에 대한 음성데이터를 지시사항으로 분류할 수 있다. 이를 위해, 제어부(250)는 인사정보DB(미도시)에 접근하여 각 발화자 사이의 직급, 발화자의 조직, 발화자들 사이의 지시가 가능한 지시우선순위 등을 확인할 수 있다.
제어부(250)는 음성데이터가 변환된 텍스트데이터의 자연어 처리 결과, 문장 코드가 합의, 의결, 리뷰, 정리, 결과, 동의 등에 포함되는 것으로 확인되거나, 음성데이터에서 회의사전어DB(241)에 포함된 합의어가 확인되면, 해당 음성데이터를 합의사항으로 분류할 수 있다. 또한, 제어부(250)는 음성데이터 분석 결과, A발화자와 B발화자가 특정 주제에 대한 합의를 할 수 있는 직책이면 A발화자와 B발화자의 발화에 대한 음성데이터를 합의사항으로 분류할 수 있다. 제어부(250)는 음성데이터 또는 영상데이터의 분석결과, 특정 발화자의 발화 시점에 참여자들의 감정 분포를 확인하여 참여자들의 감정이 일시적으로 좋아지거나 나빠지면 특정 발화자의 발화에 대한 음성데이터를 합의사항으로 분류할 수 있다.
제어부(250)는 음성데이터가 변환된 텍스트데이터의 자연어 처리 결과, 문장 코드가 계획, 실행, 정리, 결과, 동의 등에 포함되는 것으로 확인되거나, 음성데이터에서 회의사전어DB(241)에 포함된 계획어가 확인되면, 해당 음성데이터를 향후계획으로 분류할 수 있다.
제어부(250)는 음성데이터의 분석을 통해 제안사항, 이슈사항, 지시사항, 합의사항 및 향후계획으로 분류된 음성데이터가 기록된 적어도 하나의 안건 중 어떤 안건과 관련되어 있는지를 확인할 수 있다. 이를 위해, 제어부(250)는 카테고리별로 분류된 음성데이터로부터 적어도 하나의 키워드를 추출하고, 적어도 하나의 안건로부터 추출된 키워드와의 비교를 통해 제안사항, 이슈사항, 지시사항, 합의사항 및 향후계획이 각각 어떠한 안건과 관련되어 있는지를 확인할 수 있다.
제어부(250)는 회의 종료 신호가 수신되면 상기와 같이, 안건별로 회의 내용을 정리하고, 회의 내용을 각각의 카테고리별로 정렬하여 회의록 작성을 완료한 후, 이를 출력부(230)에 출력하거나, 적어도 하나의 획득장치(100)로 전송한다. 보다 구체적으로, 제어부(250)는 안건별로 회의 내용을 정렬하되, 제안사항, 이슈사항, 지시사항, 합의사항 및 향후계획 등에 대한 카테고리별로 정렬할 수 있다. 제어부(250)는 작성이 완료된 회의록을 회의 참여자에게 자동적으로 배포할 수 있다.
제어부(250)는 회의 참여자들로부터 회의에 대한 점수를 수신하여 회의를 평가할 수 있다. 이를 위해, 제어부(250)는 종료된 회의에 대하여 회의 참여자에게 설문을 수행한다. 보다 구체적으로, 제어부(250)는 회의 중간에 제안된 휴식 시간의 제안 시점에 대한 만족도, 휴식 시간의 길이에 대한 만족도, 휴식 시간에 출력된 컨텐츠에 대한 만족도 및 회의 개선점 등을 포함하는 설문을 수행할 수 있다. 이때, 획득장치(100)가 카메라 및 마이크일 경우, 제어부(250)는 회의 종료 후에 회의 참여자의 이-메일로 설문을 전송할 수 있고, 이-메일을 통해 설문에 대한 답변을 수신할 수 있다. 또한, 획득장치(100)가 전자장치일 경우, 제어부(250)는 획득장치(100)로 설문을 전송하고, 전자장치(200)로부터 이에 대한 답변을 수신할 수 있다.
제어부(250)는 회의에 대한 평가를 이용하여 종료된 회의에 대한 회의 내역을 생성한다. 회의 내역은, 회의 시작 전에 입력된 회의 예정 시간, 실제 회의가 진행된 시간, 휴식 시간의 길이, 휴식 시간의 제안 횟수, 회의에 대한 점수 등을 포함하는 회의 내역을 생성하여 메모리(240)에 저장할 수 있다. 제어부(250)는 회의 내역을 기 저장된 학습데이터에 반영하여 기 저장된 학습데이터를 갱신한다.
제어부(250)는 회의 진행 중에 음성데이터 및 영상데이터의 분석을 통해 휴식 시간이 필요한 것으로 확인되면, 출력부(230)를 통해 휴식 시간을 제안하기 위한 메시지를 출력한다. 제어부(250)는 휴식 시간이 종료되면, 회의 진행을 재개하고, 재개된 회의에 대한 종료 신호가 수신될 때까지 획득데이터의 분석을 지속적으로 수행할 수 있다.
보다 구체적으로, 제어부(250)는 음성데이터의 분석결과, 음성데이터가 변환된 텍스트데이터의 자연어 처리결과 및 영상데이터의 분석결과 중 적어도 하나를 고려하여 참여자의 감정 상태를 확인할 수 있다. 제어부(250)는 음성데이터의 분석을 통해 참여자의 목소리의 데시벨, 옥타브 및 발화 속도 등을 포함하는 음성데이터의 특징을 추출하여 참여자의 감정 상태를 확인할 수 있다. 제어부(250)는 음성데이터가 변환된 텍스트데이터의 자연어 처리결과에 따라, 비속어, 욕설, 특정인에 대한 비하, 동일 표현의 반복 여부, 회의와 연관성이 없는 표현의 반복 여부 등을 확인하여 참여자의 감정 상태를 확인할 수 있다. 제어부(250)는 영상데이터의 분석을 통해 확인된 회의 참여자의 하품 횟수, 머리의 움직임, 눈 깜박임 횟수, 동공의 움직임 등을 포함하는 회의 참여자의 표정 및 동작으로부터 참여자의 감정 상태를 확인할 수 있다. 이때, 제어부(250)가 확인하는 회의 참여자의 감정 상태는 참여자의 화남, 지루함, 졸림 등의 상태일 수 있다.
예컨대, 제어부(250)는 단위 시간(예컨대, 1분)당 음성데이터 분석결과, 회의 참여자의 목소리 데시벨, 옥타브 및 발화 속도를 기준으로 회의 참여자의 상태를 확인할 수 있다. 예컨대, 제어부(250)는 음성데이터 분석결과, 회의 참여자의 목소리 데시벨의 구간(예컨대, 60dB~80dB)에 따라 서로 다른 가중치를 부여하고, 회의 참여자의 목소리 옥타브(예컨대, 2옥타브~4옥타브)의 구간에 따라 서로 다른 가중치를 부여하며, 회의 참여자의 발화 속도(예컨대, 느림, 중간, 빠름)에 따라 서로 다른 가중치를 부여할 수 있다. 이때, 목소리 데시벨, 목소리 옥타브 및 발화 속도는 각각 복수의 구간으로 분류되어 각 구간마다 서로 다른 가중치가 매핑될 수 있다. 제어부(250)는 음성데이터 분석결과에 따라 가중치를 부여하여 회의 참여자에 대한 참여자 상태를 화남, 지루함 및 졸림 중 어느 하나로 확인할 수 있다. 제어부(250)는 확인된 참여자 상태의 정도를 0에서 100까지의 범위 내에서 수치화한다.
제어부(250)는 자연어 처리 결과, 비속어, 욕설, 특정인에 대한 비하, 동일 표현의 반복 여부, 회의와 연관성이 없는 표현의 반복 여부 등을 기준으로 회의 참여자의 상태를 확인할 수 있다. 예컨대, 제어부(250)는 음성데이터의 자연어 처리 결과, 비속어, 욕설, 비하, 동일 표현의 반복, 회의와 연관성이 없는 표현의 반복이 검출되는 횟수별로 서로 다른 가중치를 부여할 수 있다. 제어부(250)는 자연어 처리 결과에 따라 비속어, 욕설, 비하 등과 관련된 표현이 검출된 경우, 검출된 횟수에 가중치를 부여하여 단위 시간 동안 발화하는 참여자 상태가 화남임을 확인하고, 화남의 정도를 0에서 100까지의 범위 내에서 수치화한다. 제어부(250)는 동일 표현, 회의와 연관성이 없는 표현의 반복적으로 검출된 경우, 검출된 횟수에 가중치를 부여하여 참여자 상태가 지루함 및 졸림 중 어느 하나임을 확인하고, 지루함 및 졸림의 정도를 0에서 100까지의 범위 내에서 수치화한다.
제어부(250)는 영상데이터 분석결과, 회의 참여자의 하품 횟수, 머리의 움직임, 눈 깜박임 횟수, 동공의 움직임 등을 기반으로 회의 참여자의 상태를 확인할 수 있다. 예컨대, 제어부(250)는 영상데이터의 처리 결과, 회의 참여자별로 단위 시간당 하품, 머리의 움직임 등에 서로 다른 가중치를 부여하여 참여자 상태가 지루함 및 졸림 중 어느 하나인 것으로 확인할 수 있다. 제어부(250)는 참여자 상태의 정도를 0에서 100까지의 범위 내에서 수치화한다. 또한, 제어부(250)는 영상데이터 처리 결과, 회의 참여자별로 단위 시간당 눈 깜박임에 대한 평균 횟수를 산출하고, 눈 깜박임 속도가 평균 횟수보다 작을 경우, 이에 대한 가중치를 부여하여 참여자 상태를 지루함 및 졸림 중 어느 하나인 것으로 확인할 수 있다. 제어부(250)는 참여자 상태의 정도를 0에서 100까지의 범위 내에서 수치화한다.
제어부(250)는 참여자 상태가 확인되면, 기 저장된 학습데이터에서 참여자 상태에 대응되는 휴식 시간을 설정한다. 제어부(250)는 설정된 휴식 시간이 종료되면, 회의 진행을 재개한다. 제어부(250)는 휴식 시간 동안 출력부(230)를 통해 특정 컨텐츠를 출력할 수 있다. 이때, 특정 컨텐츠는, 회의 참여자들의 분위기를 전환할 수 있는 TV프로그램 등의 동영상데이터, 음악데이터, 휴식 시간임을 알리는 안내 메시지 및 회의 종료 이후의 일정(예컨대, 만찬, 점심시간, 퇴근시간 등)을 알리는 이벤트 메시지 등을 포함할 수 있다. 이때, 제어부(250)는 참여자 상태의 수치값에 대응되는 휴식 시간을 학습데이터에서 확인하고, 수치값에 대응되는 컨텐츠를 학습데이터에서 확인할 수 있다. 제어부(250)는 확인된 휴식 시간만큼의 휴식 시간을 제공하고, 확인된 컨텐츠를 출력부(230)에 출력한다. 아울러, 제어부(250)는 자연어 처리 결과, 단위 시간 당 확인된 욕설, 비하와 관련된 단어 개수에 매핑되어 메모리(240)에 저장된 화남 수치값을 확인하여 휴식 시간 및 컨텐츠를 제공할 수 있다. 또한, 제어부(250)는 자연어 처리 결과, 단위 시간 당 확인된 동일 표현의 반복 횟수, 회의와 연관성이 없는 표현의 반복 횟수에 매핑되어 메모리(240)에 저장된 지루함 및 졸음 중 어느 하나의 수치값을 확인하여 휴식 시간 및 컨텐츠를 제공할 수 있다. 획득장치(100)가 전자장치일 경우, 제어부(250)는 컨텐츠를 획득장치(100)로 전송할 수 있다.
도 3은 본 발명의 실시 예에 따른 회의록 작성 방법을 설명하기 위한 순서도이다. 301단계에서 제어부(250)는 입력부(220)를 통해 회의 시작 신호가 수신되면 303단계를 수행하고, 회의 시작 신호가 수신되지 않으면 시작신호의 수신을 대기한다. 이때, 회의 시작 신호는 회의 참여자 중 회의 주최자에게 할당된 전자장치로부터 수신될 수도 있다.
303단계에서 제어부(250)는 회의 관련정보를 분석한다. 보다 구체적으로, 회의 관련정보는, 회의 제목, 참여자들의 정보, 회의에 대한 안건, 회의에 사용될 파일(파일 목록 또는 파일 링크) 중 적어도 하나를 포함할 수 있다. 회의 관련정보는, 스케줄 서버에 입력된 정보일 수 있고, 회의 시작 이전에 회의 주최자로부터 입력될 수 있다. 제어부(250)는 회의 관련정보를 분석하여 키워드를 추출하고, 키워드를 기반으로 회의 유형을 판단한다. 이때, 회의 유형은 크게 제1 회의 유형, 제2 회의 유형, 제3 회의 유형 및 제4 회의 유형으로 나눌 수 있다. 제1 회의 유형은 주간보고, 업무보고, 월간보고 등 참여자 업무에 대한 보고의 성질을 갖는 회의 유형, 제2 회의 유형은 연구발표, 결과발표 등 특정 주제에 대한 발표의 성질을 갖는 회의 유형, 제3 회의 유형은 협의, 제안, 논의 등 적어도 하나의 안건에 대한 논의의 성질을 갖는 회의 유형 및 제4 회의 유형은 대책, 전략, 의결 등 적어도 하나의 안건에 대한 결정이 필요한 성질을 갖는 회의 유형일 수 있다.
305단계에서 제어부(250)는 판단된 회의 유형에 적합한 회의록 서식을 메모리(240)에서 호출하여 회의록 서식을 결정한다. 제어부(250)는 결정된 회의록 서식을 출력부(230)에 출력한다. 이를 통해, 제어부(250)는 분석된 회의데이터를 기반으로 하는 회의 내용을 회의록 서식에 기록하여 회의록을 실시간으로 작성할 수 있다. 제1 회의 유형의 회의록 서식은 크게 실적/계획, 토의 사항, 지시 사항 및 기타 사항 등을 기록할 수 있는 항목으로 구성될 수 있다. 제2 회의 유형의 회의록 서식은 발표내용, 토의 사항 및 향후 계획 등을 기록할 수 있는 항목으로 구성될 수 있다. 제3 회의 유형의 회의록 서식은 적어도 안건, 토의 사항 및 결론 등을 기록할 수 있는 항목으로 구성될 수 있다. 제4 회의 유형의 회의록 서식은 적어도 하나의 안건, 토의 사항, 결론 및 향후 계획 등을 기록할 수 있는 항목으로 구성될 수 있다.
307단계에서 제어부(250)는 적어도 하나의 획득장치(100)로부터 획득된 획득데이터의 수신여부를 확인한다. 307단계의 확인결과, 획득데이터가 수신되지 않으면 제어부(250)는 획득데이터의 수신을 대기하고, 획득데이터가 수신되면 제어부(250)는 309단계를 수행한다. 309단계에서 제어부(250)는 실시간으로 수신되는 획득데이터를 분석한다. 회의데이터 분석에 대한 상세한 설명은 하기의 도 4를 이용하여 설명하기로 한다. 도 4는 본 발명의 실시 예에 따른 획득데이터를 분석하는 방법을 설명하기 위한 상세 순서도이다.
401단계에서 제어부(250)는 획득장치(100)로부터 실시간으로 수신되는 음성데이터 및 영상데이터를 분석하고, 403단계를 수행한다. 403단계에서 제어부(250)는 분석된 음성데이터로부터 회의의 안건이 확인되면 405단계를 수행하고, 음성데이터로부터 안건이 확인되지 않으면 407단계를 수행한다. 403단계에서 제어부(250)는 회의 유형이 제1 회의 유형 및 제2 회의 유형인 경우, 회의록 서식에 안건을 기재할 수 있는 항목이 없으므로, 회의록 서식에 안건을 기록하지 않고 407단계를 수행할 수 있다. 403단계에서 제어부(250)는 음성데이터로부터 회의 안건이 확인되지 않더라도, 회의 관련정보에 회의 안건이 포함된 상태이면 405단계를 수행할 수 있다.
405단계에서 제어부(250)는 확인된 안건을 회의록 서식에 기록한다. 예컨대, 제어부(250)는 회의 관련정보에 회의 안건이 포함된 경우에는 회의 관련정보의 분석결과에 따라 확인된 안건을 회의록 서식에 기록할 수 있다. 또한, 제어부(250)는 회의 관련정보에 회의 안건이 포함되지 않은 경우에는, 음성데이터로부터 적어도 하나의 안건을 확인하고, 이를 회의록 서식에 기록할 수 있다. 보다 구체적으로, 제어부(250)는 음성데이터가 변환된 텍스트데이터를 자연어 처리하고, 자연어 처리결과에 따른 문장 코드를 확인할 수 있다. 제어부(250)는 문장 코드가 안건과 관련된 문장 코드이면, 음성데이터가 변환된 텍스트데이터를 회의록 서식의 안건 항목에 기록할 수 있다. 이때, 제어부(250)는 음성데이터의 분석을 통해, 발화자를 확인하고, 안건 기록 시에 발화자의 이름을 함께 기록할 수 있다. 제어부(250)는 메모리(240)에 저장된 음성데이터에 대한 레퍼런스를 이용하여 발화자 및 발화자의 직급을 확인할 수 있다. 이때, 제어부(250)는 획득데이터를 획득한 획득장치(100)에 할당된 아이디 등을 이용하여 발화자 및 발화자의 직급을 확인할 수도 있다. 제어부(250)는 회의 관련정보에 안건이 포함된 경우, 회의 관련정보의 분석 및 음성데이터의 분석을 통해 안건을 확인할 수 있다. 제어부(250)는 확인된 안건을 회의록 서식의 안건 항목에 기록할 수 있다. 아울러, 제어부(250)는 회의록 서식에 기록된 안건으로부터 적어도 하나의 키워드를 추출할 수 있다.
407단계에서 제어부(250)는 회의록 서식의 해당 항목에 회의 내용을 실시간으로 기록한다. 이를 위해, 제어부(250)는 획득장치(100)로부터 실시간으로 수신되는 획득데이터를 지속적으로 분석하여 회의 진행에 따라 복수의 참여자들로부터 발화되는 음성데이터를 텍스트데이터로 변환하여 회의록 서식의 해당 항목에 실시간으로 기록할 수 있다. 409단계에서 제어부(250)는 회의 내용을 카테고리별로 분류가 가능한지 확인한다. 409단계의 확인결과, 회의 내용을 카테고리로 분류가 가능하면 제어부(250)는 411단계를 수행하여 회의 내용을 카테고리로 분류한다. 409단계의 확인결과, 회의 내용을 카테고리로 분류가 불가능하면 제어부(250)는 413단계를 수행한다.
보다 구체적으로, 제어부(250)는 회의 내용을 복수개의 카테고리로 분류하기 위해 음성데이터의 분석을 수행한다. 제어부(250)는 음성데이터의 분석을 통해 발화자, 복수의 발화자인 경우 발화자 사이의 관계, 키워드 추출, 추출된 키워드를 기반으로 적어도 하나의 안건과의 연관 관계, 회의사전어DB(241)에 추출된 키워드의 포함 여부, 음성데이터가 변환된 텍스트데이터의 자연어 처리를 통한 문장 코드, 음성데이터에 대응되는 문장의 완성도, 음성데이터의 분석을 통한 발화자의 감정 상태, 영상데이터를 통한 참여자의 감정 상태, 발화자가 복수일 경우 A발화에 대한 응답인 B발화의 속도 등을 확인할 수 있다.
제어부(250)는 음성데이터 분석을 통해 회의 내용을 제안사항, 이슈사항, 지시사항, 합의사항 및 향후계획에 대응되는 각각의 카테고리로 분류할 수 있다. 제어부(250)는 음성데이터를 분석하여 회의 내용이 405단계에서 기록된 안건 중 어떤 안건과 관련된 회의 내용인지 확인할 수 있다. 이를 위해, 제어부(250)는 회의 내용으로 기록되는 음성데이터로부터 적어도 하나의 키워드를 추출하고, 적어도 하나의 안건로부터 추출된 키워드와의 비교를 통해 회의 내용이 어떠한 안건과 관련되어 있는지를 확인할 수 있다.
제어부(250)는 하기와 같은 방법을 통해 회의 내용을 카테고리로 분류할 수 있다. 제어부(250)는 음성데이터가 변환된 텍스트데이터의 자연어 처리 결과, 문장 코드가 제안 등에 포함하는 것으로 확인되거나, 음성데이터에서 회의사전어DB(241)에 포함된 제안어가 확인되면, 해당 음성데이터를 제안사항으로 분류할 수 있다.
제어부(250)는 음성데이터가 변환된 텍스트데이터의 자연어 처리 결과, 문장 코드가 이슈 등에 포함하는 것으로 확인되거나, 음성데이터에서 회의사전어DB(241)에 포함된 이슈어가 확인되면, 해당 음성데이터를 이슈사항으로 분류할 수 있다. 또한, 제어부(250)는 음성데이터 분석 결과, A발화자의 발화 도중 B발화자의 발화로 인해 A발화자의 발화에 대한 문장 완성도가 미비하면 A발화자와 B발화자의 발화에 대한 음성데이터를 이슈사항으로 분류할 수 있다. 제어부(250)는 음성데이터 분석 결과, 음성데이터의 데시벨 및 옥타브 변화로부터 발화자의 감정 변화가 이전의 발화자의 감정 변화를 기준으로 임계치 이상 변화한 것으로 확인되면 해당 음성데이터를 이슈사항으로 분류할 수 있다.
제어부(250)는 음성데이터가 변환된 텍스트데이터의 자연어 처리 결과, 문장 코드가 지시, 실행, 정리, 결과, 동의 등에 포함되는 것으로 확인되거나, 음성데이터에서 회의사전어DB(241)에 포함된 지시어가 확인되면, 해당 음성데이터를 지시사항으로 분류할 수 있다. 또한, 제어부(250)는 음성데이터 분석 결과, A발화자가 B발화자에게 지시할 수 있는 직책이면 A발화자의 발화에 대한 음성데이터를 지시사항으로 분류할 수 있다. 제어부(250)는 음성데이터 분석 결과, A발화자의 발화에 대한 B발화자의 응답 속도를 확인하여 확인결과에 따라 A발화자의 발화에 대한 음성데이터를 지시사항으로 분류할 수 있다. 제어부(250)는 A발화자의 발화에 대한 B발화자의 감정 상태를 확인하여 확인결과에 따라 A발화자의 발화에 대한 음성데이터를 지시사항으로 분류할 수 있다. 이를 위해, 제어부(250)는 인사정보DB(미도시)에 접근하여 각 발화자 사이의 직급, 발화자의 조직, 발화자들 사이의 지시가 가능한 지시우선순위 등을 확인할 수 있다.
제어부(250)는 음성데이터가 변환된 텍스트데이터의 자연어 처리 결과, 문장 코드가 합의, 의결, 리뷰, 정리, 결과, 동의 등에 포함되는 것으로 확인되거나, 음성데이터에서 회의사전어DB(241)에 포함된 합의어가 확인되면, 해당 음성데이터를 합의사항으로 분류할 수 있다. 또한, 제어부(250)는 음성데이터 분석 결과, A발화자와 B발화자가 특정 주제에 대한 합의를 할 수 있는 직책이면 A발화자와 B발화자의 발화에 대한 음성데이터를 합의사항으로 분류할 수 있다. 제어부(250)는 음성데이터 또는 영상데이터의 분석결과, 특정 발화자의 발화 시점에 참여자들의 감정 분포를 확인하여 참여자들의 감정이 일시적으로 좋아지거나 나빠지면 특정 발화자의 발화에 대한 음성데이터를 합의사항으로 분류할 수 있다.
제어부(250)는 음성데이터가 변환된 텍스트데이터의 자연어 처리 결과, 문장 코드가 계획, 실행, 정리, 결과, 동의 등에 포함되는 것으로 확인되거나, 음성데이터에서 회의사전어DB(241)에 포함된 계획어가 확인되면, 해당 음성데이터를 향후계획으로 분류할 수 있다.
제어부(250)는 음성데이터의 분석을 통해 제안사항, 이슈사항, 지시사항, 합의사항 및 향후계획으로 분류된 음성데이터가 405단계에서 기록된 적어도 하나의 안건 중 어떤 안건과 관련되어 있는지를 확인할 수 있다. 이를 위해, 제어부(250)는 카테고리별로 분류된 음성데이터로부터 적어도 하나의 키워드를 추출하고, 적어도 하나의 안건로부터 추출된 키워드와의 비교를 통해 제안사항, 이슈사항, 지시사항, 합의사항 및 향후계획이 각각 어떠한 안건과 관련되어 있는지를 확인할 수 있다.
413단계에서 제어부(250)는 음성데이터 및 영상데이터의 분석을 통해 휴식 시간이 필요한 것으로 확인되면, 415단계를 수행하고, 휴식 시간이 필요하지 않은 것으로 확인되면 417단계를 수행한다. 415단계에서 제어부(250)는 출력부(230)를 통해 휴식 시간을 제안하기 위한 메시지를 출력한다. 417단계에서 제어부(250)는 휴식 시간이 종료됨이 확인되면 도 3의 311단계로 리턴하고, 휴식 시간의 종료가 확인되지 않으면 휴식 시간의 종료 여부를 지속적으로 확인한다.
보다 구체적으로, 제어부(250)는 음성데이터의 분석결과, 음성데이터가 변환된 텍스트데이터의 자연어 처리결과 및 영상데이터의 분석결과 중 적어도 하나를 고려하여 참여자의 감정 상태를 확인할 수 있다. 제어부(250)는 음성데이터의 분석을 통해 참여자의 목소리의 데시벨, 옥타브 및 발화 속도 등을 포함하는 음성데이터의 특징을 추출하여 참여자의 감정 상태를 확인할 수 있다. 제어부(250)는 음성데이터가 변환된 텍스트데이터의 자연어 처리결과에 따라, 비속어, 욕설, 특정인에 대한 비하, 동일 표현의 반복 여부, 회의와 연관성이 없는 표현의 반복 여부 등을 확인하여 참여자의 감정 상태를 확인할 수 있다. 제어부(250)는 영상데이터의 분석을 통해 확인된 회의 참여자의 하품 횟수, 머리의 움직임, 눈 깜박임 횟수, 동공의 움직임 등을 포함하는 회의 참여자의 표정 및 동작으로부터 참여자의 감정 상태를 확인할 수 있다. 감정 상태는 참여자의 화남, 지루함, 졸림 등의 상태일 수 있다.
예컨대, 제어부(250)는 단위 시간(예컨대, 1분)당 음성데이터 분석결과, 회의 참여자의 목소리 데시벨, 옥타브 및 발화 속도를 기준으로 회의 참여자의 상태를 확인할 수 있다. 예컨대, 제어부(250)는 음성데이터 분석결과, 회의 참여자의 목소리 데시벨의 구간(예컨대, 60dB~80dB)에 따라 서로 다른 가중치를 부여하고, 회의 참여자의 목소리 옥타브(예컨대, 2옥타브~4옥타브)의 구간에 따라 서로 다른 가중치를 부여하며, 회의 참여자의 발화 속도(예컨대, 느림, 중간, 빠름)에 따라 서로 다른 가중치를 부여할 수 있다. 이때, 목소리 데시벨, 목소리 옥타브 및 발화 속도는 각각 복수의 구간으로 분류되어 각 구간마다 서로 다른 가중치가 매핑될 수 있다. 제어부(250)는 음성데이터 분석결과에 따라 가중치를 부여하여 회의 참여자에 대한 참여자 상태를 화남, 지루함 및 졸림 중 어느 하나로 확인할 수 있다. 제어부(250)는 확인된 참여자 상태의 정도를 0에서 100까지의 범위 내에서 수치화한다.
제어부(250)는 자연어 처리 결과, 비속어, 욕설, 특정인에 대한 비하, 동일 표현의 반복 여부, 회의와 연관성이 없는 표현의 반복 여부 등을 기준으로 회의 참여자의 상태를 확인할 수 있다. 예컨대, 제어부(250)는 음성데이터의 자연어 처리 결과, 비속어, 욕설, 비하, 동일 표현의 반복, 회의와 연관성이 없는 표현의 반복이 검출되는 횟수별로 서로 다른 가중치를 부여할 수 있다. 제어부(250)는 자연어 처리 결과에 따라 비속어, 욕설, 비하 등과 관련된 표현이 검출된 경우, 검출된 횟수에 가중치를 부여하여 단위 시간 동안 발화하는 참여자 상태가 화남임을 확인하고, 화남의 정도를 0에서 100까지의 범위 내에서 수치화한다. 제어부(250)는 동일 표현, 회의와 연관성이 없는 표현의 반복적으로 검출된 경우, 검출된 횟수에 가중치를 부여하여 참여자 상태가 지루함 및 졸림 중 어느 하나임을 확인하고, 지루함 및 졸림의 정도를 0에서 100까지의 범위 내에서 수치화한다.
제어부(250)는 영상데이터 분석결과, 회의 참여자의 하품 횟수, 머리의 움직임, 눈 깜박임 횟수, 동공의 움직임 등을 기반으로 회의 참여자의 상태를 확인할 수 있다. 예컨대, 제어부(250)는 영상데이터의 처리 결과, 회의 참여자별로 단위 시간당 하품, 머리의 움직임 등에 서로 다른 가중치를 부여하여 참여자 상태가 지루함 및 졸림 중 어느 하나인 것으로 확인할 수 있다. 제어부(250)는 참여자 상태의 정도를 0에서 100까지의 범위 내에서 수치화한다. 또한, 제어부(250)는 영상데이터 처리 결과, 회의 참여자별로 단위 시간당 눈 깜박임에 대한 평균 횟수를 산출하고, 눈 깜박임 속도가 평균 횟수보다 작을 경우, 이에 대한 가중치를 부여하여 참여자 상태를 지루함 및 졸림 중 어느 하나인 것으로 확인할 수 있다. 제어부(250)는 참여자 상태의 정도를 0에서 100까지의 범위 내에서 수치화한다.
제어부(250)는 참여자 상태가 확인되면, 기 저장된 학습데이터에서 참여자 상태에 대응되는 휴식 시간을 설정한다. 제어부(250)는 설정된 휴식 시간이 종료되면, 회의 진행을 재개한다. 제어부(250)는 휴식 시간 동안 출력부(230)를 통해 특정 컨텐츠를 출력할 수 있다. 이때, 특정 컨텐츠는, 회의 참여자들의 분위기를 전환할 수 있는 TV프로그램 등의 동영상데이터, 음악데이터, 휴식 시간임을 알리는 안내 메시지 및 회의 종료 이후의 일정(예컨대, 만찬, 점심시간, 퇴근시간 등)을 알리는 이벤트 메시지 등을 포함할 수 있다. 이때, 제어부(250)는 참여자 상태의 수치값에 대응되는 휴식 시간을 학습데이터에서 확인하고, 수치값에 대응되는 컨텐츠를 학습데이터에서 확인할 수 있다. 제어부(250)는 확인된 휴식 시간만큼의 휴식 시간을 제공하고, 확인된 컨텐츠를 출력부(230)에 출력한다. 아울러, 제어부(250)는 자연어 처리 결과, 단위 시간 당 확인된 욕설, 비하와 관련된 단어 개수에 매핑되어 메모리(240)에 저장된 화남 수치값을 확인하여 휴식 시간 및 컨텐츠를 제공할 수 있다. 또한, 제어부(250)는 자연어 처리 결과, 단위 시간 당 확인된 동일 표현의 반복 횟수, 회의와 연관성이 없는 표현의 반복 횟수에 매핑되어 메모리(240)에 저장된 지루함 및 졸음 중 어느 하나의 수치값을 확인하여 휴식 시간 및 컨텐츠를 제공할 수 있다. 획득장치(100)가 전자장치일 경우, 제어부(250)는 컨텐츠를 획득장치(100)로 전송할 수 있다.
아울러, 본 발명의 실시 예에서는 413단계 내지 417단계가 411단계 이후에 수행되는 것을 예로 설명하고 있으나, 반드시 이에 한정되지 않으며, 403단계 내지 411단계 사이에 언제든지 수행될 수 있다.
311단계에서 제어부(250)는 입력부(220)를 통해 회의 종료 신호가 수신되면 313단계를 수행하고, 회의 종료 신호가 수신되지 않으면 309단계로 회귀하여 상기의 단계들을 재수행한다. 회의 종료 신호는 입력부(220)를 통해 입력될 수 있고, 회의 주최자에게 할당된 전자장치로부터 수신될 수도 있다. 또한, 제어부(250)는 획득장치(100)로부터 임계시간 동안 획득데이터가 수신되지 않으면 이를 회의 종료 신호로 확인할 수 있다.
313단계에서 제어부(250)는 회의록 작성을 완료하고 이를 출력부(230)에 출력한다. 이때, 제어부(250)는 작성이 완료된 회의록을 회의 참여자에게 자동적으로 배포할 수 있다. 보다 구체적으로, 313단계에서 제어부(250)는 도 4의 411단계에서 카테고리별로 분류된 회의 내용을 안건별로 정렬하여 표시한다. 제어부(250)는 회의 내용이 카테고리별로 분류된 제안사항, 이슈사항, 지시사항, 합의사항, 향후계획 및 기타사항을 안건별로 정렬할 수 있다.
315단계에서 제어부(250)는 회의 참여자들로부터 회의에 대한 점수를 수신하여 회의를 평가할 수 있다. 보다 구체적으로, 315단계에서 제어부(250)는 종료된 회의에 대하여 회의 참여자에게 설문을 수행한다. 보다 구체적으로, 제어부(250)는 415단계에서 제안된 휴식 시간의 제안 시점에 대한 만족도, 휴식 시간의 길이에 대한 만족도, 휴식 시간에 출력된 컨텐츠에 대한 만족도 및 회의 개선점 등을 포함하는 설문을 수행할 수 있다. 이때, 획득장치(100)가 카메라 및 마이크일 경우, 제어부(250)는 회의 종료 후에 회의 참여자의 이-메일로 설문을 전송할 수 있고, 이-메일을 통해 설문에 대한 답변을 수신할 수 있다. 또한, 획득장치(100)가 전자장치일 경우, 제어부(250)는 획득장치(100)로 설문을 전송하고, 전자장치(200)로부터 이에 대한 답변을 수신할 수 있다.
317단계에서 제어부(250)는 회의에 대한 평가를 이용하여 종료된 회의에 대한 회의 내역을 생성한다. 회의 내역은, 회의 시작 전에 입력된 회의 예정 시간, 실제 회의가 진행된 시간, 휴식 시간의 길이, 휴식 시간의 제안 횟수, 회의에 대한 점수 등을 포함하는 회의 내역을 생성하여 메모리(240)에 저장할 수 있다. 제어부(250)는 회의 내역을 기 저장된 학습데이터에 반영하여 기 저장된 학습데이터를 갱신한다.
도 5 내지 도 8는 본 발명의 실시 예에 따른 회의록 서식을 나타낸 도면이다.
도 5 내지 도 8을 참조하면, 도 5는 주간보고, 업무보고, 월간보고 등 업무에 대한 보고의 성질을 갖는 제1 회의 유형에 대한 회의록 서식이다. 도 5와 같이, 제1 회의 유형에 대한 회의록 서식은 실적/계획, 토의 사항, 지시 사항 및 기타 사항 등을 기록할 수 있는 항목으로 구성될 수 있다.
도 6은 연구발표, 결과발표 등 특정 주제에 대한 발표의 성질을 갖는 제2 회의 유형에 대한 회의록 서식이다. 도 6과 같이, 제2 회의 유형에 대한 회의록 서식은, 발표내용, 토의 사항 및 향후 계획 등을 기록할 수 있는 항목으로 구성될 수 있다.
도 7은 협의, 제안, 논의 등 적어도 하나의 안건에 대한 토의의 성질을 갖는 제3 회의 유형에 대한 회의록 서식이다. 도 7과 같이, 제3 회의 유형에 대한 회의록 서식은, 적어도 하나의 안건, 토의 사항 및 결론 등을 기록할 수 있는 항목으로 구성될 수 있다.
도 8은 대책, 전략, 의결 등 적어도 하나의 안건에 대한 결정이 필요한 성질을 갖는 제4 회의 유형에 대한 회의록 서식이다. 도 8과 같이, 제4 회의 유형에 대한 회의록 서식은, 서식은 적어도 하나의 안건, 토의 사항, 결론 및 향후 계획 등을 기록할 수 있는 항목으로 구성될 수 있다.
도 9는 본 발명의 실시 예에 따른 사전어를 설명하기 위한 도면이다.
도 9를 참조하면, 도 9의 (a)는 지시어에 대한 테이블을 나타내고, 도 9의 (b)는 협의어에 대한 테이블을 나타내며, 도 9의 (c)는 제안어에 대한 테이블을 나타낸다.
제어부(250)는 획득데이터에 포함된 음성데이터의 분석을 통해 도 9의 (a) 내지 (c) 중 어떤 사전어 테이블에 포함된 키워드가 추출되는지 확인할 수 있다. 예컨대, 제어부(250)는 음성데이터에서 도 9의 (a)에 포함된 명사와 동사가 결합된 형태가 확인되면, 음성데이터를 지시사항으로 분류할 수 있다. 아울러, 제어부(250)는 도 9의 (a)에 도시된 동사에 명령형, 청유형 어미를 사용하는 문장(예컨대, 해라, 쓰세요 등)을 지속적으로 학습하여, 학습된 문장이 음성데이터에서 확인될 경우, 이를 지시사항으로 분류할 수 있다.
제어부(250)는 음성데이터에서 도 9의 (b)에 포함된 명사와 동사, 명사와 형용사가 결합된 형태가 확인되면, 음성데이터를 협의사항으로 분류할 수 있다. 아울러, 제어부(250)는 도 9의 (b)에 도시된 동사에 청유형 어미를 사용하는 문장(예컨대, 합시다 등)을 지속적으로 학습하여, 학습된 문장이 음성데이터에서 확인될 경우, 이를 협의사항으로 분류할 수 있다.
제어부(250)는 음성데이터에서 도 9의 (c)에 포함된 조사, 명사 및 동사가 결합된 형태가 확인되면, 음성데이터를 제안사항으로 분류할 수 있다. 아울러, 제어부(250)는 도 9의 (c)에 도시된 동사에 “-겠-“ 등과 같은 미래 또는 추측, 의지가 있는 시제 선어말 어미를 사용하는 문장을 지속적으로 학습하여, 학습된 문장(예컨대, 하겠습니다 등)이 음성데이터에서 확인될 경우, 이를 제안사항으로 분류할 수 있다.
도 10은 본 발명의 실시 예에 따른 작성된 회의록을 나타낸 도면이다.
도 10을 참조하면, 제어부(250)는 회의 관련정보의 분석을 통해서 진행하고자 하는 회의가 제3 회의 유형과 관련된 회의인 것으로 확인하여, 제3 회의 유형에 대한 회의록 서식을 결정한다. 제어부(250)는 회의 관련정보의 분석을 통해서 도 10과 같이 회의 제목, 공유 문서, 날짜/시간, 장소, 작성자, 책임자, 참여자를 회의록 서식의 해당 항목에 기록한다. 이때, 회의 안건은 회의 관련정보에 포함될 수 있고, 회의 진행 시에 획득되는 획득데이터에 포함된 음성데이터의 분석을 통해 획득될 수 있다. 제어부(250)는 획득된 회의 안건을 해당 항목에 기록할 수 있다.
제어부(250)는 회의 진행 중에 지속적으로 획득되는 획득데이터에 포함된 음성데이터를 분석하여 회의록의 결론 및 토의 사항의 항목에 텍스트데이터로 실시간으로 기록할 수 있다. 이때, 각각의 항목에 기록되는 텍스트데이터는, 참여자들의 발화에 대한 시간 순서에 따라 기록될 수 있다. 제어부(250)는 각각의 항목에 기록되는 회의 내용을 카테고리별로 분류가 가능한지 확인한다.
제어부(250)는 음성데이터 분석을 통해 회의 내용을 제안사항, 이슈사항, 지시사항, 합의사항 및 향후계획에 대응되도록 분류할 수 있다. 이때, 제어부(250)는 음성데이터에 도 9에 도시된 지시어의 포함여부를 비롯한 다양한 조건들을 확인하여 음성데이터를 제안사항, 이슈사항, 지시사항, 합의사항 및 향후계획에 대응되는 각각의 카테고리로 분류할 수 있다.
제어부(250)는 회의 내용의 카테고리 분류결과, 도 10에서와 같이 “기가지니 쇼핑 플랫폼 획일화 방안”의 안건과 관련된 회의 내용을 제안사항 및 이슈사항의 카테고리로 정렬하여 기록하고, “기가지니 뮤직 플랫폼 개선 방안”의 안건과 관련된 회의 내용을 제안사항, 의견사항 및 이슈사항의 카테고리로 정렬하여 기록할 수 있다.
본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (21)

  1. 회의 시작 신호가 수신되면, 회의 관련정보를 분석하여 회의록 서식을 결정하는 단계;
    적어도 하나의 획득장치로부터 획득된 음성데이터 및 영상데이터 중 적어도 하나를 포함하는 획득데이터를 분석하는 단계;
    상기 획득데이터의 분석결과에 따라 회의 진행 시에 참여자들의 발화에 대응되는 회의 내용을 적어도 하나의 카테고리로 분류하는 단계; 및
    상기 회의 내용을 상기 분류된 카테고리별로 정렬하여 회의록을 작성하는 단계;
    를 포함하는 것을 특징으로 하는 방법.
  2. 제1항에 있어서,
    상기 회의록을 작성하는 단계는,
    회의에 대한 안건이 확인되면, 상기 회의 내용 중에서 상기 안건과 관련된 회의 내용을 확인하여 정렬하되, 상기 확인된 회의 내용을 카테고리별로 정렬하여 상기 회의록을 작성하는 단계인 것을 특징으로 하는 방법.
  3. 제2항에 있어서,
    상기 회의록 서식을 결정하는 단계는,
    상기 회의의 제목, 상기 참여자들의 정보, 상기 회의에 대한 안건 및 상기 회의에서 사용될 자료 중 적어도 하나를 포함하는 상기 회의 관련정보의 분석에 따라 확인된 회의 유형에 대응되는 상기 회의록 서식을 결정하는 단계인 것을 특징으로 하는 방법.
  4. 제3항에 있어서,
    상기 카테고리로 분류하는 단계는,
    상기 음성데이터를 기반으로 키워드 분석을 통해 안건과의 관계 정도, 자연어 처리를 통한 문장 코드 중 적어도 하나를 확인하고, 확인결과에 따라 제안사항, 이슈사항, 지시사항, 합의사항 및 향후계획 중 적어도 하나의 카테고리로 분류하는 단계인 것을 특징으로 하는 방법.
  5. 제4항에 있어서,
    상기 카테고리로 분류하는 단계는,
    상기 음성데이터의 분석결과에 따라 기저장된 회의사전어DB에 포함된 제안어의 포함 여부를 확인하여 상기 음성데이터를 제안사항으로 분류하는 단계;
    를 포함하는 것을 특징으로 하는 방법.
  6. 제4항에 있어서,
    상기 카테고리로 분류하는 단계는,
    상기 음성데이터의 분석결과에 따라 문장 완성도, 데시벨 및 옥타브 변화, 참여자의 감정 상태, 기저장된 회의사전어DB에 포함된 이슈어의 포함 여부 중 적어도 하나를 확인하고, 확인결과를 기반으로 상기 음성데이터를 이슈사항으로 분류하는 단계;
    를 포함하는 것을 특징으로 하는 방법.
  7. 제4항에 있어서,
    상기 카테고리로 분류하는 단계는,
    상기 음성데이터의 분석결과에 따라 참여자 관계, 참여자의 감정 상태, 발화에 대한 응답 속도, 기저장된 회의사전어DB에 포함된 지시어의 포함 여부 중 적어도 하나를 확인하고, 확인결과를 기반으로 상기 음성데이터를 지시사항으로 분류하는 단계;
    를 포함하는 것을 특징으로 하는 방법.
  8. 제4항에 있어서,
    상기 카테고리로 분류하는 단계는,
    상기 음성데이터의 분석결과에 따라 참여자 관계, 기저장된 회의사전어DB에 포함된 합의어의 포함 여부, 발화 중인 참여자의 감정 상태 중 적어도 하나를 확인하고, 확인결과를 기반으로 상기 음성데이터를 합의사항으로 분류하는 단계;
    를 포함하는 것을 특징으로 하는 방법.
  9. 제4항에 있어서,
    상기 카테고리로 분류하는 단계는,
    상기 음성데이터의 분석결과에 따라 기저장된 회의사전어DB에 포함된 계획어의 포함 여부를 확인하여 상기 음성데이터를 향후계획으로 분류하는 단계;
    를 포함하는 것을 특징으로 하는 방법.
  10. 제1항에 있어서,
    상기 획득데이터를 분석하는 단계 이후에,
    상기 획득데이터의 분석결과에 따라 참여자의 감정 상태 및 참여도를 확인하여 휴식 시간을 제안하는 단계;
    를 더 포함하는 것을 특징으로 하는 방법.
  11. 획득데이터를 획득하는 적어도 하나의 획득장치와 통신을 수행하는 통신부; 및
    회의 시작 신호에 따라 회의 관련정보를 분석하여 회의록 서식을 결정하고, 회의 진행 시 획득된 복수의 참여자들에 대한 상기 획득데이터의 분석결과에 따라 상기 참여자들의 발화에 대응되는 회의 내용을 적어도 하나의 카테고리로 분류하고, 상기 카테고리로 분류된 상기 회의 내용을 상기 분류된 카테고리별로 정렬하여 회의록을 작성하는 제어부;
    를 포함하는 것을 특징으로 하는 전자장치.
  12. 제11항에 있어서,
    상기 제어부는,
    회의에 대한 안건이 확인되면, 상기 회의 내용 중에서 상기 안건과 관련된 회의 내용을 확인하여 정렬하되, 상기 확인된 회의 내용을 카테고리별로 정렬하여 상기 회의록을 작성하는 것을 특징으로 하는 전자장치.
  13. 제12항에 있어서,
    상기 제어부는,
    상기 회의의 제목, 상기 참여자들의 정보, 상기 회의에 대한 안건 및 상기 회의에 사용될 자료 중 적어도 하나를 포함하는 상기 회의 관련정보의 분석에 따라 확인된 회의 유형에 대응되는 상기 회의록 서식을 결정하는 것을 특징으로 하는 전자장치.
  14. 제13항에 있어서,
    상기 제어부는,
    상기 획득데이터에 포함된 음성데이터를 기반으로 키워드 분석을 통해 안건과의 관계 정도, 자연어 처리를 통한 문장 코드 중 적어도 하나를 확인하고, 확인결과에 따라 제안사항, 이슈사항, 지시사항, 합의사항 및 향후계획 중 적어도 하나의 카테고리로 분류하는 것을 특징으로 하는 전자장치.
  15. 제14항에 있어서,
    상기 제어부는,
    상기 음성데이터의 분석결과에 따라 기저장된 회의사전어DB에 포함된 제안어의 포함 여부를 확인하여 상기 음성데이터를 제안사항으로 분류하는 것을 특징으로 하는 전자장치.
  16. 제14항에 있어서,
    상기 제어부는,
    상기 음성데이터의 분석결과에 따라 문장 완성도, 데시벨 및 옥타브 변화, 참여자의 감정 상태, 기저장된 회의사전어DB에 포함된 이슈어의 포함 여부 중 적어도 하나를 확인하고, 확인결과를 기반으로 상기 음성데이터를 이슈사항으로 분류하는 것을 특징으로 하는 전자장치.
  17. 제14항에 있어서,
    상기 제어부는,
    상기 음성데이터의 분석결과에 따라 참여자 관계, 참여자의 감정 상태, 발화에 대한 응답 속도, 기저장된 회의사전어DB에 포함된 지시어의 포함 여부 중 적어도 하나를 확인하고, 확인결과를 기반으로 상기 음성데이터를 지시사항으로 분류하는 것을 특징으로 하는 전자장치.
  18. 제14항에 있어서,
    상기 제어부는,
    상기 음성데이터의 분석결과에 따라 참여자 관계, 기저장된 회의사전어DB에 포함된 합의어의 포함 여부, 발화 중인 참여자의 감정 상태 중 적어도 하나를 확인하고, 확인결과를 기반으로 상기 음성데이터를 합의사항으로 분류하는 것을 특징으로 하는 전자장치.
  19. 제14항에 있어서,
    상기 제어부는,
    상기 음성데이터의 분석결과에 따라 기저장된 회의사전어DB에 포함된 계획어의 포함 여부를 확인하여 상기 음성데이터를 향후계획으로 분류하는 것을 특징으로 하는 전자장치.
  20. 제11항에 있어서,
    상기 제어부는,
    상기 획득데이터의 분석결과에 따라 참여자의 감정 상태 및 참여도를 확인하여 휴식 시간을 제안하는 것을 특징으로 하는 전자장치.
  21. 회의 진행 시 복수의 참여자들에 대한 음성데이터 및 영상데이터를 포함하는 획득데이터를 획득하는 복수의 획득장치; 및
    회의 시작 신호에 따라 회의 관련정보를 분석하여 회의록 서식을 결정하고, 상기 획득데이터의 분석결과에 따라 상기 참여자들의 발화에 대응되는 회의 내용을 적어도 하나의 카테고리로 분류하고, 상기 카테고리로 분류된 상기 회의 내용을 상기 분류된 카테고리별로 정렬하여 회의록을 작성하는 전자장치;
    를 포함하는 것을 특징으로 하는 시스템.
KR1020170121981A 2017-09-21 2017-09-21 회의록 작성 방법, 전자장치 및 시스템 KR20190033330A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170121981A KR20190033330A (ko) 2017-09-21 2017-09-21 회의록 작성 방법, 전자장치 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170121981A KR20190033330A (ko) 2017-09-21 2017-09-21 회의록 작성 방법, 전자장치 및 시스템

Publications (1)

Publication Number Publication Date
KR20190033330A true KR20190033330A (ko) 2019-03-29

Family

ID=65898822

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170121981A KR20190033330A (ko) 2017-09-21 2017-09-21 회의록 작성 방법, 전자장치 및 시스템

Country Status (1)

Country Link
KR (1) KR20190033330A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210145538A (ko) * 2020-05-25 2021-12-02 주식회사 제윤 회의 관리 방법 및 장치
WO2023136505A1 (ko) * 2022-01-14 2023-07-20 네이버 주식회사 회의 안건 체크의 자동화 방법 및 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210145538A (ko) * 2020-05-25 2021-12-02 주식회사 제윤 회의 관리 방법 및 장치
WO2023136505A1 (ko) * 2022-01-14 2023-07-20 네이버 주식회사 회의 안건 체크의 자동화 방법 및 시스템

Similar Documents

Publication Publication Date Title
US11630651B2 (en) Computing device and method for content authoring of a digital conversational character
Vinciarelli et al. A survey of personality computing
Nass et al. Does computer-synthesized speech manifest personality? Experimental tests of recognition, similarity-attraction, and consistency-attraction.
CN111201566A (zh) 用于处理数据和输出用户反馈的口语通信设备和计算体系架构以及相关方法
McDonnell et al. Social, environmental, and technical: Factors at play in the current use and future design of small-group captioning
Chubb et al. Interactive storytelling for children: A case-study of design and development considerations for ethical conversational AI
KR20190033330A (ko) 회의록 작성 방법, 전자장치 및 시스템
Beebe et al. A concise public speaking handbook
Van Nijnatten et al. Communicating care and coercion in juvenile probation
CN114048299A (zh) 对话方法、装置、设备、计算机可读存储介质及程序产品
McNaney et al. StammerApp: Designing a Mobile Application to Support Self-Reflection and Goal Setting for People Who Stammer
Robles Resolving discourse at technical-support helpdesks
WO2022208953A1 (ja) 情報処理システム及び仮想人材
KR102299563B1 (ko) 가상 조교 로봇을 이용한 비대면 수업 제공 방법 및 장치
Ahmed Community-based design of open source software for transgender voice training
KR20190023610A (ko) 회의 중 휴식 시간 제안 방법, 전자장치 및 시스템
Brown-Schmidt et al. Remembering conversation in group settings
US11699037B2 (en) Systems and methods for morpheme reflective engagement response for revision and transmission of a recording to a target individual
Jensen Sight, Sound, Touch: A Methodological Exploration of Ontological Effects in an Ethnographic Study
KR102568994B1 (ko) 사용자의 스피치 능력 개선을 위한 피드백 장치 및 방법
ter Maat Response selection and turn-taking for a sensitive artificial listening agent
Almeida et al. Giving voices to multimodal applications
Maisenbacher Neuro-Linguistic Programming (NLP) as a Communication Tool for Management
Missaouib et al. Interactive Storytelling for Children: A Case-study of Design and Development Considerations for Ethical Conversational AI
Laimena et al. A Critical Discourse Analysis on Instagram@ Sajak Maluku based on the Van Dijk’s model