KR102122771B1 - 인공지능 오디오 장치 및 그 동작 방법 - Google Patents

인공지능 오디오 장치 및 그 동작 방법 Download PDF

Info

Publication number
KR102122771B1
KR102122771B1 KR1020130127712A KR20130127712A KR102122771B1 KR 102122771 B1 KR102122771 B1 KR 102122771B1 KR 1020130127712 A KR1020130127712 A KR 1020130127712A KR 20130127712 A KR20130127712 A KR 20130127712A KR 102122771 B1 KR102122771 B1 KR 102122771B1
Authority
KR
South Korea
Prior art keywords
greeting
unit
music
audio device
time
Prior art date
Application number
KR1020130127712A
Other languages
English (en)
Other versions
KR20150047803A (ko
Inventor
홍승세
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130127712A priority Critical patent/KR102122771B1/ko
Priority to US14/326,663 priority patent/US9948764B2/en
Publication of KR20150047803A publication Critical patent/KR20150047803A/ko
Priority to US15/937,282 priority patent/US10924606B2/en
Application granted granted Critical
Publication of KR102122771B1 publication Critical patent/KR102122771B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L61/00Network arrangements, protocols or services for addressing or naming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72451User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to schedules, e.g. using calendar applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location

Abstract

인공지능 오디오 장치 및 그 동작 방법이 개시된다. 인공지능 오디오 장치는, 인공지능 오디오 장치가 현재 위치한 현재 장소의 위치를 탐지함과 함께 현재 장소의 온도 및/또는 습도와, 사람 유무를 감지하는 센싱부와; 네트워크를 통해 외부 서버와 통신하는 제1 통신부와; 상황에 따른 복수의 인사말 음성 및/또는 복수의 인사말 텍스트를 포함하는 인사말 데이터와, 복수의 음악을 포함하는 음악 데이터를 저장하는 저장부와; 음성과 음악을 처리하여 출력하는 음성 처리부와; 텍스트를 처리하여 출력하는 표시 처리부와; 센싱부에 의해 감지된 현재 장소의 위치 정보를 이용하여 외부 서버로부터 현재 장소의 날씨 정보를 수집하고, 센싱부에 의해 현재 장소에 사람이 감지되면 미리 정해진 인사말 출력시기인 지를 판단하고, 판단결과 미리 정해진 인사말 출력시기이면 저장부에 저장된 인사말 데이터로부터, 현재시간과, 센싱부에 의해 감지된 온도 및/또는 습도와, 외부 서버로부터 수집된 현재 장소의 날씨 정보에 부합하는 인사말 음성 및/또는 인사말 텍스트를 추출하여 음성 처리부 및/또는 표시 처리부를 통해 출력하는 제어부를 포함하는 것을 특징으로 한다.

Description

인공지능 오디오 장치 및 그 동작 방법{ARTIFICIAL INTELLIGENCE AUDIO APPARATUS AND OPERATION METHOD THEREOF}
본 발명은 사람과 교감할 수 있는 인공지능 오디오 장치에 관한 것으로, 보다 상세하게는, 사람의 존재를 판단하여 현재시간과 주위 환경에 맞는 인사말을 건넴과 함께 음악재생 여부를 물어보고 음악재생 요청이 있을 경우 현재시간, 주위 환경 및 분위기에 맞는 음악을 선곡하여 들려 주고 특정 음악의 청취 시 청취 음악의 성향에 맞는 조명을 조정하여 분위기를 만들어 줄 수 있게 한 인공지능 오디오 장치 및 그 동작 방법에 관한 것이다.
일반적으로, 음향 재생기기와 같은 오디오 장치는 음악을 재생하여 청취하기 위한 기기로써 육체적인 노동보다는 정신적인 노동이 많은 현대인들이 각종 스트레스를 해소하기 위해 널리 이용되고 있다.
이러한 오디오 장치는 통상 사용자의 명령에 따라 사용자가 선택한 음악을 수동적으로 재생한다. 따라서, 사용자는 음악을 청취할 경우 스스로 청취할 음악을 선곡하여 재생해야하는 번거로움이 있다. 또한, 사용자는 오디오 장치에 대해 사람과의 상호작용에서 느끼는 감성적인 교감과 같은 인간적인 정감을 느끼지 못한다. 그 결과, 사용자는 오디오 장치를 단순히 음악을 재생하는 기계로만 인식하여 음악청취를 통한 스트레스 해소 효과 이외에 사람과 교감을 통해 느끼는 정신적인 안정과 같은 효과는 얻을 수 없다.
따라서, 사용자의 명령에 따라 음악을 재생하는 수동적인 동작에서 벗어나 사용자의 주위 상황을 종합적으로 판단하여 사용자에게 인간적인 인사말을 건넴과 동시에 사용자가 필요로 하는 음악이나 분위기를 보다 능동적 또는 지능적으로 제공할 수 있는 인공지능 오디오 장치의 필요성이 요구되고 있다.
본 발명은 위와 같은 문제점을 해결하기 위해 안출된 것으로, 사람의 존재를 판단하여 현재시간과 주위 환경에 맞는 인사말을 건넬 수 있게 한 인공지능 오디오 장치 및 그 동작 방법을 제공하는 데 그 목적이 있다.
본 발명의 또 다른 목적은 사용자에게 음악재생 여부를 물어보고 음악재생 요청이 있을 때 현재시간, 주위 환경 및 분위기에 맞는 음악을 선곡하여 들려 줄 수 있게 한 인공지능 오디오 장치 및 그 동작 방법을 제공하는 데 있다.
본 발명의 또 다른 목적은 특정 음악의 청취 시 청취 음악의 성향에 맞는 조명을 조정하여 분위기를 만들어 줄 수 있게 한 인공지능 오디오 장치 및 그 동작 방법을 제공하는 데 있다.
상기와 같은 목적을 달성하기 위한 본 발명의 일 실시 양상에 따르면, 인공지능 오디오 장치는, 인공지능 오디오 장치가 현재 위치한 현재 장소의 위치를 탐지함과 함께 현재 장소의 온도 및/또는 습도와, 사람 유무를 감지하는 센싱부와; 네트워크를 통해 외부 서버와 통신하는 제1 통신부와; 상황에 따른 복수의 인사말 음성 및/또는 복수의 인사말 텍스트를 포함하는 인사말 데이터와, 복수의 음악을 포함하는 음악 데이터를 저장하는 저장부와; 음성과 음악을 처리하여 출력하는 음성 처리부와; 텍스트를 처리하여 출력하는 표시 처리부와; 센싱부에 의해 감지된 현재 장소의 위치 정보를 이용하여 외부 서버로부터 현재 장소의 날씨 정보를 수집하고, 센싱부에 의해 현재 장소에 사람이 감지되면 미리 정해진 인사말 출력시기인 지를 판단하고, 판단결과 미리 정해진 인사말 출력시기이면 저장부에 저장된 인사말 데이터로부터 현재시간과, 센싱부에 의해 감지된 온도 및/또는 습도와, 외부 서버로부터 수집된 현재 장소의 날씨 정보에 부합하는 인사말 음성 및/또는 인사말 텍스트를 추출하여 음성 처리부 및/또는 표시 처리부를 통해 출력하는 제어부를 포함하는 것을 특징으로 한다.
센싱부는 위치를 탐지하는 위치센서, 조도를 감지하는 조도센서, 온도 및 습도를 감지하는 온습도 센서, 및 사람의 유무를 감지하는 인체감지 센서를 포함할 수 있다. 이때, 위치센서는 GPS(Global Positioning System) 모듈을 포함하고, 인체감지 센서는 적외선을 감지하는 PIR(Passive Infrared) 센서 및/또는 영상을 촬영하는 카메라부를 포함할 수 있다.
외부 서버는 날짜 및 시간별 날씨를 포함하는 날씨 정보를 제공하는 날씨정보 제공 서버를 포함할 수 있다.
저장부는 음악재생 여부를 묻는 안내 음성과 안내 텍스트를 포함하는 안내 데이터를 더 저장할 수 있다. 이 경우, 제어부는 저장부에 저장된 안내 데이터로부터 안내 음성 및/또는 안내 텍스트를 추출하여 음성 처리부 및/또는 표시 처리부를 통해 출력하고, 사용자의 음악재생 요청이 있을 때 저장부에 저장된 음악 데이터로부터, 현재시간과 센싱부에 의해 감지된 조도와 외부 서버로부터 수집된 날씨 정보에 부합하는 음악을 선곡하여 음성 처리부를 통해 출력할 수 있다. 이때, 음악 데이터는 시간, 날씨, 및 조도에 따라 폴더별로 분류되어 저장부에 저장될 수 있다. 선택적으로, 음악 데이터는 시간, 날씨, 및 조도에 따른 테그 정보를 가지도록 분류되어 저장부에 저장될 수 있다.
또한, 인공지능 오디오 장치는 영상을 처리하여 외부의 디스플레이 장치로 출력하는 영상처리부를 더 포함할 수 있다. 이 경우, 제어부는 인사말 음성 또는 인사말 텍스트, 안내 음성 또는 안내 텍스트, 및 음악을 출력할 때 각각 상응하는 인사말 영상, 안내 영상, 및 동영상을 영상처리부를 통해 출력할 수 있다.
미리 정해진 인사말 출력시기는 인공지능 오디오 장치가 온될 때와, 오디오 장치가 온된 후 일정시간 간격이 경과할 때의 각 시점을 포함할 수 있다.
또한, 인공지능 오디오 장치는 실내의 조명을 제어하는 조명제어부와 무선으로 통신하는 제2 통신부를 더 포함할 수 있다. 이때, 제어부는 사용자가 음악을 직접 선곡하여 청취할 때 실내의 조명을 조명제어 시나리오에 따라 제어하도록 음성 처리부를 통해 출력되는 음악에 대한 조명제어 시나리오를 제2 통신부를 통해 조명제어부에 송신할 수 있다.
본 발명의 또 다른 양상에 따르면, 인공지능 오디오 장치의 동작 방법은, 인공지능 오디오 장치가 현재 위치한 현재 장소의 위치를 탐지함과 함께 현재 장소의 온도 및/또는 습도를 감지하는 단계와; 탐지된 현재 장소의 위치 정보를 이용하여 네트워크를 통해 날씨 정보를 수집하는 단계와; 현재 장소의 사람 유무를 감지하는 단계와; 감지결과 현재 장소에 사람이 감지되면, 미리 정해진 인사말 출력시기인 지를 판단하는 단계와; 판단결과 미리 정해진 인사말 출력시기이면, 미리 저장된 인사말 데이터로부터, 현재시간과, 감지된 온도 및/또는 습도와, 네트워크를 통해 수집된 날씨 정보에 부합하는 인사말 음성 및/또는 인사말 텍스트를 추출하여 출력하는 단계를 포함할 수 있다.
수집 단계는 날짜 및 시간별 날씨를 포함하는 날씨 정보를 수신하는 단계를 포함할 수 있다.
사람 유무를 감지하는 단계는, 미리 정해진 제1 시간마다 사람 유무를 감지하는 단계를 포함할 수 있다.
미리 정해진 인사말 출력시기인 지를 판단하는 단계는 인공지능 오디오 장치가 온될 때와, 인공지능 오디오 장치가 온된 후 미리 정해진 제2 시간 간격이 경과할 때의 각 시점을 미리 정해진 인사말 출력시기로 판단하는 단계를 포함할 수 있다.
현재 장소의 온도 및 습도를 감지하는 단계는 현재 장소의 조도를 감지하는 단계를 더 포함하며, 출력 단계는, 미리 저장된 안내 데이터로부터 안내 음성 및/또는 안내 텍스트를 추출하여 출력하는 단계와; 사용자의 음악재생 요청이 있을 때 미리 저장된 음악 데이터로부터, 현재시간과, 감지된 조도와, 네트워크를 통해 수집된 날씨 정보에 부합하는 음악을 선곡하여 출력하는 단계를 더 포함할 수 있다.
이때, 음악 데이터는 시간, 날씨, 및 조도에 따라 폴더별로 분류되어 저장될 수 있다. 선택적으로, 음악 데이터는 시간, 날씨, 및 조도에 따른 테그 정보를 가지도록 저장될 수 있다.
또한, 출력 단계는, 인사말 음성 또는 인사말 텍스트, 안내 음성 또는 안내 텍스트, 및 음악을 출력할 때 각각 해당하는 인사말 영상, 안내 영상, 및 동영상을 더 출력하는 단계를 더 포함할 수 있다.
선택적으로, 본 발명의 오디오 재생방법은, 사용자가 음악을 직접 선곡하여 청취할 때 실내의 조명을 출력되는 음악에 대한 조명제어 시나리오에 따라 제어하는 단계를 더 포함할 수 있다.
도 1은 본 발명의 일 실시 예에 의한 인공지능 오디오 장치의 구성을 도시하는 블록도,
도 2는 본 발명의 일 실시예에 의한 인공지능 오디오 장치의 음악 데이터를 저장하는 일 예를 도시하는 도면,
도 3은 본 발명의 또 다른 실시 예에 의한 인공지능 오디오 장치의 구성을 도시하는 블록도, 및
도 4는 도 1에 도시된 인공지능 오디오 장치의 동작 프로세스를 도시하는 플로우 챠트이다.
이하, 본 발명의 실시예들에 따른 인공지능 오디오 장치 및 그 동작 방법을 첨부도면을 참조하여 상세히 설명하면 다음과 같다.
도 1은 본 발명의 일 실시 예에 의한 인공지능 오디오 장치(100)를 도시하는 블록도이다.
본 발명의 일 실시 예에 의한 인공지능 오디오 장치(100)는 사람과 교감할 수 있도록 지능화된 기기로써, 인터넷이 가능하고 음악을 재생할 수 있는 홈 오디오 시스템, 카 오디오 장치, 휴대용 오디오 장치 등과 같은 기기를 포함한다. 이하에서 인공지능 오디오 장치(100)는 인터넷이 가능한 휴대용 오디오 장치인 것을 예를 들어 설명한다.
도 1에 도시된 바와 같이, 본 발명의 인공지능 오디오 장치(100)는 센싱부(110)와; 제1 통신부(130)와; 사용자 입력부(140)와; 저장부(150)와; 음성 처리부(160)와; 표시 처리부(170)와; 제2 통신부(180)와; 제어부(200)를 포함한다.
센싱부(110)는 인공지능 오디오 장치(100)가 현재 위치한 장소(이하, '현재 장소'라함)에 대한 환경정보를 획득하여 제어부(200)에 제공하기 위한 것으로, 위치 센서(111)와, 조도 센서(112)와, 온습도 센서(113)와, 인체감지 센서(114)를 포함한다.
위치 센서(111)는 현재 장소의 위치와 현재시간을 탐지하여 제어부(200)에 제공한다. 제어부(200)는 위치 센서(111)에 의해 탐지된 위치 및 현재시간 정보를 토대로 제1 통신부(130)를 통해 외부 서버(210), 예컨대, 날씨정보 제공서버(211)로부터 현재 장소의 날씨 정보를 수집한다. 제어부(200)는 탐지된 위치 및 현재시간 정보와, 수집된 현재 장소의 날씨 정보를 저장부(150)에 저장한다.
위치 센서(111)는 인공위성으로부터 현재 장소의 위치 및 현재시간 정보를 수신할 수 있는 GPS(Global Positioning System) 모듈로 구현될 수 있다.
온습도 센서(112)는 현재 장소의 실내의 온도 및 습도를 감지하여 제어부(200)에 제공한다. 제어부(200)는 후술하는 바와 같이 위치 센서(111)에 의해 탐지된 현재시간 정보와 날씨정보 제공서버(211)로부터 수집된 현재 장소의 날씨 정보와 함께, 온습도 센서(112)에 의해 감지된 온도 및 습도 정보를 토대로 저장부(150)에 저장된 인사말 데이터(151)로부터 현재시간과 현재 장소의 주위 환경에 맞는 인사말 음성 및/또는 인사말 텍스트를 추출하여 음성 처리부(160) 및/또는 표시 처리부(170)로 출력한다. 제어부(200)는 감지된 온습도 정보를 저장부(150)에 저장한다.
조도 센서(113)는 현재 장소의 실내의 조도를 감지하여 제어부(200)에 제공한다. 제어부(200)는 후술하는 바와 같이 위치 센서(111)에 의해 탐지된 현재시간 정보와 날씨정보 제공 서버(211)로부터 수집된 현재 장소의 날씨 정보와 함께, 조도 센서(113)에 의해 감지된 조도 신호를 토대로 저장부(150)에 저장된 음악 데이터(153)로부터 현재시간, 현재 장소의 주위 환경 및 분위기에 맞는 음악을 선곡하여 음성 처리부(160)로 출력한다. 제어부(200)는 감지된 조도 정보를 저장부(150)에 저장한다.
인체감지 센서(114)는 제어부(200)의 제어하에 미리 정해진 제1 시간, 예컨대, 3분 마다 현재 장소에 대한 사람의 유무를 감지한다. 제어부(200)는 인체감지 센서(114)에 의해 현재 장소에 사람이 있는 것으로 감지될 경우 미리 정해진 인사말 출력시기인 지를 판단하고, 판단결과 미리 정해진 인사말 출력 시기이면, 위에서 언급한 인사말을 추출하는 동작을 수행한다. 여기서, 미리 정해진 인사말 출력시기는 인공지능 오디오 장치(100)가 온될 때와, 인공지능 오디오 장치(100)가 온된 후 미리 정해진 제2 시간, 예컨대, 3시간이 경과할 때 마다의 각 시점을 포함할 수 있다. 현재 장소에 사람이 없는 것으로 감지될 경우, 제어부(200)는 현재 장소의 사람 유무를 감지하는 동작을 제1 시간 간격으로 소정 횟수, 예컨대, 3회 더 수행하고, 3회 수행 후에도 사람이 감지되지 않으면 인공지능 오디오 장치(100)를 오프시킨다. 이때, 인공지능 오디오 장치(100)는 음성 처리부(160)를 통해 스피커(SPK)로 출력되는 음악의 볼륨을 서서히 줄여지게 함과 함께 표시 처리부(170)를 통해 표시부(175)로 출력되는 영상이 서서히 페이드아웃(Fade out)되는 형태로 오프되는 것이 바람직하다.
인체감지 센서(114)는 인체의 적외선을 감지하는 PIR(Passive Infrared) 센서(115)로 구현될 수 있다.
선택적으로, 인체감지 센서(115)는 후술하는 사용자 입력부(140)의 카메라부(144)로도 구현될 수 있다. 카메라부(144)는 광신호를 비디오 신호를 변환하여 영상을 촬영하는 것으로, 카메라 모듈로 구성된다. 카메라 모듈은 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리하여 제어부(200)로 전송한다. 제어부(200)는 전송된 화상 프레임을 저장부(150)에 미리 저장된 사람유무 감지를 위한 기준영상, 예컨대, 배경화면과 비교하여 상이한 부분을 추출한 다음 상이한 부분을 미리 저장된 인물영상과 비교하는 것 등과 같은 공지의 방법으로 사람의 유무를 판단할 수 있다.
이때, 카메라부(144)는 사람의 유무를 감지하는 기능 외에 후술하는 바와 같이 사용자의 모션제스쳐(Motion gesture) 명령을 인식하는 사용자 입력부(140)의 기능을 겸한다.
센싱부(110)는 상술한 센서들 외에도 인공지능 오디오 장치(100)의 회전을 감지하는 자이로센서(도시하지 않음), 인공지능 오디오 장치(100)의 충격을 감지하는 충격센서(도시하지 않음) 등을 더 포함할 수 있다.
제1 통신부(130)는 제어부(200)의 제어하에 네트워크(101)를 통해 외부 서버(210), 예컨대, 위치 센서(111)에 의해 감지된 현재 장소의 위치의 날씨 정보를 제공하는 날씨정보 제공 서버(211)와 통신을 수행한다. 제1 통신부(130)는 네트워크(101)에 접속하기 위한 유/무선 통신 모듈로 구현되며, 제어부(200)의 제어에 따라 현재 장소의 위치 정보를 날씨정보 제공 서버(211)에 전송한다. 날씨정보 제공 서버(211)는 제1 통신부(130)를 통해 제어부(200)로부터 수신된 현재 장소의 위치 정보를 토대로 현재 장소의 날씨 정보를 생성하고, 이를 제1 통신부(130)를 통해 제어부(200)로 전송한다. 날씨 정보는 날짜 및 시간별 날씨를 포함할 수 있다. 제어부(200)는, 위치 센서(111)에 의해 탐지된 현재시간 정보와 온습도 센서(112)에 의해 감지된 온도 및 습도 정보 및/또는 조도 센서(113)에 의해 감지된 조도 신호와 함께, 수신된 날씨 정보를 이용하여 저장부(150)에 저장된 인사말 데이터(151)와 음악 데이터(153)로부터 현재 장소의 주위 환경과 분위기에 맞는 인사말과 음악을 추출한다.
외부 서버(210)는 날씨정보 제공 서버(211) 외에 음악 데이터를 제공하는 음원 서버(213), 음성인식 서비스를 제공하는 음성인식 서버(215) 등과 같은 빅데이터 서버를 포함할 수 있다. 음원 서버(213)는 네트워크(101)를 통해 제어부(200)로부터 음악제공 요청을 받을 경우 해당하는 음악을 추출하여 제어부(200)로 전송한다. 음성인식 서버(215)는 네트워크(101)를 통해 제어부(200)로부터 음성인식 서비스를 요청받을 경우 제어부(200)로부터 전송된 음성신호를 내부의 인식규칙 데이터베이스의 음성인식 규칙에 기반하여 음성 인식하여 음성신호에 포함된 문자를 추출하고, 추출된 문자를 포함하는 인식정보를 제어부(200)로 전송한다.
사용자 입력부(140)는 사용자의 명령을 수신한다. 사용자의 명령은, 사용자의 행위 등에 의해 인공지능 오디오 장치(100)가 소정 동작을 수행할 것을 결정할 수 있도록 하는 정보를 포함한다. 여기서, 소정 동작은 온/오프, 볼륨 조절 등과 같은 인공지능 오디오 장치(100)의 기본기능을 제어하는 동작과, 저장부(200)에 저장된 펌웨어 또는 운영체제와 후술하는 ASIC부를 실행하는 데 필요한 각종 실행명령과 설정들을 입력하기 위한 동작을 포함할 수 있다. 이러한 사용자의 명령은 리모컨부(141)의 조작을 통해 입력되는 리모컨신호, 키입력부(142)를 통해 입력되는 키입력 신호, 터치센서부(143)의 터치를 통해 입력되는 터치입력 신호, 카메라부(144)를 통해 입력되는 제스쳐명령 신호, 및/또는 마이크부(145)를 통해 입력되는 음성명령 신호를 포함할 수 있다.
리모컨부(141)는 입력 키 또는 버튼들을 포함하는 리모컨(도시하지 않음)을 구비한다. 리모컨신호 수신부(도시하지 않음)는 리모컨으로부터 사용자의 입력에 대응하는 키입력 정보를 포함하는 리모컨신호를 수신하여 제어부(200)로 송신한다. 제어부(200)는 이러한 리모컨신호에 응답하여 해당 기능 및/또는 구성요소들을 제어한다.
키입력부(142)는 인공지능 오디오 장치(100)의 케이스(도시하지 않음)의 전면 하측 또는 측면에 형성된 입력 키 또는 버튼들을 구비한다. 키입력부(142)는 입력 키 또는 버튼들 통한 사용자의 입력에 따라 인공지능 오디오 장치(100)의 기능 제어와 관련한 키 신호를 생성하여 제어부(200)로 전달한다. 키 신호는 전원 온/오프 신호, 볼륨 조절 신호 등을 포함한다. 제어부(200)는 키입력부(142)에 의해 입력된 키 신호에 응답하여 해당 기능 및/또는 구성요소들을 제어한다.
터치센서부(143)는 표시부(175)의 전면에 장착되고, 펜, 사용자의 손가락 등과 같은 터치입력도구를 통한 사용자의 조작에 응답하여 터치입력 신호를 발생시켜 제어부(200)로 전달한다. 제어부(200)는 터치입력 신호에 응답하여 해당 기능 및/또는 구성요소들을 제어한다. 이러한 터치센서부(143)은 저항막 방식(resistive type), 정전용량 방식(capacitive type), 압력 방식(pressure type) 등으로 구현될 수 있다.
카메라부(144)는 위에서 설명한 바와 같이 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리하여 제어부(200)로 전송하는 카메라 모듈로 구성된다. 제어부(200)는 전송된 화상 프레임을 저장부(150)에 미리 저장된 모션제스쳐(Motion gesture) 영상 정보와 비교하여 일치하는 제스쳐 영상이 있을 경우 해당하는 모션제스쳐 명령 신호가 입력되었음을 판단하고, 해당하는 기능 및/또는 구성요소들을 제어한다. 이러한 카메라부(144)는 위에서 언급한 바와 같이 센서부(110)의 인체감지 센서(114)의 사람 유무를 감지하는 기능을 겸할 수 있다.
마이크부(145)는 음성을 전기신호로 변환하는 마이크를 구비한다. 마이크는 사용자의 음성을 전기신호로 변환하여 제어부(200)로 전송한다. 제어부(200)는 마이크부터 전송된 음성신호를 저장부에 저장된 음성명령 정보와 비교하여 일치하는 음성명령이 있을 경우 해당하는 음성명령 신호가 입력되었음을 판단하고, 해당하는 기능 및/또는 구성요소들을 제어한다. 또한, 리모컨부(141), 터치센서부(143) 등에 의해 음성인식 기능이 선택되었을 경우, 제어부(200)는 마이크부터 전송된 음성신호를 음성인식 서버(215)에 음성인식 서비스 요청과 함께 전송하고, 음성인식 서버(215)를 통해 추출된 음성신호에 포함된 문자를 포함하는 인식정보를 수신하고, 수신된 인식정보에 포함된 문자를 표시부(175)를 통해 표시하도록 표시 처리부(170)를 제어한다.
저장부(150)는 인공지능 오디오 장치(100)의 구동에 필요한 제어프로그램인 펌웨어 또는 운영체제을 저장한다.
또한, 저장부(150)는 상황에 따른 복수의 인사말 음성 및/또는 복수의 인사말 텍스트를 포함하는 인사말 데이터(151)와, 복수의 음악을 포함하는 음악 데이터(152)를 저장한다.
인사말 데이터(151)는 위에서 언급한 바와 같이 위치 센서(111)에 의해 탐지된 현재시간과, 날씨정보 제공서버(211)로부터 수집된 날씨 정보와, 온습도 센서(112)에 의해 감지된 온습도 정보를 토대로. 현재시간과 현재 장소의 주위 환경에 맞는 인사말을 추출하기 위해 사용된다.
아래 표 1과 같이, 인사말 데이터(151)의 인사말 음성과 인사말 텍스트는 현재시간과 현재 장소의 주위 환경, 즉, 날씨와 온도/습도에 대응하여 다양하게 설정되어 저장될 수 있다.
인사말 음성과 인사말 텍스트의 예
구분 내용
전제어 상쾌한 아침(오후, 저녁)입니다.
봄비가 내리는 좋은 아침(오후, 저녁)입니다.
꽃샘 추위에 쌀쌀한 아침(오후, 저녁)입니다.
메리 크리스마스!, 좋은 아침(오후, 저녁)입니다.
.
.
.
본문 ○월 ○일 ○지역 날씨는 맑으며(흐리며), 현재 기온은 ○℃, 습도는 ○%, 실내온도는○℃입니다.
.
.
.
결어 오늘 하루 행운이 함께 하길 바랍니다.
활기찬 하루 보내세요.
.
.
.
음악 데이터(152)는 위에서 언급한 바와 같이 위치 센서(111)에 의해 탐지된 현재시간과, 날씨정보 제공서버(211)로부터 수집된 날씨 정보와, 조도 센서(113)에 의해 각각 감지된 조도 정보를 토대로 현재시간과 현재 장소의 분위기에 맞는 음악을 추출하기 위해 사용된다.
아래 표 2과 같이, 음악 데이터(152)는 현재시간(아침(AM5-AM10), 오후(AM10-PM6), 저녁(PM6-AM5))과 현재 장소의 날씨(맑음, 흐림) 및 분위기(조도)에 따라 폴더별로 분류되어 저장부(200)에 저장될 수 있다. 이때, 분위기는 조도에 따라 결정될 수 있다. 예컨대, 조도가 높으면, 분위기는 밝음으로 분류되고, 조도가 낮으면, 분위기는 어두움으로 분류될 수 있다.
음악 데이터의 저장 예
폴더명 음악 종류
아침_맑은 날씨_분위기 밝음 활기찬 음악
아침_흐린 날씨_분위 어두움 댄스 음악,
비트가 빠르고 역동적인 음악
오후_맑은 날씨_분위기 밝음 차분한 음악(발라드 등)
오후_흐린 날씨_분위기 밝음 감미로운 음악
(Rock 발라드, R & B 등)
. .
. .
. .
선택적으로, 도 2에 도시된 바와 같이, 음악 데이터(153)는 현재시간(아침(AM5-AM10), 오후(AM10-PM6), 저녁(PM6-AM5))과 현재 장소의 날씨(맑음, 흐림) 및 분위기(조도)에 따른 테그 정보(155)를 가지도록 저장될 수도 있다.
이와 같은 음악 데이터(153)의 분류와 저장은 사용자가 음악을 청취한 후 후술하는 ASIC부에 의해 실행되어 표시되는 설정화면(도시하지 않음)을 통해 분류하여 저장될 수 있다.
또한, 저장부(150)는 음악재생 여부를 묻는 안내 음성과 안내 텍스트를 포함하는 안내 데이터(156)를 더 저장할 수 있다.
안내 음성 및/또는 안내 텍스트는 후술하는 바와 같이 제어부(200)의 제어에 따라 사용자에게 인사말 음성 및/또는 인사말 텍스트가 건네진 후 스피커(SPK) 및/또는 표시부(175)를 통해 출력된다.
안내 음성 및/또는 안내 텍스트는, 예컨대, "음악을 재생할 까요(Would you like play music)"로 구성될 수 있다.
또한, 저장부(150)는 인공지능 오디오 장치(100)의 동작을 제어하는 복수의 모션제스쳐 명령에 대응하는 모션제스쳐 영상 정보와 복수의 음성명령에 대응하는 음성명령 정보를 저장할 수 있다. 모션제스쳐 영상 정보와 음성명령 정보는 사용자가 각각 카메라부(144)와 마이크부(145)를 통해 모션제스쳐 명령과 음성명령을 입력할 때 제어부(200)가 입력된 모션제스쳐 영상 및 음성명령과 비교하여 모션제스쳐 명령과 음성명령을 인식할 수 있도록 하기 위해 사용된다.
또한, 저장부(150)는 사용자 입력부(140)를 통한 사용자의 입력에 따라 제어부(200)가 네트워크(101)를 통해 날씨정보 제공서버(211), 음원 서버(213) 등의 외부 서버(210)로부터 각종 정보 및/또는 콘텐츠와 센서부(110)에 의해 탐지된 시간 및 위치정보, 온습도 정보, 조도 정보 등을 저장할 수 있다.
이러한 저장부(150)는 플래시 메모리 타입(Flash memory type), 하드디스크 타입(Hard disk type), 멀티미디어 카드 마이크로 타입(Multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체로 구현될 수 있다.
음성 처리부(160)는 제어부(200)의 제어에 따라 저장부(150)에 저장된 인사말 데이터(151)의 인사말 음성과 음악 데이터(153)의 음악을 처리하여 스피커(SPK)로 출력한다. 음성 처리부(160)는 오디오 증폭기로 구현될 수 있다.
표시 처리부(170)는 제어부(200)의 제어에 따라 저장부(150)에 저장된 인공지능 오디오 장치(100)의 동작을 표시하는 그래픽 영상 및/또는 메시지를 처리하여 표시부(175)로 출력한다.
또한, 표시 처리부(170)는 제어부(200)의 제어에 따라 저장부(150)에 저장된 인사말 데이터(151)의 인사말 텍스트와 안내 데이터(156)의 안내 텍스트를 처리하여 표시부(175)로 출력한다.
표시부(175)는 표시 처리부(170)에 의해 처리된 그래픽 영상과 텍스트들을 표시한다. 표시부(175)는 LCD(Liquid Crystal Display) 또는 VFD(Vacuum Fluorescent Display)로 구현될 수 있다.
선택적으로, 도 3에 도시된 바와 같이, 인공지능 오디오 장치(100')는 제어부(200)의 제어에 따라 저장부(150)에 저장된 영상을 처리하여 모니터, TV 등과 같은 외부의 디스플레이 장치(181)로 출력하는 영상처리부(180)를 더 포함할 수 있다. 이 경우, 저장부(200)에 저장된 음악 데이터(153)는 복수의 음악에 대응하는 복수의 동영상을 포함하고, 인사말 데이터(151)와 안내 데이터(156)는 각각 복수의 인사말 음성 또는 복수의 인사말 텍스트와 안내 음성 또는 안내 텍스트에 대응하는 복수의 인사말 영상과 안내 영상을 더 포함할 수 있다. 따라서, 제어부(200)는 인사말 음성 또는 인사말 텍스트, 안내 음성 또는 안내 텍스트, 및 음악을 출력할 때 각각 해당하는 인사말 영상, 안내 영상, 및 동영상을 영상처리부(180)를 통해 처리하여 외부 디스플레이 장치(181)로 출력할 수 있다.
제2 통신부(185)는 제어부(200)의 제어에 따라 실내의 조명(250)을 제어하는 조명제어부(190)의 대응 통신부(191)와 통신한다. 제2 통신부(185)는 조명제어부(190)의 대응 통신부(191)와 USB, MHL 등의 유선 또는 WiFi, 블루투스 등의 무선으로 연결될 수 있다.
제어부(200)는 인공지능 오디오 장치(100)의 동작을 전반적으로 제어하며, 저장부(150)에 저장된 제어프로그램인 펌웨어 또는 운영체제를 실행하기 위한 CPU 및 RAM을 포함할 수 있다.
또한, 제어부(200)는 센싱부(110)의 인체감지 센서(114)를 통해 사람의 존재를 판단하여 현재시간과 주위 환경에 맞는 인사말을 건네는 기능을 수행하는 제1 제어블록(201)과, 음악재생 여부를 물어보고 음악재생 요청이 있을 경우 현재시간, 주위 환경 및 분위기에 맞는 음악을 선곡하여 들려 주는 기능을 수행하는 제2 제어블록(203)과, 특정 음악의 청취 시 청취 음악의 성향에 맞는 조명을 조정하여 분위기를 만들어 주는 기능을 수행하는 제3 제어 블록(205)을 포함할 수 있다.
제1 제어 블록(201)은 센싱부(110)의 인체감지 센서(114)에 의해 감지된 현재 장소의 위치정보를 토대로 날씨정보 제공 서버(211)로부터 현재 장소의 날씨 정보를 수집한다. 또한, 제1 제어 블록(201)은 미리 정해진 제1 시간, 예컨대, 3분 마다, 사람 유무를 감지하도록 인체감지 센서(114)를 제어한다. 인체감지 센서(114)에 의해 현재 장소에 사람이 있는 것으로 감지될 경우, 제1 제어 블록(201)은 미리 정해진 인사말 출력시기인 지를 판단하고, 판단결과 미리 정해진 인사말 출력 시기이면, 저장부(150)에 위의 표 1과 같이 저장된 인사말 데이터(151)로부터, 센싱부(110)의 위치센서(111)에 의해 탐지된 현재시간과, 온습도 센서(112)에 의해 감지된 온도 및 습도와, 날씨정보 제공 서버(211)로부터 수집된 현재 장소의 날씨 정보를 분석하여 이에 부합하는 인사말 음성과 인사말 텍스트를 추출하고, 추출된 인사말 음성과 인사말 텍스트를 각각 음성 처리부(160)와 표시 처리부(170)를 통해 스피커(SPK)와 표시부(175)로 출력한다. 여기서, 미리 정해진 인사말 출력시기는 인공지능 오디오 장치(100)가 온될 때와, 인공지능 오디오 장치(100)가 온된 후 미리 정해진 제2 시간, 예컨대, 3시간이 경과할 때 마다의 각 시점을 포함할 수 있다.
예컨대, 현재 장소의 위치는 용인(위치정보); 현재시간은 2013년 3월 7일 오전 7시(시간정보); 날씨는 맑음, 기온은 15℃, 습도는 45%(날씨정보); 실내온도는 25℃(온도정보)일 경우, 제어부(200)는 "상쾌한 아침입니다. 3월 7일 용인지역 날씨는 맑으며, 현재 기온은 15℃, 습도는 45%, 실내온도는 25℃입니다. 오늘 하루 행운이 함께 하길 바랍니다."라는 인사말 음성과 인사말 텍스트를 추출하여 출력할 수 있다.
현재 장소에 사람이 없는 것으로 감지될 경우, 제1 제어 블록(201)은 현재 장소의 사람 유무를 감지하는 동작을 제1 시간 간격, 예컨대, 3분 간격으로 소정 횟수, 예컨대, 3회 더 수행하고, 3회 수행 후에도 사람이 감지되지 않으면 인공지능 오디오 장치(100)를 오프시킨다.
여기서, 제1 제어 블록(201)은 인사말 음성과 인사말 텍스트를 모두 음성 처리부(160)와 표시 처리부(170)를 통해 스피커(SPK)와 표시부(175)로 출력하는 것으로 설명하였지만, 사용자가 ASIC부에 의해 실행되어 표시되는 설정화면을 통해 인사말 음성과 인사말 텍스트 중 하나만 출력하도록 설정될 경우, 제1 제어 블록(201)은 상응하는 인사말 음성 또는 인사말 텍스트만 출력하도록 음성 처리부(160) 또는 표시 처리부(170)를 제어한다.
또한, 도 3에 도시된 바와 같이, 인공지능 오디오 장치(100')가 영상처리부(180)를 더 포함할 경우, 제1 제어 블록(201)은 인사말 음성과 인사말 텍스트에 대응하는 인사말 영상을 영상처리부(180)를 통해 처리하여 외부 디스플레이 장치(181)로 출력할 수 있다.
제2 제어블록(203)은 저장부(150)에 저장된 안내 데이터(156)로부터 안내 음성과 안내 텍스트를 추출하여 음성 처리부(160)와 표시 처리부(170)를 통해 스피커(SPK)와 표시부(175)로 각각 출력하고, 사용자 입력부(140)를 통한 사용자의 음악재생 요청이 있을 때 저장부(150)에 저장된 음악 데이터(153)로부터, 센싱부(110)의 위치센서(111)에 의해 탐지된 현재시간과, 센싱부(140)의 조도 센서(113)에 의해 감지된 조도(분위기)와, 날씨정보 제공 서버(211)로부터 수신된 날씨 정보에 부합하는 음악을 추출하여 음성 처리부(160)를 통해 스피커(SPK)로 출력할 수 있다.
이때, 저장부(150)에는 음악 데이터(153)가 위의 표 2와 같이 현재시간, 날씨, 및 분위기(조도)에 따른 폴더별로 분류되거나 도 2에 도시된 바와 같이 현재시간, 날씨, 및 분위기(조도)에 따른 테그 정보(155)를 가지도록 저장되어 있으므로, 제2 제어블록(203)은 현재시간, 조도(분위기) 및 날씨 정보를 통해 쉽게 음악을 추출할 수 있다.
또한, 도 3에 도시된 바와 같이, 인공지능 오디오 장치(100')가 영상처리부(180)를 더 포함할 경우, 제2 제어 블록(203)은 안내 음성과 안내 텍스트에 대응하는 안내 영상과 음악에 대응하는 동영상을 영상처리부(180)를 통해 처리하여 외부 디스플레이 장치(181)로 출력할 수 있다.
제3 제어블록(205)은 사용자가 ASIC부에 의해 실행되어 표시되는 음악실행 화면(도시하지 않음)에서 사용자 입력부(140)를 통해 음악을 직접 선곡하여 청취할 때, 음성 처리부(160)를 통해 출력될 음악에 따라 조명(250)의 밝기와 색상을 조정하는 조명제어 시나리오를 조명제어 시나리오 생성부(230)를 통해 생성하고, 생성된 조명제어 시나리오를 제2 통신부(185)를 통해 조명제어부(190)의 대응 통신부(191)로 송신한다. 조명제어 시나리오 생성부(230)는 조명제어 시나리오를 공지의 생성 알고리즘을 사용하여 생성할 수 있다. 조명제어부(190)는 대응 통신부(191)를 통해 수신된 조명제어 시나리오에 따라 실내의 조명(250)을 제어한다.
이러한 제1 내지 제3 블록(201, 203, 205)은 제1 내지 제3 블록(201, 203, 205)의 기능을 수행할 수 있는 인사말/선곡/조명제어 프로그램을 내장하도록 설계된 ASIC부로 구현될 수 있다.
이하, 이상에서 설명한 본 발명의 일 실시에 에 따른 인공지능 오디오 장치(100)의 동작 방법을 도 4를 참조하여 상세히 설명하면 다음과 같다.
먼저, 제어부(200)는 센서부(110)을 제어하여 인공지능 오디오 장치(100)가 위치한 현재 장소의 위치와 현재시간을 탐지함과 함께 현재 장소의 온도 및 습도와 조도를 감지한다(S100).
다음으로, 제어부(200)는 센서부(110)에 의해 감지된 현재 장소의 위치 정보를 이용하여 네트워크(101)를 통해 날씨정보 제공서버(211)로부터 날씨 정보를 수집한다(S110). 이때, 날씨 정보는 날짜 및 시간별 날씨를 포함한다.
이어서, 제어부(200)는 미리 정해진 제1 시간 마다, 예컨대, 3분 마다 센서부(110)을 제어하여 현재 장소의 사람 유무를 감지한다(S120).
단계(S120)에서 현재 장소에 사람이 감지되면, 제어부(200)는 미리 정해진 인사말 출력시기인 지를 판단한다(S130). 여기서, 미리 정해진 인사말 출력시기는 인공지능 오디오 장치(100)가 온될 때와, 인공지능 오디오 장치(100)가 온된 후 제2 시간, 예컨대, 3시간이 경과할 때 마다의 각 시점이다.
단계(S120)에서 판단결과 미리 정해진 인사말 출력시기인 것으로 판단되면, 제어부(200)는 저장부(150)에 미리 저장된 인사말 데이터(151)로부터, 센서부(110)에 의해 탐지된 현재시간과, 센서부(110)에 의해 감지된 현재 장소의 온도 및 습도와, 네트워크를 통해 수집된 날씨 정보에 부합하는 인사말에 대응하는 인사말 음성과 인사말 텍스트를 추출하고, 추출된 인사말 음성과 인사말 텍스트를 각각 음성 처리부(160)와 텍스트/그랙픽 처리부(170)를 통해 스피커(SPK)와 표시부(175)로 출력한다(S140).
이때, 사용자가 ASIC부에 의해 실행되어 표시되는 설정화면을 통해 인사말 음성과 인사말 텍스트 중 하나만 출력하도록 설정될 경우, 제어부(200)는 설정된 인사말 음성 또는 인사말 텍스트만 출력하도록 음성 처리부(160) 또는 표시 처리부(170)를 제어한다.
이후, 제어부(200)는 저장부(150)에 미리 저장된 안내 데이터(156)로부터 안내 음성과 안내 텍스트를 각각 음성 처리부(160)와 텍스트/그랙픽 처리부(170)를 통해 스피커(SPK)와 표시부(175)로 출력한다(S150).
이때, 사용자가 ASIC부에 의해 실행되어 표시되는 설정화면을 통해 안내 음성과 안내 텍스트 중 하나만 출력하도록 설정될 경우, 제어부(200)는 설정된 안내 음성 또는 안내 텍스트만 출력하도록 음성 처리부(160) 또는 표시 처리부(170)를 제어한다.
그후, 사용자 입력부(140)을 통한 사용자의 음악재생 요청이 있으면, 제어부(200)는 저장부(150)에 미리 저장된 음악 데이터(153)로부터, 센서부(110)에 의해 탐지된 현재시간과, 센서부(110)에 의해 감지된 조도와, 네트워크를 통해 수집된 날씨 정보에 부합하는 음악을 추출하고, 추출된 음악을 음성 처리부(160)를 통해 스피커(SPK)로 출력한다(S160).
이때, 음악 데이터(153)는 현재시간과 현재 장소의 날씨 및 조도(분위기)에 따라 폴더별로 분류되거나 현재시간과 현재 장소의 날씨 및 조도(분위기)에 따른 테그정보(155)를 가지도록 저장부(150)에 저장되어 있으므로, 제어부(200)는 음악 데이터(153)로부터 음악을 쉽게 추출할 수 있다.
이후, 단계(S160)에서 추출된 음악의 출력이 완료되면, 제어부(200)는 사용자 입력부(140)을 통한 사용자의 입력에 의해 인공지능 오디오 장치(100)가 오프될 때 까지 단계(S100) 내지 단계(S160)의 동작을 반복한다.
또한, 단계(S160) 이후에 사용자가 ASIC부에 의해 실행되어 표시되는 음악실행 화면에서 사용자 입력부(140)를 통해 음악을 직접 선곡하여 청취할 때, 제어부(200)는 위에서 설명한 바와 같이 실내의 조명(250)을 출력될 음악에 대한 조명제어 시나리오에 따라 제어한다(S170).
한편, 단계(S120)에서 판단결과 현재 장소에 사람이 없는 것으로 감지되면, 제어부(200)는 현재 장소의 사람 유무를 감지하는 동작을 제1 시간 간격, 예컨대, 3분 간격으로 소정 횟수, 예컨대, 3회 더 수행하고, 3회 수행 후에도 사람이 감지되지 않으면 인공지능 오디오 장치(100)를 오프시킨다. 이때, 인공지능 오디오 장치(100)는 스피커(SPK)를 통해 출력되는 음악의 볼륨을 서서히 줄임과 함께 표시부(175)를 통해 표시되는 영상이 서서히 페이드아웃(Fade out)되는 형태로 오프되는 것이 바람직하다.
또한, 도 3에 도시된 바와 같이, 인공지능 오디오 장치(100')가 영상처리부(180)를 더 포함할 경우, 제어부(200)는 단계(S140, S150, S160)에서 인사말 음성 및/또는 인사말 텍스트, 안내 음성 및/또는 안내 텍스트, 및 음악을 출력할 때 각각 해당하는 인사말 영상, 안내 영상, 및 동영상을 외부의 디스플레이장치로 더 출력하도록 영상 처리부(180)를 제어할 수 있다.
이상에서 설명한 바와 같이, 본 발명에 따른 인공지능 오디오 장치(100. 100') 및 그 동작 방법에 따르면, 사람과 교감할 수 있도록 사람의 존재를 판단하여 현재시간과 주위 환경에 맞는 인사말을 건넴과 함께 음악재생 여부를 물어보고, 음악재생 요청이 있을 때 현재시간, 주위 환경 및 분위기에 맞는 음악을 선곡하여 들려 주고, 특정 음악의 청취 시 청취 음악의 성향에 맞는 조명을 조정하여 분위기를 만들어 줄 수 있게 한다. 그 결과, 사용자는 오디오 장치를 사람과 교감할 수 있는 기기로 인식하여 음악청취를 통한 스트레스 해소 효과 이외에 사람과 교감을 통해 느끼는 정신적인 안정과 같은 효과는 얻을 수 있다.
이상과 같이 예시된 도면을 참조로 하여, 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 한정적이 아닌 것으로 이해해야만 한다.
100, 100': 인공지능 오디오 장치 101: 네트워크
110: 센싱부 111: 위치 센서
112: 온습도 센서 113: 조도 센서
115: 인체감지 센서 130: 제1 통신부
150: 저장부 151: 인사말 데이터
153: 음악 데이터 156: 안내 데이터
160: 음성 처리부 170: 표시 처리부
175: 표시부 180: 영상 처리부
185: 제2 통신부 190: 조명제어부
210: 외부 서버 250: 조명

Claims (23)

  1. 컨텐츠 서비스를 제공하기 위한 인공지능 오디오 장치에 있어서,
    주위 환경정보와 사람의 존재 유무를 감지하는 센싱부와;
    네트워크를 통해 외부 서버와 통신하는 제1 통신부와;
    저장부와;
    음성과 음악을 포함하는 오디오를 처리하여 출력하는 음성 처리부와;
    텍스트를 포함하는 비디오를 처리하여 출력하는 표시 처리부와;
    상기 외부 서버로부터 상기 컨텐츠 서비스를 위한 정보를 수신하고,
    상기 센싱부에 의해 현재 장소에 상기 사람의 존재 유무를 판단하고,
    상기 현재 장소에 상기 사람이 존재하는 것으로 판단되는 경우, 미리 정해진 인사말 출력시기인 지를 판단하고,
    판단결과 상기 미리 정해진 인사말 출력시기인 경우, 상기 수신된 컨텐츠 서비스를 위한 정보에 기초하여 상기 센싱부에 의해 감지된 상기 현재 장소의 주위 환경정보에 맞는 비디오 또는 오디오 중의 적어도 하나를 상기 음성 처리부와 상기 표시 처리부 중의 적어도 하나를 통해 출력하는 제어부를 포함하며,
    상기 미리 정해진 인사말 출력시기는 상기 인공지능 오디오 장치가 온될 때, 또는 상기 인공지능 오디오 장치가 온 된 후 미리 정해진 시간이 경과할 때 마다의 각 시점 중 적어도 하나를 포함하는 것을 특징으로 하는 인공지능 오디오 장치.
  2. 제1항에 있어서,
    상기 센싱부는 위치를 탐지하는 위치센서, 온도 및 습도를 감지하는 온습도 센서, 및 상기 사람의 존재 유무를 감지하는 인체감지 센서를 포함하는 것을 특징으로 하는 인공지능 오디오 장치.
  3. 제2항에 있어서,
    상기 위치센서는 GPS(Global Positioning System) 모듈을 포함하는 것을 특징으로 하는 인공지능 오디오 장치.
  4. 제2항에 있어서,
    상기 인체감지 센서는 적외선을 감지하는 PIR(Passive Infrared) 센서와 영상을 촬영하는 카메라부 중의 적어도 하나를 포함하는 것을 특징으로 하는 인공지능 오디오 장치.
  5. 제1항에 있어서,
    상기 외부 서버는 날짜 및 시간별 날씨를 포함하는 날씨 정보를 제공하는 날씨정보 제공 서버를 포함하는 것을 특징으로 하는 인공지능 오디오 장치.
  6. 제1항에 있어서,
    상기 저장부는 음악재생 여부를 묻는 안내 음성과 안내 텍스트를 포함하는 안내 데이터를 저장하는 것을 특징으로 하는 인공지능 오디오 장치.
  7. 제6항에 있어서,
    상기 저장부는 복수의 음악을 포함하는 음악 데이터를 더 저장하며,
    상기 제어부는 상기 저장부에 저장된 안내 데이터로부터 상기 안내 음성과 상기 안내 텍스트 중의 적어도 하나를 추출하여 상기 음성 처리부와 상기 표시 처리부 중의 적어도 하나를 통해 출력하고, 사용자의 음악재생 요청이 있을 때 상기 저장부에 저장된 음악 데이터로부터, 현재 시간과, 상기 센싱부에 의해 감지된 상기 현재 장소의 조도와, 상기 외부 서버로부터 수집된 날씨 정보에 부합하는 음악을 선곡하여 상기 음성 처리부를 통해 출력하는 것을 특징으로 하는 인공지능 오디오 장치.
  8. 제7항에 있어서,
    상기 음악 데이터는 시간, 날씨, 및 조도에 따라 폴더별로 분류되어 상기 저장부에 저장되는 것을 특징으로 하는 인공지능 오디오 장치.
  9. 제7항에 있어서,
    상기 음악 데이터는 시간, 날씨, 및 조도에 따른 테그 정보를 가지도록 분류되어 상기 저장부에 저장되는 것을 특징으로 하는 인공지능 오디오 장치.
  10. 제7항에 있어서,
    영상을 처리하여 외부의 디스플레이 장치로 출력하는 영상처리부를 더 포함하는 것을 특징으로 하는 인공지능 오디오 장치.
  11. 제10항에 있어서,
    상기 저장부는 복수의 환경에 부합하는 인사말 음성과 인사말 텍스트 중의 적어도 하나를 포함하는 인사말 데이터를 더 저장하고,
    상기 제어부는,
    상기 현재 장소의 주위 환경정보에 포함된 위치의 위치 정보를 이용하여 상기 외부 서버로부터 상기 위치의 날씨 정보를 수집하고,
    상기 현재 장소에 상기 사람이 존재하는 것으로 판단되면 상기 미리 정해진 인사말 출력시기인 지를 판단하여 상기 미리 정해진 인사말 출력시기인 경우, 상기 저장부에 저장된 인사말 데이터로부터, 현재 시간과, 상기 센싱부에 의해 감지된 상기 현재 장소의 주위 환경정보의 온도 및 습도 중의 적어도 하나와, 상기 외부 서버로부터 수집된 상기 위치의 날씨 정보에 부합하는 인사말 음성과 인사말 텍스트 중의 적어도 하나를 획득하고,
    상기 획득된 인사말 음성과 인사말 텍스트 중의 적어도 하나를 상기 음성 처리부와 상기 표시 처리부 중의 적어도 하나를 통해 출력하는 것을 특징으로 하는 인공지능 오디오 장치.
  12. 삭제
  13. 제1항에 있어서,
    실내의 조명을 제어하는 조명제어부와 무선으로 통신하는 제2 통신부를 더 포함하는 것을 특징으로 하는 인공지능 오디오 장치.
  14. 제13항에 있어서,
    상기 제어부는 사용자가 음악을 직접 선곡하여 청취할 때 상기 실내의 조명을 조명제어 시나리오에 따라 제어하도록 상기 음성 처리부를 통해 출력되는 음악에 대한 조명제어 시나리오를 상기 제2 통신부를 통해 상기 조명제어부에 송신하는 것을 특징으로 하는 인공지능 오디오 장치.
  15. 인공지능 오디오 장치의 컨텐츠 서비스 제공방법에 있어서,
    주위 환경정보와 사람의 존재 유무를 감지하는 단계와;
    네트워크를 통해 컨텐츠 서비스를 위한 정보를 수집하는 단계와;
    상기 감지 결과 현재 장소에 사람이 존재하는 것으로 판단되는 경우, 미리 정해진 인사말 출력시기인 지를 판단하는 단계와;
    판단결과 상기 미리 정해진 인사말 출력시기인 경우, 상기 네트워크를 통해 수집된 컨텐츠 서비스를 위한 정보에 기초하여, 감지된 상기 현재 장소의 주위 환경정보에 맞는 비디오 또는 오디오 중의 적어도 하나를 출력하는 단계를 포함하며,
    상기 미리 정해진 인사말 출력시기는 상기 인공지능 오디오 장치가 온될 때, 또는 상기 인공지능 오디오 장치가 온 된 후 미리 정해진 시간이 경과할 때 마다의 각 시점 중 적어도 하나를 포함하는 것을 특징으로 하는 인공지능 오디오 장치의 컨텐츠 서비스 제공방법.
  16. 제15항에 있어서,
    상기 수집 단계는 날짜 및 시간별 날씨를 포함하는 날씨 정보를 수신하는 단계를 포함하는 것을 특징으로 하는 인공지능 오디오 장치의 컨텐츠 서비스 제공방법.
  17. 제15항에 있어서,
    상기 감지하는 단계는, 미리 정해진 제1 시간마다 상기 사람의 존재 유무를 감지하는 단계를 포함하는 것을 특징으로 하는 인공지능 오디오 장치의 컨텐츠 서비스 제공방법.
  18. 삭제
  19. 제15항에 있어서,
    상기 출력 단계는,
    미리 저장된 안내 데이터로부터 안내 음성과 안내 텍스트 중의 적어도 하나를 추출하여 출력하는 단계와;
    사용자의 음악재생 요청이 있을 때 상기 미리 저장된 음악 데이터로부터, 현재 시간과, 상기 감지된 현재 장소의 주위 환경정보의 조도와, 상기 네트워크를 통해 수집된 날씨 정보에 부합하는 음악을 선곡하여 출력하는 단계를 더 포함하는 것을 특징으로 하는 인공지능 오디오 장치의 컨텐츠 서비스 제공방법.
  20. 제19항에 있어서,
    상기 음악 데이터는 시간, 날씨, 및 조도에 따라 폴더별로 분류되어 저장되는 것을 특징으로 하는 인공지능 오디오 장치의 컨텐츠 서비스 제공방법.
  21. 제19항에 있어서,
    상기 음악 데이터는 시간, 날씨, 및 조도에 따른 테그 정보를 가지도록 저장되는 것을 특징으로 하는 인공지능 오디오 장치의 컨텐츠 서비스 제공방법.
  22. 제19항에 있어서,
    상기 수집하는 단계는 상기 현재 장소의 주위 환경정보에 포함된 위치의 위치 정보를 이용하여 외부 서버로부터 상기 위치의 날씨 정보를 수집하는 단계를 포함하고,
    상기 출력하는 단계는.
    상기 판단결과 상기 미리 정해진 인사말 출력시기인 경우, 저장된 인사말 데이터로부터, 현재 시간과, 상기 감지된 상기 현재 장소의 주위 환경정보의 온도 및 습도 중의 적어도 하나와, 상기 외부 서버로부터 수집된 상기 위치의 날씨 정보에 부합하는 인사말 음성과 인사말 텍스트 중의 적어도 하나를 획득하는 단계와.
    상기 획득된 인사말 음성과 인사말 텍스트 중의 적어도 하나를 상기 비디오 또는 오디오 중의 적어도 하나로 출력하는 단계를 포함하는 것을 특징으로 하는 인공지능 오디오 장치의 컨텐츠 서비스 제공방법.
  23. 제15항에 있어서,
    사용자가 음악을 직접 선곡하여 청취할 때 실내의 조명을 출력되는 음악에 대한 조명제어 시나리오에 따라 제어하는 단계를 더 포함하는 것을 특징으로 하는 인공지능 오디오 장치의 컨텐츠 서비스 제공방법.
KR1020130127712A 2013-10-25 2013-10-25 인공지능 오디오 장치 및 그 동작 방법 KR102122771B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020130127712A KR102122771B1 (ko) 2013-10-25 2013-10-25 인공지능 오디오 장치 및 그 동작 방법
US14/326,663 US9948764B2 (en) 2013-10-25 2014-07-09 Artificial intelligence audio apparatus and operation method thereof
US15/937,282 US10924606B2 (en) 2013-10-25 2018-03-27 Artificial intelligence audio apparatus and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130127712A KR102122771B1 (ko) 2013-10-25 2013-10-25 인공지능 오디오 장치 및 그 동작 방법

Publications (2)

Publication Number Publication Date
KR20150047803A KR20150047803A (ko) 2015-05-06
KR102122771B1 true KR102122771B1 (ko) 2020-06-26

Family

ID=52996584

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130127712A KR102122771B1 (ko) 2013-10-25 2013-10-25 인공지능 오디오 장치 및 그 동작 방법

Country Status (2)

Country Link
US (2) US9948764B2 (ko)
KR (1) KR102122771B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230103041A (ko) 2021-12-31 2023-07-07 지엘디앤아이에프 주식회사 지능형 스피커 시스템

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102122771B1 (ko) 2013-10-25 2020-06-26 삼성전자주식회사 인공지능 오디오 장치 및 그 동작 방법
KR101944777B1 (ko) * 2017-04-16 2019-02-01 이상훈 시선 인식에 의한 대화 연속성 식별 기반의 휴먼 인터페이스 처리형 인공지능 스피커
US20190061336A1 (en) * 2017-08-29 2019-02-28 Xyzprinting, Inc. Three-dimensional printing method and three-dimensional printing apparatus using the same
KR102027506B1 (ko) 2017-11-09 2019-10-01 삼성중공업 주식회사 발전장치
KR101950721B1 (ko) 2017-12-29 2019-02-21 한남대학교 산학협력단 다중 인공지능 안전스피커
KR20190133476A (ko) 2018-05-23 2019-12-03 주식회사 엘지유플러스 음성에 반응하여 서비스를 제공하기 위한 장치 및 그 방법
KR102036859B1 (ko) * 2018-09-04 2019-10-25 주식회사 아카인텔리전스 캐릭터 인형과 결합된 인공지능 스피커
CN109408164B (zh) * 2018-09-07 2022-04-15 百度在线网络技术(北京)有限公司 控制屏幕显示内容的方法、装置、设备及可读存储介质
KR101953154B1 (ko) 2018-11-26 2019-03-04 주식회사 와이젯 고속 무선통신을 수행하는 인공지능 스피커 시스템
CN110349575A (zh) * 2019-05-22 2019-10-18 深圳壹账通智能科技有限公司 语音识别的方法、装置、电子设备和存储介质
CN110333840B (zh) * 2019-06-28 2023-04-18 百度在线网络技术(北京)有限公司 推荐方法、装置、电子设备和存储介质
KR102285581B1 (ko) 2019-07-05 2021-08-03 주식회사 에스원 인공지능 클라이언트 장치 및 이의 동작 방법
KR20190099380A (ko) * 2019-08-07 2019-08-27 엘지전자 주식회사 사용자의 행동 패턴에 기반한 AI(Artificial Intelligence) 장치와 디바이스를 연계하는 방법 및 이를 위한 장치
KR102299983B1 (ko) * 2019-11-21 2021-09-07 임지현 스마트 스피커용 캔들워머 장치
CN111256876B (zh) * 2020-01-20 2021-07-09 国网福建省电力有限公司莆田供电公司 一种高压开关柜温度监测系统和方法
CN115148220A (zh) * 2021-03-31 2022-10-04 广东高云半导体科技股份有限公司 一种音频检测系统及音频检测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130073094A1 (en) * 2010-03-30 2013-03-21 Telepure Limited Building occupancy dependent control system

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6154658A (en) * 1998-12-14 2000-11-28 Lockheed Martin Corporation Vehicle information and safety control system
KR20010111127A (ko) 2000-06-08 2001-12-17 박규진 통신인터페이스를 이용한 상호대화가 가능한 인간형시계,데이터제공시스템 및 이를 이용한 인터넷 사업방법
KR20020047939A (ko) * 2000-12-14 2002-06-22 조정남 통신망에서의 동적 인사말 서비스 방법
US7327245B2 (en) * 2004-11-22 2008-02-05 Microsoft Corporation Sensing and analysis of ambient contextual signals for discriminating between indoor and outdoor locations
US8327455B2 (en) * 2006-02-15 2012-12-04 Samsung Electronics Co., Ltd. Apparatus and method for controlling copying of AV data and computer readable medium therefor
KR100955523B1 (ko) * 2007-02-06 2010-04-30 아주대학교산학협력단 상황인식 사례기반 음악추천시스템 및 그 방법
US9066404B2 (en) * 2008-06-26 2015-06-23 Telelumen Llc Systems and methods for developing and distributing illumination data files
US10192389B2 (en) * 2008-09-01 2019-01-29 New Bis Safe Luxco S.À.R.L. Methods, apparatus and systems for determining an adjustment value of a gaming device
US8489599B2 (en) * 2008-12-02 2013-07-16 Palo Alto Research Center Incorporated Context and activity-driven content delivery and interaction
US8576069B2 (en) * 2009-10-22 2013-11-05 Siemens Corporation Mobile sensing for road safety, traffic management, and road maintenance
US20110178947A1 (en) 2010-01-19 2011-07-21 Mcnutt Reginald Leslie Greeter methods and systems
US9734467B2 (en) * 2010-01-29 2017-08-15 Eved, L.L.C. Systems and methods for managing events
US9118429B2 (en) * 2011-06-29 2015-08-25 Eugene Bourakov Interactive content delivery system and apparatus with global reach capability
CN110422272A (zh) * 2012-05-30 2019-11-08 赛创尼克株式会社 通过对海洋结构物的实时测量监视的控制方法
KR20140007698A (ko) * 2012-07-10 2014-01-20 삼성전자주식회사 Hdmi 신호 보정 방법, hdmi 신호 수신장치, hdmi 신호 전송장치 및 hdmi 신호 처리 시스템
CA2884756A1 (en) * 2012-09-11 2014-03-20 Erik J. Shahoian Systems and methods for haptic stimulation
WO2014065389A1 (en) * 2012-10-25 2014-05-01 Semiconductor Energy Laboratory Co., Ltd. Central control system
JP6064544B2 (ja) * 2012-11-27 2017-01-25 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び端末装置
KR20140099122A (ko) * 2013-02-01 2014-08-11 삼성전자주식회사 전자 장치, 위치 검출 장치, 스피커 자동 설정 시스템 및 방법
US20140357226A1 (en) * 2013-05-29 2014-12-04 Kent S. Charugundla Zone Based Radio Communication System
KR102122771B1 (ko) * 2013-10-25 2020-06-26 삼성전자주식회사 인공지능 오디오 장치 및 그 동작 방법
WO2016077613A1 (en) * 2014-11-11 2016-05-19 Webee LLC Systems and methods for smart spaces
JP1541334S (ko) * 2015-01-08 2018-12-25
US10453098B2 (en) * 2015-03-04 2019-10-22 Google Llc Privacy-aware personalized content for the smart home
KR102545767B1 (ko) * 2016-12-23 2023-06-20 삼성전자주식회사 분리형 음향 트랜스듀서를 구비한 사운드바 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130073094A1 (en) * 2010-03-30 2013-03-21 Telepure Limited Building occupancy dependent control system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230103041A (ko) 2021-12-31 2023-07-07 지엘디앤아이에프 주식회사 지능형 스피커 시스템

Also Published As

Publication number Publication date
US20150120618A1 (en) 2015-04-30
US9948764B2 (en) 2018-04-17
US10924606B2 (en) 2021-02-16
US20180227410A1 (en) 2018-08-09
KR20150047803A (ko) 2015-05-06

Similar Documents

Publication Publication Date Title
KR102122771B1 (ko) 인공지능 오디오 장치 및 그 동작 방법
JP6669073B2 (ja) 情報処理装置、制御方法、およびプログラム
US11340862B2 (en) Media content playback during travel
EP3345379B1 (en) Method for electronic device to control object and electronic device
US11449221B2 (en) User interface for media content playback
JP6574937B2 (ja) 通信システム、制御方法、および記憶媒体
EP2229228B1 (en) System and method for automatically creating an atmosphere suited to social setting and mood in an environment
EP2894629B1 (en) Picture display device, and setting modification method and setting modification program therefor
WO2017059815A1 (zh) 一种快速识别方法及家庭智能机器人
US11514098B2 (en) Playlist trailers for media content playback during travel
US20150373393A1 (en) Display device and operating method thereof
CN102984588A (zh) 响应于面部辨认的个性化电视观看模式调整
KR102523135B1 (ko) 전자 장치 및 전자 장치에 의한 자막 표현 방법
KR102657519B1 (ko) 음성을 기반으로 그래픽 데이터를 제공하는 전자 장치 및 그의 동작 방법
KR20190035116A (ko) Ar 객체를 표시하기 위한 장치 및 방법
CN106416278A (zh) 信息处理装置、信息处理方法及程序
CN108476258B (zh) 用于电子设备控制对象的方法以及电子设备
KR20190138436A (ko) 입력기를 통해 이미지와 관련된 정보를 어플리케이션에 제공하는 전자 장치 및 방법
KR20180109499A (ko) 사용자의 음성 입력에 대한 답변을 제공하는 방법 및 장치
KR102208256B1 (ko) 리딩 기능을 수행하는 스마트 인형
CN110825220B (zh) 眼球追踪控制方法、装置、智能投影仪及存储介质
JP2009031728A (ja) 画像表示装置
KR20200052462A (ko) 전자 장치 및 그 제어 방법
WO2019012784A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20210295836A1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant