KR19990045631A - 제어방법 - Google Patents

제어방법 Download PDF

Info

Publication number
KR19990045631A
KR19990045631A KR1019980051199A KR19980051199A KR19990045631A KR 19990045631 A KR19990045631 A KR 19990045631A KR 1019980051199 A KR1019980051199 A KR 1019980051199A KR 19980051199 A KR19980051199 A KR 19980051199A KR 19990045631 A KR19990045631 A KR 19990045631A
Authority
KR
South Korea
Prior art keywords
control
candidate
person
content
information
Prior art date
Application number
KR1019980051199A
Other languages
English (en)
Inventor
다로 이마가와
미치요 가메이
쓰요시 메카타
Original Assignee
마츠시타 덴끼 산교 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마츠시타 덴끼 산교 가부시키가이샤 filed Critical 마츠시타 덴끼 산교 가부시키가이샤
Publication of KR19990045631A publication Critical patent/KR19990045631A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Air Conditioning Control Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)

Abstract

본 발명의 제어방법은 사람의 속성을 감시하고, 미리 결정된 제어내용에서 그 결과를 기초로 제어될 장치를 제어하며, 또한 상기 사람의 주변환경을 감시하고, 이들 결과를 사용하여 상기 제어를 실행하는 것을 특징으로 한다.

Description

제어방법
본 발명은 사람의 동작, 자세 및 상태에 기초하여 장치를 동작시키거나, 정보를 조작하거나 환경을 제어하는 기술에 관한 것이다.
종래 장치를 동작시키기 위하여 사람의 동작을 검출하는 기술로서는 텔레비전을 동작시켜 사람의 제스처(gesture)를 인식하는 것이 있었다(일본국 특허공개공보 평8-315154호 및 평8-211979호). 일본국 특허공개공보 평8-315154호는 텔레비전을 동작시키기 위해 사람의 제스처와 손바닥의 위치를 검출할 수 있도록 카메라를 사용한다.
일본국 특허공개공보 평8-211979호는 카메라로 검출된 사람 손의 위치와 형상을 사용하여 휴대형 컴퓨터에 그 특징을 입력한다.
그러나 이들 종래의 방법은 기본적으로 1 대 1 방식으로 대응짓기 위해 사람과 그 사람에 의해 동작되는 장치를 필요로 하고, 그 사람의 주변에 다수의 텔레비전이나 개인용 컴퓨터가 있거나 또는 다수의 조작자가 있으면 원하는 동작을 수행하기 어려운 문제점이 있었다.
일반적으로 집이나 사무실 또는 실외에서는 다수의 장치와 사람이 있으므로 만약 이 장치가 사람의 동작을 이용하여 제어된다면 사람들은 그 장치와 개별적으로 관련되어야만 한다. 만약 예를들어 다수의 텔레비전이 동시에 동작되면 종래의 방법은 텔레비전이 동작되도록 하거나 식별되도록 하는 것을 허용하지 않을 수 있다. 또한 실내에 여러 사람이 있다면 종래의 방법은 누가 텔레비전 채널을 바꾸고 누가 바꿀 수 있는지를 결정할 수 없다.
본 발명의 목적은 상술한 종래의 문제점을 감안하여 이루어진 것으로, 이웃에 다수의 장치와 사람이 존재함에도 불구하고 사람의 동작, 자세 및 상태를 이용하는 장치를 스무스하게 동작시킬 수 있도록 장치와 사람간의 통신을 결정할 수 있는 제어방법을 제공하기 위한 것이다.
도 1은 본 발명의 제 1 실시예를 도시한 블록도.
도 2는 본 발명의 제 2 실시예를 도시한 블록도.
도 3은 본 발명의 제 3 실시예를 도시한 블록도.
도 4는 본 발명의 제 4 실시예를 도시한 블록도.
도 5는 본 발명의 제 5 실시예를 도시한 블록도.
도 6은 본 발명의 제 6 실시예를 도시한 블록도.
도 7은 본 발명의 제 7 실시예를 도시한 블록도.
도 8은 본 발명의 제 8 실시예를 도시한 블록도.
도 9는 사람의 손이나 손가락의 다양한 동작을 도시한 예시도.
도 10은 사람의 손이나 손가락의 다양한 동작을 도시한 예시도.
*도면의 주요부분에 대한 부호의 설명*
1 : 감시부 2 : 조작자 선택부
3 : 제어대상 후보 결정부 4 : 제어내용 후보 결정부
5 : 제어대상 및 내용 결정부
상기 목적 달성을 위해 본 발명은 미리 정해진 사람의 속성의 검출에 기초하여 소정의 장치를 제어할 수 있도록 한 명 또는 여러 명의 사람에 대한 속성을 연속적으로 또는 간헐적으로 감시하는 것에 특징이 있는 제어방법을 제공한다. 본 발명은 또한 제어대상의 후보자와 제어내용이 사람의 미리 결정된 속성에 기초하여 결정되고 제어대상과 제어내용이 제어대상의 후보와 제어내용의 후보에 기초하여 결정되는 것에 특징이 있는 제어방법을 제공한다. 또한 본 발명은 여러 명의 사람의 속성을 검출하는 것에 기초하여 제어대상의 후보와 제어내용의 후보가 각각의 사람에 대해 결정되고 제어대상과 제어내용이 제어대상의 후보와 제어내용의 후보에 기초하여 결정되는 것에 특징이 있는 제어방법을 제공한다.
상술한 목적 및 기타의 목적과 본 발명의 특징 및 이점은 첨부도면과 관련한 다음의 상세한 설명을 통해 보다 분명해 질 것이다.
( 실 시 예 )
이하, 본 발명의 실시예에 대하여 도면을 참조하여 설명한다. 도 1은 본 발명의 제 1 실시예를 도시한 블록도이다. 도 1에서 1은 감시부, 2는 조작자 선택부, 3은 제어대상 후보 결정부, 4는 제어내용 후보 결정부, 5는 제어대상 및 내용 결정부이다.
도 1에서 감시부(1)는 사람의 속성과 그들의 주변환경을 연속적으로 감시한다. 사람의 속성은 사람의 소재위치, 자세, 얼굴모습, 표정, 눈이나 머리의 방향, 동작, 음성, 생리적 상태, 독자성, 외형, 체중, 성별, 연령, 육체적 정신적 장애 및 소지품을 포함한다. 육체적 정신적 장애는 시각적, 육체적, 발성 및 청각적 장애와 언어 무능력을 포함한다. 소지품은 의복, 모자, 안경, 가방 및 신발을 포함한다.
감시수단은 카메라(가시광선 또는 적외선에 감응), 마이크로폰, 압력센서, 초음파 센서, 진동센서, 화학센서, 광센서를 포함하며, 다른 센서가 사용될 수도 있다. 카메라는 사람의 소재위치, 자세, 얼굴모습, 표정, 동작, 외형, 소지품을 비접촉 방식으로 감시하기 위해 사용될 수 있다.
사람의 소재위치가 카메라에 의해 감시되면 그 사람이 존재하는 위치는 살색이 존재하는 화상의 영역인 것으로 추정된다. 사람이 존재하는 위치는 상이한 색이나 휘도를 포함하는 화상의 영역 또는 만약 적외선 화상이 사용된다면 사람에 의해 주로 방출되는 3∼5㎛ 또는 8∼12㎛ 파장의 적외선이 검출되는 화상의 영역일 수 있다. 만약 사람의 자세, 외형 또는 동작이 카메라에 의해 감시되면 그 형상에 기초하여 그 사람의 자세나 외형을 감시하기 위해 그 사람의 개략적인 형상을 추출할 수 있도록 사람의 소재위치를 검출하는 한편 그 사람의 동작을 감시하기 위한 일시적 자세의 변화를 감시하는 것과 유사한 방법이 사용된다.
예컨대, 사람이 도달하려고 하는 방향으로 서있는지 또는 앉아 있는지를 결정하기 위해 각각의 자세에 대한 대표적인 형상이 미리 등록되어 그 사람의 화상과 비교될 수 있다. 만약 사람의 얼굴모습이나 표정 또는 머리나 눈의 방향이 카메라에 의해 감시되면 상술한 형상에 기초하여 몸체의 최상단에 위치한 머리가 검출될 수 있으며, 그 표정은 얼굴모습과 표정을 감시할 수 있도록 다양한 표정을 포함하는 얼굴모습의 등록된 화상과 비교될 수 있다. 머리나 눈의 방향은 상술한 절차를 사용하여 검출된 머리의 화상으로부터 눈의 위치를 검출함으로써 결정될 수 있다. 만약 눈의 위치가 머리에 대하여 대칭이면 머리는 카메라에 대하여 전방을 향하는 것으로 결정될 수 있으나 눈이 오른쪽이나 왼쪽으로 치우쳐 있으면 머리는 우측 또는 좌측을 향하도록 결정될 수 있다. 눈의 위치는 얼굴 중 보다 어두운 타원형 또는 평평한 영역을 검출함으로써 검출될 수 있다. 더욱이, 눈의 방향은 전체 눈의 중심에 있는 홍채의 원주영역을 검출하고 눈의 전체영역의 중심과 원주영역의 중심 사이의 편차를 결정함으로써 검출될 수 있다. 만약 사람의 소지품이 카메라에 의해 검출된다면, 상술한 절차를 이용하여 검출된 사람의 영역에 대하여 사람이 옷을 입고있지 않을 때 검출된 사람의 색과 다른 색이 검출되므로 사람 몸의 일부에 소지품이 있는 것으로 결정될 수 있다. 결정은 또한 특정 색을 갖는 전술한 소지품을 등록함으로써 행해질 수 있다. 안경은 상술한 절차를 이용하여 얼굴과 눈의 위치가 검출되면 눈 주위에 프레임 형상이 있는지의 여부에 따라 결정됨으로써 식별될 수 있다. 또한 비접촉 방식으로 사람의 음성이나 동작에 의해 발생하는 음(사람이 손뼉을 치거나 손가락으로 소리를 내거나 발소리에 의해 발생하는 음)을 감시하기 위해 사용될 수 있다. 또한 히트비트(heatbeat)와 같은 생리적 상태가 밀접 또는 접촉 위치에서 측정될 수 있다. 사람의 동작과 관련된 접촉을 감시하기 위해 압력센서가 사용될 수 있으며, 이 압력센서는 체중이나 도보 패턴을 감시할 수 있도록 바닥면에 설치될 수 있다. 또한 사람에 대한 거리변화를 감시하기 위해 초음파 센서가 이용될 수도 있다. 초음파를 사용함으로서 빛이 현저하게 변화하거나 전혀 없는 경우에도 사람의 위치를 감시할 수 있다.
또한 진동센서는 사람의 동작에 의해 발생되는 변화를 감시하기 위해 진동센서를 사용할 수 있다. 생리적 상태는 이온의 농도 또는 설탕이나 분비 호르몬의 양, 분비물 또는 체액과 같은 화학물질의 양을 측정하기 위한 화학센서나 몸을 투과하는 빛의 스펙트럼 분포를 측정하기 위한 광센서를 사용하여 감시될 수 있다. 또한 카메라에 의해 획득된 신체의 동작과 얼굴모습의 특징, 마이크에 의해 획득된 음성의 특징 또는 압력센서에 의해 획득된 체중과 같은 정보에 기초하여 사람의 독자성, 성별, 연령 또는 육체적 정신적 장애를 추측할 수 있다. 예컨대 특정한 사람의 얼굴모습의 특징과 그 사람의 체중, 외형, 성별, 연령 및 육체적 정신적 장애가 미리 등록되고, 그 특징중의 하나(예를 들면, 체중)가 이 사람을 식별하기 위해 사용되면 성별과 같은 다른 특징을 알 수 있다.
또한 감시의 정밀도를 향상시키고 감시범위를 확장시키기 위해 사람의 위치, 자세 및 동작을 3차원적으로 결정할 수 있도록 상이한 시야의 다수 카메라가 사용될 수 있다. 이와 유사하게 사람의 위치, 자세 또는 동작에 대한 정확성과 신뢰성을 향상시키기 위해 상이한 특징을 갖는 다수의 센서가 함께 조합될 수 있다.
사람과 그 주변환경은 간헐적으로 감시될 수 있으며, 간헐적인 감시는 일련의 제어동작에 대한 처리량 더 나아가서는 계산자원과 에너지 소모를 줄일 수 있다.
도 1에서, 조작자 선택부(2)는 감시부(1)에 의해 감시된 결과에 기초하여 조작자를 선택한다. 감시부는 3명의 사람을 감시하는 것으로 가정한다. 조작자 선택부(2)는 감시부(1)에 의해 감시되는 사람의 미리 결정된 속성에 기초하여 3명중 1명을 선택한다. 미리 결정된 속성에 기초한 선택은 소정 위치(예컨대 방의 중앙)에 가장 근접한 사람, 소정의 자세 또는 소정의 동작(예컨대 손을 올리는 등)을 갖는 것으로 추정되는 사람, 미리 결정된 사람의 우선순위(예컨대 가족내에서의 아버지, 어머니, 아이의 순서)(이 우선순위는 체중, 성별, 연령, 생리적 상태, 육체적 정신적 장애를 기초로 주어짐)에 기초하여 최우선순위의 사람, 특정 단어(예컨대 "예" 또는 장치의 이름)를 말하는 사람, 특정 소지품(예컨대 손에 든 붉은 공)을 가진 사람, 눈이라 머리가 특정위치(예컨대 장신구)를 향하는 사람의 선택을 참조한다. 또한 조작자 선택부(2)는 기준치보다 크고 또한 최대치인 평가치를 갖는 사람을 선택하기 위해 사람의 속성에 기초하여 미리 결정된 평가방법에 기초하여 각각의 사람에 대한 평가치를 결정할 수 있다. 이 경우 다양한 사람의 속성이 고려될 수 있다. 평가방법은 사람이 "예"라고 말할 때 주어지는 음성의 강도와 사람이 그의 손을 들었을 때의 속도의 가중된 합을 이용할 수 있다.
다음으로, 조작자 선택부(2)는 선택된 사람에 대한 정보를 보낸다. 예컨대 만약 선택된 사람의 이름이 식별될 수 있으면, 디스플레이 화면에 표시되거나 음성이나 음악, 음향이 출력될 수 있으며, 이미 그 사람과 관련된 이름이 출력될 수 있으며, 이미 그 사람과 관련된 부호나 문자가 디스플레이 화면상에 표시될 수 있으며, 그 사람이 휴대하는 장치에 신호가 전송될 수 있다. 사람이 휴대하는 장치는 빛이나 음을 진동시키거나 출력함으로써 그 사람에게 정보를 제공할 수 있다. 이와는 달리 선택된 사람에게 빛이 향하거나, 디스플레이와 같은 장치가 선택된 사람을 향해 회전 및 지향되거나, 카메라에 의해 촬영된 선택된 사람의 화상이 디스플레이 화면상에 표시될 수 있다. "당신은 무엇을 원하십니까?"라는 음성이나, 음향 또는 빛은 선택된 사람에게 알려주기 위해서 말하거나 동작후 즉시 선택된 사람에게만 출력될 수 있다.
비록 상술한 실시예에서 조작자 선택부(2)는 3인중 1인을 선택하였지만 미리 결정된 속성이 감시될 수 없다면 여러 명(예컨대 2명)이 선택되거나 전혀 선택되지 않을 수도 있다.
도 1에서, 3은 조작자 선택부(2)에 의해 선택된 사람의 소정의 속성과 그 주변환경에 기초하여 제어대상에 대한 후보를 결정하기 위한 제어대상 후보 결정부이다. 제어대상은 장치(실내의 에어컨, 텔레비전, 비디오, 조명, 세탁기, 개인용 컴퓨터, 게임기, 장난감 로봇과, 실외의 엘리베이터나 차량)나, 정보장치(디스플레이 화면상에 표시된 문자나 그래픽)에 사용되는 표시내용이나 정보를 포함한다. 선택된 사람의 미리 결정된 속성은 손가락, 주시, 머리의 자세, 특정단어, 신호어의 발음, 특정물품의 소지를 포함한다. 만약 사람의 손가락, 주시, 머리의 표시자세가 사용되면 제어대상의 후보는 표시위치 부근의 장비나 디스플레이 화면상의 표시내용일 것이다. 주변환경은 온도, 습도, 휘도, 음의 크기, 공기흐름의 상태, 대기내의 특정가스(이산화탄소)의 농도나 시간을 포함할 수 있다. 만약 실내온도나 습도가 높으면 제어대상은 에어컨, 팬, 제습기일 수 있다. 실내 휘도가 낮거나 특정시간(일몰전)이 되면, 제어대상은 조명일 수 있다. 공기의 흐름이 장시간 동안 변화하지 않거나 대기중의 이산화탄소의 농도가 기준치를 초과하면 제어대상은 팬 또는 창문일 수 있다. 실외의 소리가 기준치를 초과하면 제어대상은 텔레비전 또는 창문일 수 있다.
후보는 하나 또는 여러 개일 수 있다. 예컨대 조작자로서 선택된 사람이 에어컨과 텔레비전을 향하면 이들 모두 제어된다. 단어나 부호어의 발음이 소정의 속성으로서 사용되면, 장치의 이름이 표시되거나 소정의 단어가 발음될 수 있다. 예컨대 발음된 단어 "텔레비전"은 제어대상에 대한 후보로서 텔레비전이 사용될 수 있게 해주며, 발음된 단어 "덥다"는 팬이나 에어컨이 제어대상의 후보로서 사용되도록 허용해준다. 특정물품의 소지가 소정의 속성으로서 사용되면 장치와 물품이 미리 상호 관련될 수 있다. 예컨대 에어컨과 붉은 공을 연관짓고, 텔레비전과 파란 공을 연관지음으로써 파란 공의 소지는 제어대상의 후보로서 텔레비전이 사용되게 해준다.
다음으로 제어대상 후보 결정부(3)는 제어대상을 위한 결정후보에 대한 정보를 제공한다. 정보를 제공하기 위해 제어대상을 나타내는 이름이 음성이나 음향으로 출력될 수 있으며, 제어대상을 위한 이름이 디스플레이 화면상에 표시될 수도 있다. 이와 달리 제어대상의 후보인 장치에 포함되는 조명이 켜지거나 제어대상의 후보인 장치에 포함된 스피커가 음향이나 음성으로 출력될 수 있다.
도 1에서 제어내용 후보 결정부(4)는 조작자 선택부(2)에 의해 선택된 사람의 미리 결정된 속성과 주변의 환경에 기초하여 제어의 내용에 대한 후보를 결정한다. 제어의 내용은 장비의 전환 온/오프, 장치의 동작 파라미터(음의 볼륨, 바람의 양이나 방향, 채널 또는 광량)의 변경, 문이나 창문의 개폐, 정보장치의 디스플레이에 대한 대상의 이동이나 수정, 대상의 색에 대한 변경 또는 문서의 수정을 포함할 수 있다.
미리 결정된 속성은 제어의 내용을 표시하기 위해 음성이나 부호어(예컨대 전환의 온에 대한 단어 "온(on)"의 발음, 전환오프에 대한 단어 "오프(off)"의 발음, 또는 전환 온에 대한 단어 "덥다"의 발음)의 사용을 포함할 수 있거나, 소정의 동작(전환 온에 대해서는 한번의 손뼉을 치고, 전환 오프에 대해서는 두 번의 손뼉을 침)이 미리 제어내용과 관련될 수 있다. 하나 또는 여러 개의 후보가 있을 수 있다. 조작자로서 선택된 사람이 단어 "업(up)"을 발음하면 후보는 텔레비전의 볼륨이나 에어컨에 대한 온도 설정의 증가일수 있고, 정보장치의 디스플레이에 표시되는 대상의 정보로의 이동일 수 있다.
주변환경은 온도, 습도, 휘도, 음향의 볼륨, 공기흐름의 상태, 대기중의 특정가스(이산화탄소)의 농도, 시간을 포함한다. 실내온도나 습도가 높으면 제어내용에 대한 후보는 전환 온하여 에어컨, 팬, 제습기의 동작력을 증가시킬 수 있다.
실내 휘도가 낮거나 특정시간(일몰전)이 되면, 제어내용에 대한 후보는 조명의 전환 온이 되어 광량을 증가시킬 수 있다. 공기의 흐름이 장시간 동안 변화하지 않거나 대기중의 이산화탄소의 농도가 기준치를 초과하면 제어내용의 후보는 팬의 전환 온 또는 창문의 개방일 수 있다. 실외의 소리가 기준치를 초과하면 제어내용에 대한 후보는 텔레비전의 볼륨 증가 또는 창문의 닫힘일 수 있다.
다음으로 제어내용 후보 결정부(4)는 제어내용을 위한 결정후보에 대한 정보를 제공한다. 정보를 제공하기 위해 제어내용을 나타내는 이름이 음성이나 음향으로 출력될 수 있으며, 디스플레이 화면상에 표시될 수도 있다.
도 1에서 제어대상 및 내용 결정부(5)는 제어대상 후보 결정부(3)에 의해 결정된 제어대상의 후보와 제어내용 후보 결정부(4)에 의해 결정된 제어내용의 후보에 기초하여 제어내용과 제어대상을 결정하여, 결정된 제어대상에 결정된 제어의 영향을 미친다. 제어대상과 제어내용은 제어대상 및 제어내용에 대한 후보를 한정함으로써 식별된다. 이 후보를 제한하기 위해 제어대상과 제어내용에 대한 후보의 소정 조합이 선택된다. 예컨대 제어대상에 대한 후보가 텔레비전과 에어컨이고 제어내용에 대한 후보가 "온도증가"를 위한 것이며, 이 내용이 텔레비전이 아니라 에어컨에 제공되는 것이면, 제어대상은 에어컨이고 제어내용은 에어컨에 대한 설정온도를 증가시킬 것이다. 또한 후보의 제한으로서 에어컨이 제어대상에 대한 후보로서 사람의 표시동작을 기초로 선택되면, 에어컨에 대한 온도를 상승시키는 것이 제어내용에 대한 후보로서 사람이 발음한 단어 "증가"를 기초로 선택되고, 표시동작이 감시되는 시간 T1과 발음된 단어 "증가"가 감시된 시간 T2 사이의 시간간격이 기준치(예컨대 3초)이상이면 제어대상과 제어내용이 선택되지 않는다. 이와 유사하게 시간 T2가 시간 T1에 앞서면 제어대상과 제어내용이 선택되지 않는다. 이러한 방식으로 후보는 시간 T1과 T2 사이의 시간간격이나 크기를 고려하여 제한될 수 있다. 이 기술은 이 표시동작의 갑작스런 발생과 대화중의 이러한 단어의 갑작스런 발음의 조합에 의해 야기되는 오판단율을 감축시킬 수 있다. 또한 비록 표시동작의 존속기간이 기준치(예컨대 1초 이상) 미만이더라도 제어대상이 선택되지 않는다. 이것은 이 표시동작이 일상적인 동작으로서 갑자기 일어난 것이라면 오판단율을 감축시킬 수 있다. 이 제한은 제한의 필요가 없을 때 제공되지 않을 수 도 있다(예컨대 단 하나의 후보만 존재하고 다수의 제어대상이 동시에 제어되면) .
다음으로, 제어대상 및 내용 결정부(5)는 제어대상과 제어내용에 관한 정보를 제공한다. 결정된 제어대상과 제어내용은 제어대상이나 제어내용 후보의 소개로서 제공될 수 있다.
또한 제어대상 및 내용 결정부(5)는 확인을 표시하거나, 재입력의 필요를 나타내거나, 제어대상을 결정하기 위한 후보선택과 불가능과 같은 정보를 제공할 수 있다. 확인의 표시와 함께 "OK?"라고 말함으로써 결정된 제어대상에 대한 확인과 제어내용이 실행되어 그것이 디스플레이 화면상에 표시되고 소정의 음이 출력된다. 재입력에 대한 필요와 대상의 결정을 위한 불능의 표시는 만약 제어대상과 제어내용이 용이하게 결정될 수 없으면(예컨대 사람의 소정의 속성이 모호하면) 단어 "데이터 재입력"을 디스플레이상에 표시하여 말하거나 소정의 음을 출력함으로써 재입력을 재촉한다. 후보 선택과 함께 다수의 제어대상과 제어내용이 있으면 선택이 디스플레이 화면상에 출력되어 선택을 재촉한다.
또한 감시부(1)는 제어대상 및 내용 결정부(5)가 정보를 제공한 후 조작자의 속성을 감시하고, 제어대상 및 내용 결정부(5)는 제어대상과 제어내용에 대한 후보를 제한하고, 제어대상과 제어내용을 결정하며, 재차 정보를 제공한다. 제어대상과 제어내용의 감축은 정보의 제공과 정보제공후의 사람의 속성의 감시에 기초하여 반복될 수 있다. 반복은 후보의 수를 줄일 수 있다. 제어대상 및 정보 결정부(5)가 정보를 제공한 후의 실행을 확인하기 위해 단어 "예"가 제어대상을 제어하기 위해 조작자의 속성으로서 감시된다. 후보의 선택이 디스플레이 화면상에 표시되면 이들 수를 나타내는 번호와 단어가 제어대상을 제어할 수 있도록 감시된다. 제어대상 결정부(3)와 제어내용 결정부(4)는 후보로부터의 선택을 재촉한다. 이 경우, 사람이 특정대상과 내용을 후보로부터 선택하기 때문에 제어대상 및 내용 결정부(5)는 제어대상과 제어내용을 선택의 작용을 기초로 결정한다.
상술한 방식으로 구성된 본 발명의 제 1 실시예의 동작을 이하에 설명한다. 실내에 3명의 사람 A, B, C가 있고, 또한 에어컨, 텔레비전 및 팬이 있는 것으로 가정한다. 감시부(1)는 사람의 속성과 그들의 주변환경을 연속적으로 감시한다. A와 B가 텔레비전을 가리키면 조작자 선택부(2)는 A보다 앞서 텔레비전을 가리킨 B를 조작자인 것으로 생각하여 B의 이름을 음성으로서 출력한다. 그러면 A는 텔레비전을 조작할 수 없으나 B는 조작할 수 있으므로 이 장치는 여러 명의 사람이 있음에도 불구하고 혼란없이 제어될 수 있다는 것을 알 수 있다.
음성으로 B의 이름을 출력하는 외에 조작자 선택부(2)는 선택된 사람의 이름을 디스플레이 화면상에 표시하거나, 전술한 사람과 관련된 음으로서 음악, 음향, 소리로 이름을 출력하거나, 전술한 사람과 관련된 부호나 문자를 디스플레이 화면상에 표시하거나, 또는 사람이 휴대하는 장치에 신호를 전송함으로써 조작자에 대한 정보를 제공할 수 있다. 사람이 휴대하는 장치는 빛이나 음을 진동 또는 출력함으로써 사람에게 정보를 제공할 수 있다. 이와 달리 빛이 선택된 사람을 향하거나, 디스플레이와 같은 장치가 회전되어 선택된 사람을 향할 수 있거나, 카메라로 찍힌 선택된 사람의 화상이 디스플레이 화면에 표시될 수 있다. "무엇을 원하십니까?"라는 음성이나 음향 또는 빛은 사람들에게 선택된 사람을 알리기 위해 말이나 동작후 즉시 선택된 사람에게만 출력될 수 있다. 이러한 방식으로 선택된 조작자를 사람들에게 알림으로써 장치를 동작시킬 수 있는 사람이 누구인지를 알 수 있게 하여 비록 여러 명의 사람이 그것을 동작시킬 수 있는 경우에도 혼란을 피할 수 있다.
제어대상 후보 결정부(3)는 조작자 선택부(2)에 의해 선택된 사람의 소정의 속성과 그 주변의 환경을 기초로 제어대상에 대한 후보를 결정한다. B가 텔레비전과 에어컨의 주변을 가리키면 텔레비전과 에어컨이 제어대상의 후보로서 결정된다. 비록 에어컨이 B가 가리키는 위치로부터 떨어져 있더라도 이것은 주변환경의 실온이 높으면 제어대상의 후보로서 포함된다. 다음으로 제어대상 후보 결정부(3)는 제어대상에 대해 결정된 후보에 관한 정보를 제공한다. 정보는 제어대상의 이름을 음성이나 사운드로 출력하거나 또는 디스플레이 화면상에 표시함으로써 제공될 수 있다. 이와 달리 제어대상을 위한 후보장치에 포함된 빛이 제어대상을 위한 후보장치에 포함된 스피커로부터 출력될 수 있다. 제어대상의 후보에 관한 정보의 제공에 의해 조작자는 원하는 대상이 후보에 포함되어 있는지의 여부를 검사할 수 있다. 복수의 후보중에서 선택하는 것에 의해 원하는 제어대상이 후보에 신뢰성있게 포함된다.
제어내용 후보 결정부(4)는 조작자 선택부(2)에 의해 선택된 사람의 미리 결정된 속성이나 주변환경에 기초하여 제어내용에 대한 후보를 결정한다. B가 "강"이라고 말하고 동시에 어떤 위치를 가리키면 제어내용에 대한 후보가 바람의 세기, 냉온성능 또는 휘도의 증가로 될 것이다.
다음으로 제어내용 후보 결정부(4)는 제어내용에 대한 결정된 후보에 관한 정보를 제공한다. 이 정보는 제어대상의 내용에 대한 이름을 음성이나 음향으로서 출력하거나 그들을 디스플레이 화면상에 표시함으로써 제공할 수 있다.
제어내용에 대한 후보에 관한 정보의 제공에 의해 조작자는 원하는 내용이 후보에 포함되어 있는지의 여부를 검사할 수 있다. 복수 후보의 선택에 의해 원하는 제어내용이 후보에 신뢰성있게 포함된다.
많은 수의 제어대상과 제어내용이 있으면 그들 모두에 대한 정보가 제공될 필요는 없다.
제어대상 및 내용 결정부(5)는 제어대상 후보 결정부(3)에 의해 결정된 제어대상의 후보와 제어내용 후보 결정부(4)에 의해 결정된 제어내용의 후보에 기초하여 제어내용과 제어대상을 결정하며, 결정된 제어대상에 관한 결정된 제어에 영향을 미친다. 이들 후보로부터 제어대상과 제어내용을 결정하기 위해 후술하는 방법이 사용될 수 있다. 즉, 제어대상과 제어내용의 후보에 대한 소정의 조합만이 채택된다. 상술한 경우에, 제어대상에 대한 후보가 텔레비전과 에어컨이고 제어내용에 대한 4개의 후보, 즉, 바람의 힘, 냉/온성능, 휘도의 증가가 있으면 텔레비전은 제어내용에 대한 후보가 결합될 수 없어 에어컨이 제어대상으로 선택되고, 에어컨과 결합될 수 있는 제어내용은 바람의 세기 및 냉/온성능의 증가로 제한된다. 더욱이 온도와 계절을 사람의 환경으로서 감시함으로써 온도가 30℃를 초과하거나 여름이면 가열성능의 증가가 제어내용으로서 배제될 수 있다. 또한 사람의 제어이력을 기록함으로써 제어대상과 전에 사용된 적이 없는 제어내용의 조합이 배제될 수 있다.
이러한 방식으로 그들의 후보와 주변의 환경에 기초하여 제어대상 및 내용 결정부(5)는 제어대상과 제어내용을 결정하므로 제어대상과 제어내용은 사람의 미리 결정된 속성으로부터만 그들을 분리하여 식별하는 것이 어려운 경우에조차도 보다 신뢰성있게 식별될 수 있다. 특히 동작이나 자세와 같은 사람의 모호한 속성이 사용되면 매우 정확한 인식의 경우에조차 결정이 어렵다. 그러나 본 발명의 방법에 의하면 일상의 동작이나 자세를 사용하여 억지로 동작을 명확하게 하지 않고도 원하는 제어대상과 제어내용이 선택되도록 할 수 있다.
다음으로, 제어대상 및 내용 결정부(5)는 제어대상과 제어내용에 관한 정보를 제공한다. 결정된 제어대상과 제어내용은 제어대상이나 제어내용에 대한 후보의 소개로서 제공될 수 있다. 제어대상과 제어내용에 관한 정보의 제공에 의해 조작자는 원하는 제어대상과 제어내용이 선택되는지의 여부를 검사할 수 있다.
또한 제어대상 및 내용 결정부(5)는 확인을 나타내거나, 재입력의 필요를 나타내거나, 제어대상을 결정하기 위한 후보선택과 불가능과 같은 정보를 제공할 수 있다. 확인의 표시와 함께 "OK?"라고 말함으로써 결정된 제어대상과 제어내용의 실행이 확인되어 그것이 디스플레이 화면상에 표시되고 소정의 음이 출력된다. 확인은 잘못된 제어를 방지할 수 있다. 재입력에 대한 필요와 대상의 결정을 위한 불능의 표시는 만약 제어대상과 제어내용이 용이하게 결정될 수 없으면 재입력을 재촉한다. 이 경우 재선택은 "데이터 재입력"이란 말을 하거나, 디스플레이상에 표시하거나, 소정의 음을 출력하거나, 그 선택을 디스플레이 화면에 표시함으로써 재촉된다. 상기의 경우에 조작자는 에어컨의 바람의 세기나 그 냉각성능을 증가시킬지의 여부를 다시 청각적으로 듣게 된다. 그리고 감시부(1)는 제어대상 및 내용 결정부(5)가 정보를 제공한 후 조작자의 속성을 감시하고, 제어대상 및 내용 결정부(5)는 제어대상과 제어내용에 대한 후보를 제한하고, 제어대상과 제어내용을 결정하며, 다시 정보를 제공한다. 상기의 경우에 사람이 "바람"이라고 말하면 제어대상 및 내용 결정부(5)는 제어내용을 에어컨의 바람의 세기를 증가시키는 것으로서 결정하여 제어신호를 에어컨에 전송하는 동안 에어컨의 바람의 세기를 증가시키는 것을 청각적으로 나타내준다. 제어대상과 제어내용의 감축은 정보의 제공과 정보제공후의 사람의 속성의 감시에 기초하여 반복된다. 이러한 반복은 오판단없이 후보의 수를 감축시킬 수 있다.
이러한 방식으로 제어대상이나 제어내용이 식별될 수 없으면 재입력의 필요성을 나타냄으로써 무리한 판단에 의해 야기되는 오판단이 방지될 수 있고 동작이나 자세와 같은 사람의 속성을 이용하여 이러한 속성의 모호함을 허용하면서 장치나 정보가 스무스하게 제어될 수 있다.
상술한 실시예에서는 사람으로부터 재입력이 감시되면 음성이 사람의 속성으로서 이용되었으나 다른 속성(특정 운동 등)이나 그들의 조합이 이용될 수도 있다. 예컨대 제어대상 및 내용 결정부(5)에 의해 결정된 제어대상과 제어내용이 제공되어 사람으로 하여금 결정을 재촉할 때 사람은 팔이나 손 또는 손가락을 사용하여 원을 만들고(도 9의 (1)∼(4) 참조), 엄지손가락을 세우면(도 9의 (5) 참조) 제어대상 및 내용 결정부(5)는 제공된 것을 제어대상 및 제어내용으로서 결정한다. 더욱이 사람이 팔이나 손가락을 사용하여 "×"의 형상을 만들거나(도 9의 (6) 및 (7) 참조) 수평방향으로 손을 흔들면(도 9의 (8)참조) 제어대상 및 내용 결정부(5)는 제공된 것을 제어대상 및 제어내용으로 채택하지 않고 재입력을 재촉한다.
비록 상술한 실시예에서는 지시하는 동작이나 자세가 조작자와 제어대상의 후보를 결정하는 사람의 속성으로 이용되었으나 다른 속성(눈이나 머리의 방향과 같은 동작을 나타내는 것과 음성 또는 동작을 나타내는 것 이외의 다른 동작이나 자세)과 그들의 조합이 이용될 수 있다. 예컨대 사람의 위치가 그들의 속성으로서 이용되면 텔레비전의 조작과 관계없는 옆방에 있는 사람이 실수로 조작자로 선택되는 일이 방지된다. 속성으로서 사람의 자세를 이용하면 예를 들면 앉아있는 사람이 가장 우선순위로 주어져 방을 지나가는 사람이 실수로 선택되는 일이 방지된다. 또한 사람의 얼굴모습, 표정, 독자성 또는 연령을 속성으로 사용하여 텔레비전을 사용하는 것에 제한이 있는 자나 부적절하게 텔레비전을 조작하는 자는 조작자에 대한 후보로부터 배제(예컨대 오후 9시 이후에 아이가 텔레비전을 조작할 수 없는 것)될 수 있다. 사람의 육체적 정신적 장애나 성별 또는 생리적 상태를 속성으로서 사용하면 이 속성에 기초하여 조작에 대한 우선순위를 적절한 사람에게 부여할 수 있다. 사람의 소지품을 이용하면 보통의 물건이 리모콘으로서 작용할 수 있어(예컨대 붉을 공을 소지하는 것은 텔레비전을 지시), 사용자가 용이하게 사용할 수 있는 동작이나 사용자가 선호하는 동작이 텔레비전을 선택하기 위해 사용될 수 있고 텔레비전을 동작시키는 여러 명의 사람중에서 가장 우선순위가 높은 사람을 시각적으로 나타낼 수 있다.
또한 다수의 속성(음성과 눈의 방향)의 조합에 의해 사람으로 하여금 특정한 동작을 취하도록 강제하지 않고도 장비를 스무스하게 조작할 수 있다. 예컨대 "텔레비전"이라고 말하고 눈을 텔레비전에 돌림으로써 갑작스런 동작(대화중 "텔레비전이라고 말하는 것)에 대한 오반응이 방지될 수 있다.
조작자는 또한 사람의 속성과 그들의 주변환경을 조합함으로서 적절하게 선택할 수 있다. 예컨대 만약 팬이 동작되도록 되어 있고 대기중의 특정가스(이산화탄소)의 농도가 사람의 주변환경으로서 감시되면 환경에 대한 사람의 감응에 기초하여 적절한 사람(이산화탄소의 농도가 높을 때 두통이 있는 사람)이 팬을 조작하기 위한 조작자로서 선택될 수 있다. 에어컨의 동작시 온도, 습도, 공기가 흐르는 상태를 주변환경으로서 감시하고 환경에 대한 사람(겨울에 피부가 건조한다든지 하여 열이나 냉기에 민감한 사람)의 감응도를 미리 기록함으로써 온도와 습도가 높고 실내의 공기흐름이 적은 경우 열에 민감한 사람에게 에어컨 조작시 우선순위가 부여된다. 텔레비전의 볼륨이 제어되도록 되어 있고 사람의 주변환경으로서 실외의 음이 큰 경우에는 사람(난청인 사람)의 환경에 대한 감응도에 기초하여 텔레비전에 대한 조작자로서 적절한 사람이 선택될 수 있다. 광의 휘도가 변경되도록 되어 있으면 실내 및 실외의 휘도가 사람의 주변환경으로서 감시되어 사람(어두운 곳에서 문자를 읽기 곤란한 사람)의 환경에 대한 감응도에 기초하여 광에 대한 조작자로서 적절한 사람이 선택된다. 주변환경으로서 시간이 선택되면 사용시간이 사람에 따라 제한될 수 있다. 예컨대 오후 9시 이후, 어린이를 텔레비전 조작으로부터 금지시킬 수 있다.
이와 유사하게 비록 상술한 실시예가 제어내용의 후보를 결정하는데 있어 사람의 속성으로서 음성을 사용하더라도 다른 속성(기타의 동작이나 자세)과 그들의 조합이 사용될 수 있다. 예컨대 동작을 사람의 속성으로 사용함으로써 장치가 사람과의 대화에 따라 자연적으로 제어될 수 있다. 이러한 동작의 예는 텔레비전의 볼륨을 줄이기 위해 집게손가락을 입앞에 대거나(도 10의 (1) 참조) 귀를 막는 것(도 10의 (2) 및 (3) 참조), 텔레비전의 볼륨을 높이기 위해 귀옆에 손을 대는 것(도 10의 (4) 참조)을 포함한다. 또한 비디오 등의 재생은 양손을 사용하여 "T"자로 함으로써(도 10의 (5) 참조) 일시적으로 정지되거나 텔레비전의 스위치는 "안녕"이라고 손을 흔듦으로써 오프된다.
또한 상술한 실시예에서는 비록 제어대상의 후보를 결정하기 위해 사용되는 속성이 제어내용의 후보를 결정하기 위해 사용되는 속성과 다르더라도 제어대상과 제어내용에 대한 후보를 결정하기 위해서는 단 하나의 속성만이 사용될 수 있다. 그에 대한 예를 이하에 설명한다. 실내에 사람들이 있고 에어컨, 텔레비전, 팬, 공기 정화기, 전화, 책상, 침대가 있다고 가정한다.
사람이 손가락을 입앞에 대고 손으로 귀를 막는 동작을 취하면 제어대상 후보 결정부(3)는 후보로서 음을 출력하는 텔레비전을 결정하고, 제어내용 후보 결정부(4)는 제어내용의 후보로서 볼륨의 크기를 줄이는 결정을 한다. 사람이 전화 수화기를 들면 제어대상 후보 결정부(3)는 후보로서 소리를 출력하는 텔레비전을 결정하고 제어내용 후보 결정부(4)는 제어내용의 후보로서 볼륨의 크기를 줄이는 결정을 한다. 사람이 손을 사용하여 얼굴이나 몸에 부채질을 하거나(도 10의 (7) 참조) "덥다"고 말하면 제어대상 후보 결정부(3)는 후보로서 공기조화와 관련된 에어컨, 창문, 팬을 결정하고, 제어내용 후보 결정부(4)는 제어내용에 대한 후보로서 스위치 온, 설정온도의 저하, 창문의 개방, 팬 스위치의 온, 창문용적의 증가를 결정한다. 또한 사람이 코를 쥐면(도 10의 (8) 참조) 제어대상 후보 결정부(3)는 후보로서 공기 정화기나 창문을 결정하고 제어내용 후보 결정부(4)는 공기 정화기의 스위치를 켜거나 창문을 개방한다. 사람이 대화중에 "안녕" 또는 "바이바이"라고 말하면 제어대상 후보 결정부(3)는 후보로서 전화를 결정하고, 제어내용 후보 결정부(4)는 제어내용의 후보로서 전화를 끊는 결정을 한다. 사람이 의자에 앉아 책을 펴고 있거나 무엇인가를 들고 쓰고 있는 경우에는 제어대상 후보 결정부(3)는 후보로서 실내의 조명이나 책상에 부착된 조명기구를 결정하고, 제어내용 후보 결정부(4)는 제어내용에 대한 후보로서 스위치 온을 결정한다. 사람이 특정시간에 걸쳐 잠을 자는 경우에는 제어대상 후보 결정부(3)는 실내의 조명을 후보로서 결정하고, 제어내용 후보 결정부(4)는 제어내용에 대한 후보로서 스위치 오프를 결정한다. 또한 사람이 손을 들어올려 빛을 가리거나 손을 눈위로 들어올리는 경우(도 10의 (9) 참조) 또는 빛이 그의 눈을 부시게 하는 것과 같은 표정을 나타내거나 "눈부시다"라고 말하는 경우에는 제어대상 후보 결정부(3)는 후보로서 실내의 광원을 결정하고 제어내용 후보 결정부(4)는 후보로서 스위치 오프나 조명을 어둡게 할 것을 결정한다.
상술한 바와 같이 본 발명의 제 1 실시예에 의하면 리모콘을 사용하지 않고도 사람의 일상적인 속성이 사용되어 장치의 제어가 원활하게 이루어질 수 있게 된다. 또한 여러 명의 사람이나 장치가 있어도 본 실시예는 오판단을 감축시켜 복잡한 지시동작에 대한 필요없이 제어를 실행할 수 있다.
도 2는 본 발명의 제 2 실시예의 블록도이다. 이 구성에서 본 실시예의 구성과 각 부의 동작은 제 1 실시예와 같다. 그러나 제 2 실시예에 따르면 피제어 장치에 감시부(1), 조작자 선택부(2), 제어대상 후보 결정부(3), 제어내용 후보 결정부(4), 제어대상 및 내용 결정부(5)가 부착되어 있다. 예컨대 텔레비전이 이들 각 부분을 포함하고 있으면 제어대상 후보 결정부(3)는 텔레비전이 후보인지의 여부를 결정한다. 사람의 미리 결정된 속성, 예컨대 "채널전환"이라는 말에 기초하여 제어내용 후보 결정부(4)는 제어내용에 대한 후보로서 채널의 전환을 결정하고, 채널의 전환이 텔레비전에 대한 제어내용에 포함되어 있기 때문에 제어대상 및 내용 결정부(5)는 채널을 전환한다.
이와 같이 본 발명의 제 2 실시예는 제 1 실시예의 것과 동일한 효과를 제공할 뿐 아니라 장치가 선택되었는지의 여부를 결정하기 위해 장치의 제어대상 후보 결정부(3)만을 필요로 하므로 제 1 실시예에 비해 제어대상의 후보를 결정하기에 필요한 처리의 양을 감축시킨다. 또한 장치를 임의로 이동시키더라도 제어대상에 대한 후보를 결정하기 위한 장치에 의해 실행되는 처리가 변경될 필요가 없다는 장점이 있다.
도 3은 본 발명의 제 3 실시예를 도시한 블록도이다. 이 구성에서 피제어 장치 1, 2, 3 의 구성과 각 부분의 동작은 제 2 실시예(예컨대 제어대상 1, 2, 3은 각각 텔레비전, 에어컨, 팬임)의 피제어장치와 마찬가지이다. 그러나 제 3 실시예는 다수의 피제어장치를 포함한다. 감시부(1)는 감시된 내용을 통신망에 출력하고, 조작자 선택부(2)는 사람의 선택된 속성에 관한 정보를 통신망에 출력하고, 제어대상 후보 결정부(3)는 제어대상에 대해 결정된 후보에 관한 정보(이 제어대상 후보 결정부가 속하는 장치가 후보인지의 여부나 또는 이 장치가 후보일 것으로 고려되는 정도)를 통신망에 출력하고, 제어내용 후보 결정부(4)는 결정된 제어내용에 관한 정보를 통신망에 출력하고, 제어대상 및 내용 결정부(5)는 제어대상 및 제어내용에 관한 정보를 통신망에 출력한다.
조작자 선택부(2)는 조작자에 관한 정보를 제공하기 위해 통신망으로부터 획득된 정보와 감시부(1)로부터의 정보에 기초하여 조작자를 선택하고, 제어대상 후보 결정부(3)는 제어대상의 후보에 관한 정보를 제공하기 위해 통신망으로부터 획득된 정보와 감시부로부터의 정보를 기초로 제어대상에 대한 후보를 결정한다. 제어내용 후보 결정부(4)는 제어내용의 후보에 관한 정보를 제공하기 위해 통신망으로부터 획득된 정보와 감시부로부터의 정보를 기초로 제어내용에 대한 후보를 결정하고, 제어대상 및 내용 결정부(5)는 통신망으로부터 획득된 정보와 제어대상 후보 결정부(3)에 의해 결정된 제어대상에 대한 후보와 제어내용 후보 결정부(4)에 의해 결정된 제어내용에 대한 후보를 기초로 제어대상 및 제어내용에 대한 정보를 제공하여 제어대상에 관한 제어에 영향을 미친다. 본 실시예는 복수의 제어장치 때문에 각 장치가 제어대상과 제어내용을 개별적으로 결정할 때 조작자에 의해 의도하지 않은 제어가 제공될 수도 있다는 점에서 제 2 실시예와 다르다. 예컨대 사람이 텔레비전(제어대상 1)과 에어컨(제어대상 2) 사이의 중간점을 향해 "스위치 온"이라 말하면, 비록 텔레비전(제어대상 1)만이 동작되는 경우에도 텔레비전(제어대상 1)과 에어컨(제어대상 2)이 스위치 온된다.
이 경우에 다른 피제어장치에 대해 제어대상 및 제어내용의 후보에 관한 정보와 제어대상 및 제어내용에 관한 정보를 획득함으로써 제어대상 및 제어내용에 대한 후보가 제 1 실시예에서처럼 제한될 수 있다. 예컨대 텔레비전(제어대상 1)의 제어대상 후보 결정부가 제어대상의 후보로서 통신망에 "텔레비전"을 출력하고 에어컨(제어대상 2)의 제어대상 후보 결정부가 제어대상의 후보로서 통신망에 "에어컨"을 출력하면, 텔레비전(제어대상 1)의 제어대상 및 내용 결정부는 통신망을 통해 획득된 에어컨을 위한 제어대상에 대한 후보에 관한 정보와 텔레비전을 위한 제어대상에 대한 후보에 관한 정보에 기초하여 대응하는 정보를 제공한다. 이 경우 텔레비전과 에어컨이 후보이므로 텔레비전은 재입력을 표시하는 정보를 제공한다. 에어컨(제어대상 2)의 제어대상 및 내용 결정부는 유사한 처리를 실행한다. 제어대상에 대한 후보뿐 아니라 장치가 후보일 것으로 고려되는 정도(예컨대 텔레비전 10, 에어컨 5)에 관한 정보를 통신망에 출력함으로써 피제어장치 1 및 2의 제어대상 및 내용 결정부는 제어대상으로서 보다 큰 정도를 갖는 장치(이 경우에는 텔레비전)를 결정하기 위해 장치가 후보로서 고려되는 정도를 비교한다. 제어내용에 대한 후보는 상이한 피제어장치 사이의 정보를 교환함으로써 유사하게 처리된다.
또한 통신망으로부터 조작자에 관한 정보를 획득함으로써 한사람의 동작(지시하는 동작)에 의해 다수의 장치가 응답하는 일없이 조작자에게 가장 근접한 장치만이 응답할 수 있다. 예컨대 텔레비전(제어대상 1)의 조작자 선택부에 의해 선택된 조작자는 통신망으로부터의 조작자 선택부에 의해 선택된 조작자와 동일하면 제어대상으로서 텔레비전(제어대상 1)인지 에어컨(제어대상 2)인지를 결정하기 위해 상술한 절차가 실행된다. 또한 조작자가 다르면 텔레비전(제어대상 1)과 에어컨(제어대상 2)은 각각의 선택된 조작자의 속성에만 기초하여 처리를 실행할 수 있다. 또한 텔레비전(제어대상 1)의 감시부에 의해 출력된 정보는 에어컨(제어대상 2)의 제어대상 후보 결정부. 제어내용 후보 결정부 또는 조작자 선택부에 의해 사용될 수 있다. 이것은 에어컨만을 사용하여 감시될 수 없는 정보(맹점에 관한 정보)를 제공하는 효과를 갖는다. 또한 에어컨(제어대상 2)의 제어대상 및 내용 결정부에 의해 출력된 정보는 텔레비전(제어대상 1)에 의해 표시될 수 있다. 이 경우에 각 피제어장치의 출력수단(화상, 음성, 빛)은 피제어장치중에 공유될 수 있다.
통신망은 유선(네트워크, 전화, 동력선을 통해 접속)이나 무선(전파, 적외선, 초음파를 이용)일 수 있으며, 유선망과 무선망의 혼합일 수 있다.
이와 같이 본 발명의 제 3 실시예는 제 1 및 제 2 실시예의 효과를 제공할 뿐 아니라 각 피제어장치가 개별적으로 조작자, 제어대상 및 제어내용을 결정하는 메커니즘을 포함하더라도 사람의 미리 결정된 소정의 속성에 기초하여 장치를 시종일관 스무스하게 제어할 수 있다.
도 4는 본 발명의 제 4 실시예를 도시한 블록도이다. 이 구성에서 각 부의 동작은 제 1 실시예의 것과 유사하다. 그러나 본 실시예는 조작자 선택부(2)를 포함하지 않으며 모든 사람에 대한 제어대상과 제어내용에 관한 후보를 결정한다. 예컨대 N명의 사람이 있으면, 제어대상에 대한 후보의 결정과 제어내용에 대한 후보의 결정이 N회 실행(동시에 실행될 수도 있음)된다. 제어대상 및 내용 결정부(5)는 제어를 실행하기 위해 모든 사람에 대하여 결정된 제어대상과 제어내용에 대한 후보에 기초하여 제어대상과 제어내용을 결정한다. 제어대상과 제어내용을 결정하기 위해 다수결 원칙이 사용된다. 예컨대 N명의 사람이 있고 그 사람들의 반 이상이 에어컨의 설정온도를 낮추라는 명령을 하면 에어컨의 온도가 낮아지도록 제어가 제공된다. 또한 각각의 사람에 대한 제어대상과 제어내용이 일정하면, 대응하는 제어가 동시에 제공될 수 있다. 이와 같이 본 발명의 제 4 실시예는 제 1 실시예의 효과를 제공할 뿐 아니라 여러 명의 사람에 대한 조작을 동시에 고려하여 장치를 동작시킬 수 있다. 리모콘을 사용하여 유사한 처리를 실행하기 위해서는 각각의 사람에 의해 동작되어야만 하는 사람과 같은 수의 리모콘이 항상 준비되어야 한다. 본 발명에 의하면 장치나 정보가 많은 수의 리모콘을 사용할 필요없이 여러 명의 사람으로부터 명령을 반영하는 방식으로 제어된다.
도 5는 제 5 실시예의 블록도이다. 이 구성에서 각 부분의 동작은 제 4 실시예의 것과 유사하다. 그러나 제 5 실시예에서는 감시부(1), 제어대상 후보 결정부(3), 제어내용 결정부(4), 제어대상 및 내용 결정부(5)가 피제어장치(예컨대 에어컨)에 부착된다. 이러한 구성으로 본 발명의 제 5 실시예는 제 4 실시예의 효과를 제공할 뿐 아니라 장치가 선택되는지의 여부를 결정하기 위해서만 각 장치의 제어대상 후보 결정부(3)를 요구하므로 제 4 실시예에 비해 제어대상 후보를 결정하기 위해 필요한 처리량을 감축시킬 수 있다. 본 실시예는 또한 장비의 위치를 이동할 필요가 없음에도 불구하고 장치를 위한 제어대상에 대한 후보를 결정하는 처리가 변경될 필요가 없는 장점이 있다.
도 6은 본 발명의 제 6 실시예를 나타낸 블록도이다. 이 구성에서 각 부분의 동작은 제 1 실시예의 것과 유사하다. 그러나 제 6 실시예에 의하면 제어대상 후보 결정부(3)는 모든 사람을 위한 제어대상에 대한 후보를 결정하고, 제어내용 후보 결정부(4)는 모든 사람을 위한 제어내용에 대한 후보를 결정한다. 예컨대 N명의 사람이 있으면 제어대상의 후보의 결정과 제어내용의 후보의 결정이 N회 실행(동시에 실행될 수 있음)된다.
조작자 선택부(2)는 N명의 사람에 대한 제어대상 및 제어내용에 대한 후보에 기초하여 조작자를 선택한다. 제어대상 및 내용 결정부(5)는 제어 선택부(2)에 의해 선택된 조작자를 위한 제어대상과 제어내용에 대한 후보에 기초하여 제어대상과 제어내용을 결정한다.
본 발명의 제 6 실시예의 구성은 제 1 실시예의 것과 동일한 효과를 제공할 수 있다. 또한 제어대상과 제어내용의 후보가 결정된 후 조작자를 선택함으로써 제어대상과 제어내용의 후보에 기초하여 절차가 예컨대 제어대상 및 제어내용에 대한 후보가 그들의 소정의 속성(예컨대 표시하는 동작)의 모호성 때문에 결정될 수 없는 것들을 조작자로서 선택하는 것을 회피함으로써 실행될 수 있다.
도 7은 본 발명의 제 7 실시예를 도시한 블록도이다. 이 구성에서 각 부분의 동작은 제 6 실시예와 유사하다. 그러나 제 7 실시예에서는 감시부(1), 제어대상 후보 결정부(3), 제어내용 후보 결정부(4), 조작자 선택부(2), 제어대상 및 내용 결정부(5)가 피제어장치(예컨대 에어컨)에 부착된다. 이러한 구성으로 본 발명의 제 7 실시예는 제 6 실시예의 효과를 제공할 뿐 아니라 장치가 선택되는지의 여부를 결정하기 위해서만 각 장치의 제어대상 후보 결정부(3)를 요구하므로 제 6 실시예에 비해 제어대상 후보를 결정하기 위해 필요한 처리량을 감축시킬 수 있다. 본 실시예는 또한 장비의 위치를 이동할 필요가 없음에도 불구하고 장치를 위한 제어대상에 대한 후보를 결정하는 처리가 변경될 필요가 없는 장점이 있다.
도 8은 본 발명의 제 8 실시예를 도시한 블록도이다. 이 구성에서 각 부분의 동작은 제 1 실시예의 것과 유사하다. 그러나 제 6 실시예에 의하면 제어대상 후보 결정부(3)는 모든 사람을 위한 제어대상에 대한 후보를 결정하고, 제어내용 후보 결정부(4)는 모든 사람을 위한 제어내용에 대한 후보를 결정한다. 예컨대 N명의 사람이 있으면 제어대상의 후보의 결정과 제어내용의 후보의 결정이 N회 실행(동시에 실행될 수 있음)된다. 제어대상 및 내용 결정부(5)는 조작자 선택부(2)에 의해 선택된 조작자를 위한 제어대상과 제어내용에 대한 후보에 기초하여 제어대상과 제어내용을 결정한다. 본 발명의 제 8 실시예에 도시된 구성은 제 1 실시예의 것과 동일한 효과를 제공할 수 있다.
이 방법이 실내에서 실행된다는 가정하에 제 1 ∼ 제 8 실시예를 설명하였으나 이들은 장치의 실외동작에서도 채택될 수 있다. 장치의 동작외에 이들 실시예는 화면상의 대상의 조작이나 화면의 제어와 같은 정보의 조작을 위해 채용될 수도 있다.
본 발명은 하드웨어나 컴퓨터의 소프트웨어 또는 그들을 혼합 사용하여 실현될 수 있다.
본 발명은 또한 상술한 본 발명에 따르는 제어방법의 모든 동작 또는 일부의 동작을 실현하기 위해 이용되는 프로그램을 기억시키기 위한 프로그램 저장매체이다.
상술한 설명으로부터 명백해지는 바와 같이 본 발명은 여러 명의 사람이나 다수의 장치를 고려하고 장치나 정보가 스무스하게 동작되는 것을 방해하는 사람의 동작과 자세의 모호성을 고려하여 사람으로 하여금 억지로 복잡한 동작을 취할 필요없이 사람의 일상의 속성을 이용하여 장치를 스무스하게 제어할 수 있는 제어방법을 제공한다.
또한 사람의 소정의 속성에 기초하여 제어대상과 제어내용에 대한 복수의 후보를 결정하고, 제어대상과 제어내용에 대한 후보에 관한 정보를 사용하여 후보의 총수를 제한함으로써 제어대상과 제어내용이 신뢰성있게 식별될 수 있다.
또한 조작자에 관한 정보를 사람들에게 제공하고, 재입력을 표시하며, 제어대상 및 제어내용이 결정될 수 없는 경우 사람의 속성을 관찰함으로써 제어대상과 제어내용이 스무스하게 결정될 수 있는 한편 필요한 정보가 사람들에게 제공될 수 있다
또한 본 발명에 의하면 화면뿐아니라 음성장치에 의해서도 정보가 제공되기 때문에 비록 시각 장애자나 청각장애자가 있는 경우에도 정보를 확인할 수 있다. 그러므로 본 발명은 복지사업에 유용하다.
또한 모니터가 간헐적으로 실행되면 소비전력이 크게 절감된다. 그러므로 본 발명은 지구환경의 보호에 유용하다.
상술한 본 발명의 바람직한 실시예들은 예시의 목적을 위해 개시된 것이며, 당업자라면 첨부된 특허청구범위에 개시된 본 발명의 사상과 범위를 통해 각종 수정, 변경, 대체 및 부가가 가능할 것이다.

Claims (54)

  1. 사람의 속성을 감시하고, 미리 결정된 제어내용에서 그 감시결과를 기초로 제어될 장치를 제어하는 것을 특징으로 하는 제어방법.
  2. 제 1 항에 있어서,
    상기 사람의 주변환경을 감시하고, 이들 감시결과를 사용하여 상기 제어를 실행하는 것을 특징으로 하는 제어방법.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 감시를 계속적 또는 간헐적으로 실행하는 것을 특징으로 하는 제어방법.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 감시의 결과를 기초로 조작자가 선택되고, 그 후에 제어될 대상과 제어의 내용이 선택되는 것을 특징으로 하는 제어방법.
  5. 제 4 항에 있어서,
    상기 제어대상, 상기 조작자 또는 제어내용이 결정되지 않으면 이 결정되지 않은 결과정보가 제공되는 것을 특징으로 하는 제어방법.
  6. 제 5 항에 있어서,
    상기 결과정보를 제공하기 위해 빛, 문자, 음성, 음향, 또는 진동중 적어도 어느 하나가 사용되는 것을 특징으로 하는 제어방법.
  7. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 감시결과에 기초하여 제어될 대상과 제어내용에 대한 후보가 먼저 선택되고, 다음으로 제어될 대상과 제어내용이 결정되는 것을 특징으로 하는 제어방법.
  8. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    한번에 여러 명을 감시하는 것을 특징으로 하는 제어방법.
  9. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 장치는 다수의 장치를 포함하는 것을 특징으로 하는 제어방법.
  10. 제 1 항 내지 제 9 항 중 어느 한 항에 있어서,
    상기 사람들에게 상기 감시결과에 관한 정보를 제공하고, 상기 정보제공에 응답하여 상기 사람에 의해 발급된 응답과 명령에 기초하여 상기 제어를 실행하는 것을 특징으로 하는 제어방법.
  11. 제 10 항에 있어서,
    상기 제공된 정보는 상기 사람에 대한 후보에 관한 정보, 상기 대상장치에 대한 후보에 관한 정보, 제어내용에 관한 정보중 적어도 어느 하나인 것을 특징으로 하는 제어방법.
  12. 제 1 항 또는 제 3 항 중 어느 한 항에 있어서,
    상기 제어를 자동으로 실행하는 동안 상기 사람에게 상기 감시결과의 정보를 간단하게 제공하는 것을 특징으로 하는 제어방법.
  13. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 감시결과에 관한 정보는 상기 제어를 자동으로 실행하는 동안에는 상기 사람들에게 제공되지 않는 것을 특징으로 하는 제어방법.
  14. 제 12 항 또는 제 13 항에 있어서,
    상기 감시결과에 관한 정보로서 복수의 후보가 사람, 장치, 제어내용 중 적어도 어느 하나 제공되고, 그 후보를 기초로 상기 제어가 자동으로 실행되는 것을 특징으로 하는 제어방법.
  15. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 제어를 실행하기 위한 제어수단이 대상 장치에 통합되어 있는 것을 특징으로 하는 제어방법.
  16. 제 15 항에 있어서,
    상기 제어수단은 복수의 장치의 각각에 통합되어 있으며, 복수의 제어수단은 상기 제어가 정보교환의 결과를 기초로하여 실행될 수 있도록 통신로를 이용하여 각종 정보를 교환하는 것을 특징으로 하는 제어방법.
  17. 제 16 항에 있어서,
    상기 제어수단은 상기 통신로를 통해 다른 제어수단으로부터 획득된 내용을 부가하는 동안 그 자신의 감시결과를 다른 제어수단에 송신함으로써 상기 제어를 실행하는 것을 특징으로 하는 제어방법.
  18. 제 1 항 내지 제 17 항 중 어느 한 항에 있어서,
    상기 사람의 속성은 사람의 동작인 것을 특징으로 하는 제어방법.
  19. 제 1 항 내지 제 18 항 중 어느 한 항에 있어서,
    상기 제어는 대상장치에 대한 제어 파라미터를 변경하거나 그들을 온/오프하는 것을 특징으로 하는 제어방법.
  20. 제 1 항에 있어서,
    상기 사람의 미리 결정된 속성에 따라 상기 방법은 사람이 그의 집게손가락을 입앞에 대는 동작을 검출하고, 대상 장치는 상기 동작에 기초하여 음을 출력하며, 제어 파라미터 값의 변경에 따라 상기 장치의 볼륨이 감축되는 것을 특징으로 하는 제어방법.
  21. 제 1 항에 있어서,
    상기 사람의 미리 결정된 속성에 따라 상기 방법은 사람이 그의 귀를 막는 동작을 검출하고, 대상 장치는 상기 동작에 기초하여 음을 출력하는 장치를 포함하며, 제어 파라미터 값의 변경에 따라 상기 장치의 볼륨이 감축되는 것을 특징으로 하는 제어방법.
  22. 제 1 항에 있어서,
    상기 사람의 미리 결정된 속성에 따라 상기 방법은 사람이 손을 귀가까이에 대는 동작을 검출하고, 대상 장치는 상기 동작에 기초하여 음을 출력하는 장치를 포함하며, 제어 파라미터 값의 변경에 따라 상기 장치의 볼륨이 증가되는 것을 특징으로 하는 제어방법.
  23. 제 1 항에 있어서,
    상기 사람의 미리 결정된 속성에 따라 상기 방법은 사람이 손을 이용하여 얼굴이나 신체의 일부를 부채질하는 동작을 검출하고, 대상 장치는 상기 동작에 기초하여 공기의 조화를 제어하는 장치와 창문을 포함하며, 제어 파라미터 값의 변경에 따라 상기 장치의 볼륨이 감축되는 것을 특징으로 하는 제어방법.
  24. 제 1 항에 있어서,
    한사람 또는 여러 사람의 속성을 연속적으로 또는 간헐적으로 감시하고, 사람의 미리 결정된 속성의 검출에 기초하여 제어대상과 제어내용에 대한 후보를 결정하며, 제어대상과 제어내용에 대한 후보에 기초하여 제어대상과 제어내용을 결정하는 것을 특징으로 하는 제어방법.
  25. 제 1 항에 있어서,
    한사람 또는 여러 사람의 속성과 그들의 주변환경을 연속적으로 또는 간헐적으로 감시하고, 사람의 미리 결정된 속성의 검출에 기초하여 제어대상과 제어내용에 대한 후보를 결정하며, 제어대상과 제어내용에 대한 후보에 기초하여 제어대상과 제어내용을 결정하는 것을 특징으로 하는 제어방법.
  26. 제 25 항에 있어서,
    상기 주변환경은 온도, 습도, 휘도, 공기의 흐름, 시간, 소리 중 적어도 하나를 포함하는 것을 특징으로 하는 제어방법.
  27. 제 24 항 내지 제 26 항 중 어느 한 항에 있어서,
    상기 감시를 통해 획득된 정보를 통신망에 출력하고, 및/또는 제어대상과 제어내용에 대한 후보를 상기 통신망에 출력하며, 및/또는 제어대상과 제어내용을 통신망에 출력하는 것을 특징으로 하는 제어방법.
  28. 제 27 항에 있어서,
    상기 통신망을 연속적으로 또는 간헐적으로 감시하고, 상기 통신망으로부터의 정보와 사람의 미리 결정된 속성에 기초하여 제어대상과 제어내용에 대한 후보를 결정하는 것을 특징으로 하는 제어방법.
  29. 제 27 항 또는 제 28 항에 있어서,
    상기 통신망을 연속적으로 또는 간헐적으로 감시하고, 상기 통신망으로부터의 정보와 제어대상 및 제어내용에 대한 후보를 기초하여 제어대상과 제어내용을 결정하는 것을 특징으로 하는 제어방법.
  30. 제 24 항 내지 제 29 항 중 어느 한 항에 있어서,
    제어대상에 대한 상기 후보는 제어대상으로 이용되고 제어내용에 대한 상기 후보는 제어내용으로 이용되는 것을 특징으로 하는 제어방법.
  31. 제 24 항 내지 제 30 항 중 어느 한 항에 있어서,
    여러 명의 사람의 속성의 검출에 기초하여 제어대상과 제어내용에 대한 후보가 각각의 사람에 대해 결정되며, 제어대상과 제어내용에 대한 상기 후보에 기초하여 제어대상과 제어내용이 결정되는 것을 특징으로 하는 제어방법.
  32. 제 31 항에 있어서,
    각각의 사람에 대해 결정된 제어대상과 제어내용에 대한 후보를 이용하여 제어대상과 제어내용이 다수결 원칙에 따라 결정되는 것을 특징으로 하는 제어방법.
  33. 제 24 항 내지 제 30 항 중 어느 한 항에 있어서,
    사람의 속성의 검출에 기초하여 제어대상과 제어내용에 대한 후보와 조작자가 결정되며, 제어대상과 제어내용에 대한 상기 후보와 조작자에 기초하여 제어대상과 제어내용이 결정되는 것을 특징으로 하는 제어방법.
  34. 제 33 항에 있어서,
    여러 명의 사람의 속성의 검출에 기초하여 제어대상과 제어내용에 대한 후보가 각각의 사람에 대해 결정되며, 제어대상과 제어내용에 대한 상기 후보에 기초하여 조작자가 선택되고, 선택된 조작자의 속성에 기초하여 제어대상과 제어내용에 대한 후보가 결정되는 것을 특징으로 하는 제어방법.
  35. 제 24 항 내지 제 30 항 중 어느 한 항에 있어서,
    사람의 미리 결정된 속성의 검출에 기초하여 조작자가 선택되고, 선택된 조작자의 속성에 기초하여 제어대상과 제어내용에 대한 후보가 결정되는 것을 특징으로 하는 제어방법.
  36. 제 33 항 내지 제 35 항 중 어느 한 항에 있어서,
    상기 선택된 조작자에 관한 조명은 통신망에 출력되는 것을 특징으로 하는 제어방법.
  37. 제 27 항 내지 제 29 항 및 제 36 항 중 어느 한 항에 있어서,
    상기 통신망은 무선 또는 유선 통신망을 포함하는 것을 특징으로 하는 제어방법.
  38. 제 33 항 내지 제 36 항 중 어느 한 항에 있어서,
    상기 선택된 조작자는 정보로서 제공되는 것을 특징으로 하는 제어방법.
  39. 제 24 항 내지 제 38 항 중 어느 한 항에 있어서,
    제어대상과 제어내용에 대한 후보에 기초하여 정보가 제공되는 것을 특징으로 하는 제어방법.
  40. 제 39 항에 있어서,
    제어대상에 대한 후보, 제어대상, 제어내용에 대한 후보, 제어내용, 확인의 표시, 재입력의 표시, 후보의 선택 또는 대상결정의 불능 중 적어도 하나를 제공하는 것을 특징으로 하는 제어방법.
  41. 제 38 항 내지 제 40 항 중 어느 한 항에 있어서,
    빛, 문자, 음성, 음향, 또는 진동 중의 적어도 하나가 정보제공을 위해 이용되는 것을 특징으로 하는 제어방법.
  42. 제 38 항 내지 제 41 항 중 어느 한 항에 있어서,
    정보의 제공후 사람의 속성을 감시하는 결과에 기초하여 제어대상에 대한 후보가 감축되고, 및/또는 제어내용에 대한 후보가 감축되며, 및/또는 제어대상이 결정되고, 및/또는 제어내용이 결정되며, 및/또는 정보가 제공되는 것을 특징으로 하는 제어방법.
  43. 제 24 항 내지 제 42 항 중 어느 한 항에 있어서,
    미리 결정된 기준에 기초하여 제어대상에 대한 후보가 감축되며, 및/또는 제어내용에 대한 후보가 감축되고, 및/또는 제어대상이 결정되며, 및/또는 제어내용이 결정되는 것을 특징으로 하는 제어방법.
  44. 제 43 항에 있어서,
    제어대상에 대한 후보와 제어내용에 대한 후보의 결합에 기초하여 제어대상에 대한 후보가 감축되고, 및/또는 제어내용에 대한 후보가 감축되며, 및/또는 제어대상이 결정되고, 및/또는 제어내용이 결정되는 것을 특징으로 하는 제어방법.
  45. 제 43 항 또는 제 44 항에 있어서,
    제어대상에 대한 후보를 결정하기 위해 사용되는 미리 결정된 속성이 검출되는 제 1 시간과 제어대상의 내용에 대한 후보를 결정하기 위해 사용되는 미리 결정된 속성이 검출되는 제 2 시간 사이의 시간 간격과, 상기 제 1 시간과 제 2 시간의 일시적인 크기, 또는 상기 미리 결정된 속성의 검출기간중 적어도 하나를 사용하여 제어대상에 대한 후보가 감축되고, 및/또는 제어내용에 대한 후보가 감축되며, 및/또는 제어대상이 결정되고, 및/또는 제어내용이 결정되는 것을 특징으로 하는 제어방법.
  46. 제 24 항 내지 제 45 항 중 어느 한 항에 있어서,
    제어내용은 장치를 동작시키고, 및/또는 정보를 조작하는 것을 특징으로 하는 제어방법.
  47. 제 24 항 내지 제 46 항 중 어느 한 항에 있어서,
    사람의 소재위치, 자세, 표정, 동작, 음성, 생리적 상태, 독자성, 외형, 체중, 성별, 연령, 육체적 정신적 장애 또는 소지품중 적어도 하나가 사람의 속성으로서 이용되는 것을 특징으로 하는 제어방법.
  48. 제 24 항 내지 제 47 항 중 어느 한 항에 있어서,
    제어대상에 대한 후보를 결정하기 위해 사용되는 사람의 속성은 제어내용에 대한 후보를 결정하기 위해 사용되는 사람의 속성과 다른 것을 특징으로 하는 제어방법.
  49. 제 24 항 내지 제 47 항 중 어느 한 항에 있어서,
    제어대상에 대한 후보를 결정하기 위해 사용되는 사람의 속성은 제어내용에 대한 후보를 결정하기 위해 사용되는 것과 동일한 것을 특징으로 하는 제어방법.
    제어대상과 제어내용에 대한 후보에 기초하여 정보가 제공되는 것을 특징으로 하는 제어방법.
  50. 제 49 항에 있어서,
    사람의 속성에 따라 상기 방법은 사람이 집게손가락을 그의 입앞에 대는 동작을 검출하고, 제어대상에 대한 후보는 상기 동작에 기초하여 음을 출력하는 장치를 포함하며, 제어 내용에 대한 후보는 볼륨을 감축하는 제어를 포함하는 것을 특징으로 하는 제어방법.
  51. 제 49 항에 있어서,
    사람의 속성에 따라 상기 방법은 사람이 그의 귀를 막는 동작을 검출하고, 대상 장치는 상기 동작에 기초하여 음을 출력하는 장치를 포함하며, 제어대상에 대한 후보는 상기 동작에 기초하여 음을 출력하는 장치와 상기 동작에 기초하여 볼륨을 제어하는 장치를 포함하고, 제어내용에 대한 후보는 볼륨을 감축하는 제어를 포함하는 것을 특징으로 하는 제어방법.
  52. 제 49 항에 있어서,
    상기 사람의 미리 결정된 속성에 따라 상기 방법은 사람이 손을 이용하여 얼굴이나 신체의 일부를 부채질하는 동작을 검출하고, 제어대상에 대한 후보는 상기 동작에 기초하여 공기의 조화를 제어하는 장치와 창문을 포함하고, 제어내용에 대한 후보는 설정온도의 감축이나 환기를 포함하는 것을 특징으로 하는 제어방법.
  53. 제 49 항에 있어서,
    사람의 미리 결정된 속성에 따라 상기 방법은 사람이 손을 귀가까이에 대는 동작을 검출하고, 제어대상에 대한 후보는 상기 동작에 기초하여 음을 출력하는 장치와 상기 동작에 기초하여 볼륨을 제어하는 장치를 포함하며, 제어내용에 대한 후보는 볼륨을 증가시키는 제어를 포함하는 것을 특징으로 하는 제어방법.
  54. 제 1 항 내지 제 53 항의 어느 한 항에 따르는 제어방법의 모든 동작 또는 일부의 동작을 실현하기 위해 이용되는 프로그램을 기록한 프로그램 저장매체.
KR1019980051199A 1997-11-27 1998-11-27 제어방법 KR19990045631A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP32573997 1997-11-27
JP9-325739 1997-11-27

Publications (1)

Publication Number Publication Date
KR19990045631A true KR19990045631A (ko) 1999-06-25

Family

ID=18180126

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980051199A KR19990045631A (ko) 1997-11-27 1998-11-27 제어방법

Country Status (6)

Country Link
US (1) US6353764B1 (ko)
EP (1) EP0919906B1 (ko)
KR (1) KR19990045631A (ko)
CN (1) CN1198244C (ko)
DE (1) DE69830295T2 (ko)
TW (1) TW494308B (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013055025A1 (ko) * 2011-10-12 2013-04-18 한국과학기술연구원 지능 로봇, 지능 로봇과 사용자의 상호작용을 위한 시스템 및 지능 로봇과 사용자의 상호작용을 위한 방법
KR20150145709A (ko) * 2014-06-20 2015-12-30 톰슨 라이센싱 사용자에 의해 장치를 제어하기 위한 장치 및 방법

Families Citing this family (118)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6963937B1 (en) 1998-12-17 2005-11-08 International Business Machines Corporation Method and apparatus for providing configurability and customization of adaptive user-input filtration
US6370260B1 (en) 1999-09-03 2002-04-09 Honeywell International Inc. Near-IR human detector
US7076088B2 (en) * 1999-09-03 2006-07-11 Honeywell International Inc. Near-infrared disguise detection
JP2001154685A (ja) * 1999-11-30 2001-06-08 Sony Corp 音声認識装置および音声認識方法、並びに記録媒体
US6531999B1 (en) * 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
JP4432246B2 (ja) * 2000-09-29 2010-03-17 ソニー株式会社 観客状況判定装置、再生出力制御システム、観客状況判定方法、再生出力制御方法、記録媒体
US8751957B1 (en) 2000-11-22 2014-06-10 Pace Micro Technology Plc Method and apparatus for obtaining auditory and gestural feedback in a recommendation system
US6600475B2 (en) 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
US20020174429A1 (en) * 2001-03-29 2002-11-21 Srinivas Gutta Methods and apparatus for generating recommendation scores
US20020144259A1 (en) * 2001-03-29 2002-10-03 Philips Electronics North America Corp. Method and apparatus for controlling a media player based on user activity
US7616996B2 (en) * 2005-09-01 2009-11-10 Intrapace, Inc. Randomized stimulation of a gastrointestinal organ
US20020174426A1 (en) * 2001-05-15 2002-11-21 Koninklijke Philips Electronics N.V Method and apparatus for activating a media player based on user behavior
US7027619B2 (en) * 2001-09-13 2006-04-11 Honeywell International Inc. Near-infrared method and system for use in face detection
JP4304337B2 (ja) 2001-09-17 2009-07-29 独立行政法人産業技術総合研究所 インタフェース装置
US20030081834A1 (en) * 2001-10-31 2003-05-01 Vasanth Philomin Intelligent TV room
JP3849517B2 (ja) * 2001-12-14 2006-11-22 ソニー株式会社 写真ブース、画像処理方法、記録媒体、並びにプログラム
US20030147624A1 (en) * 2002-02-06 2003-08-07 Koninklijke Philips Electronics N.V. Method and apparatus for controlling a media player based on a non-user event
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
EP1380987B1 (en) * 2002-07-09 2008-10-15 Accenture Global Services GmbH A sound control installation
EP1576456A1 (en) * 2002-11-07 2005-09-21 Personics A/S Control system including an adaptive motion detector
JP2004312401A (ja) * 2003-04-08 2004-11-04 Sony Corp 再生装置および再生方法
EP1628252A1 (en) * 2003-05-26 2006-02-22 Matsushita Electric Industrial Co., Ltd. Operation history utilization system
JP3752246B2 (ja) * 2003-08-11 2006-03-08 学校法人慶應義塾 ハンドパターンスイッチ装置
JP2005079978A (ja) * 2003-09-01 2005-03-24 Nec Corp データ放送視聴情報測定装置及びデータ放送視聴情報測定システム並びにデータ放送視聴情報測定方法
US7242307B1 (en) 2003-10-20 2007-07-10 Cognetive Systems Incorporated System for monitoring hygiene appliances
JP3981391B2 (ja) * 2003-10-21 2007-09-26 松下電器産業株式会社 監視装置
JP3847753B2 (ja) 2004-01-30 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
FI117308B (fi) * 2004-02-06 2006-08-31 Nokia Corp Eleohjausjärjestelmä
WO2005108119A2 (en) 2004-04-30 2005-11-17 Hillcrest Laboratories, Inc. Free space pointing devices with tilt compensation and improved usability
US8629836B2 (en) 2004-04-30 2014-01-14 Hillcrest Laboratories, Inc. 3D pointing devices with orientation compensation and improved usability
JP4685095B2 (ja) * 2004-04-30 2011-05-18 ヒルクレスト・ラボラトリーズ・インコーポレイテッド 微動に基づいてユーザを識別するための方法およびデバイス
CN102566751B (zh) 2004-04-30 2016-08-03 希尔克瑞斯特实验室公司 自由空间定位装置和方法
CA2566901C (en) * 2004-06-03 2014-08-12 Stephanie Littell System and method for ergonomic tracking for individual physical exertion
US7423533B1 (en) 2004-10-19 2008-09-09 Cognetive Systems, Incorporated System for monitoring and recording cross-contamination events
US8137195B2 (en) 2004-11-23 2012-03-20 Hillcrest Laboratories, Inc. Semantic gaming and application transformation
WO2006072870A1 (en) * 2005-01-07 2006-07-13 Koninklijke Philips Electronics N.V. Remote controller
JP4736511B2 (ja) * 2005-04-05 2011-07-27 株式会社日立製作所 情報提供方法および情報提供装置
US7613324B2 (en) * 2005-06-24 2009-11-03 ObjectVideo, Inc Detection of change in posture in video
KR100792293B1 (ko) * 2006-01-16 2008-01-07 삼성전자주식회사 사용자의 컨텍스트를 고려한 서비스 제공방법 및 그 장치
JP4825015B2 (ja) * 2006-02-01 2011-11-30 株式会社コナミデジタルエンタテインメント 仮想生命体キャラクタ育成装置
JP4837390B2 (ja) * 2006-02-01 2011-12-14 株式会社コナミデジタルエンタテインメント 仮想生命体キャラクタ育成装置
US7855651B2 (en) * 2006-04-07 2010-12-21 Cognetive Systems Incorporated System for monitoring and recording hand hygiene performance
DE102006053837A1 (de) 2006-11-14 2008-05-15 Robert Bosch Gmbh Integrierter Schaltkreis
US20090132275A1 (en) * 2007-11-19 2009-05-21 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Determining a demographic characteristic of a user based on computational user-health testing
US7860676B2 (en) 2007-06-28 2010-12-28 Hillcrest Laboratories, Inc. Real-time dynamic tracking of bias
US20090030767A1 (en) * 2007-07-24 2009-01-29 Microsoft Corporation Scheduling and improving ergonomic breaks using environmental information
EP2201761B1 (en) * 2007-09-24 2013-11-20 Qualcomm Incorporated Enhanced interface for voice and video communications
WO2009051665A1 (en) 2007-10-16 2009-04-23 Hillcrest Laboratories, Inc. Fast and smooth scrolling of user interfaces operating on thin clients
JP5058335B2 (ja) * 2008-04-10 2012-10-24 パイオニア株式会社 画面表示システム及び画面表示プログラム
GB2463105A (en) * 2008-09-05 2010-03-10 Skype Ltd Viewer activity dependent video telephone call ringing
GB2463108B (en) 2008-09-05 2012-08-29 Skype Communication system and method
GB2463124B (en) 2008-09-05 2012-06-20 Skype Ltd A peripheral device for communication over a communications sytem
GB2463104A (en) 2008-09-05 2010-03-10 Skype Ltd Thumbnail selection of telephone contact using zooming
GB2463107A (en) 2008-09-05 2010-03-10 Skype Ltd A remote control unit of a media device for placing/receiving calls, comprising activating one of the two wireless transceivers when needed.
GB2463109B (en) 2008-09-05 2013-03-13 Skype Communication system and method
GB2463110B (en) 2008-09-05 2013-01-16 Skype Communication system and method
US9482755B2 (en) 2008-11-17 2016-11-01 Faro Technologies, Inc. Measurement system having air temperature compensation between a target and a laser tracker
US8537371B2 (en) 2010-04-21 2013-09-17 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
US9377885B2 (en) 2010-04-21 2016-06-28 Faro Technologies, Inc. Method and apparatus for locking onto a retroreflector with a laser tracker
US8724119B2 (en) 2010-04-21 2014-05-13 Faro Technologies, Inc. Method for using a handheld appliance to select, lock onto, and track a retroreflector with a laser tracker
US9772394B2 (en) 2010-04-21 2017-09-26 Faro Technologies, Inc. Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker
US9400170B2 (en) 2010-04-21 2016-07-26 Faro Technologies, Inc. Automatic measurement of dimensional data within an acceptance region by a laser tracker
US8619265B2 (en) 2011-03-14 2013-12-31 Faro Technologies, Inc. Automatic measurement of dimensional data with a laser tracker
US8422034B2 (en) 2010-04-21 2013-04-16 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
US20130241821A1 (en) * 2010-11-10 2013-09-19 Nec Corporation Image processing system, image processing method, and storage medium storing image processing program
WO2012095917A1 (ja) * 2011-01-13 2012-07-19 株式会社ニコン 電子機器および電子機器の制御プログラム
JP6261984B2 (ja) * 2011-02-04 2018-01-17 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 絶対的な基準系を作成するのに固有受容性を使用するジェスチャ制御可能システム
US20120226981A1 (en) * 2011-03-02 2012-09-06 Microsoft Corporation Controlling electronic devices in a multimedia system through a natural user interface
JP5797282B2 (ja) 2011-03-03 2015-10-21 ファロ テクノロジーズ インコーポレーテッド ターゲット装置及び方法
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
CN103649673A (zh) 2011-04-15 2014-03-19 法罗技术股份有限公司 激光跟踪器中的增强的位置检测器
US9164173B2 (en) 2011-04-15 2015-10-20 Faro Technologies, Inc. Laser tracker that uses a fiber-optic coupler and an achromatic launch to align and collimate two wavelengths of light
US9482529B2 (en) 2011-04-15 2016-11-01 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US9686532B2 (en) 2011-04-15 2017-06-20 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices
CN102959491B (zh) * 2011-04-22 2016-03-23 松下电器(美国)知识产权公司 定位控制装置和定位控制装置的集成电路、以及定位控制方法
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US10307104B2 (en) 2011-07-05 2019-06-04 Saudi Arabian Oil Company Chair pad system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US10108783B2 (en) 2011-07-05 2018-10-23 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for monitoring health of employees using mobile devices
US9833142B2 (en) * 2011-07-05 2017-12-05 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for coaching employees based upon monitored health conditions using an avatar
CN103781408B (zh) 2011-07-05 2017-02-08 沙特阿拉伯石油公司 用于监测和改善雇员的健康和生产率的地垫系统以及相关的计算机介质和计算机实现方法
US9492120B2 (en) 2011-07-05 2016-11-15 Saudi Arabian Oil Company Workstation for monitoring and improving health and productivity of employees
US9844344B2 (en) 2011-07-05 2017-12-19 Saudi Arabian Oil Company Systems and method to monitor health of employee when positioned in association with a workstation
JP5910846B2 (ja) * 2011-07-26 2016-04-27 ソニー株式会社 制御装置、制御方法、及び、プログラム
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
JP5356633B1 (ja) * 2011-12-26 2013-12-04 オリンパスメディカルシステムズ株式会社 医療用内視鏡システム
DE112013000727T5 (de) 2012-01-27 2014-11-06 Faro Technologies, Inc. Prüfverfahren mit Strichcode-Kennzeichnung
JP5982917B2 (ja) * 2012-03-22 2016-08-31 株式会社リコー 情報処理装置、操作権限付与プログラム及び投影システム
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
RU2635230C2 (ru) * 2012-05-08 2017-11-09 Филипс Лайтинг Холдинг Б.В. Осветительное применение для интерактивного электронного устройства
WO2014021547A1 (en) 2012-08-02 2014-02-06 Samsung Electronics Co., Ltd. Method for controlling device, and device using the same
CN103914130A (zh) * 2013-01-05 2014-07-09 鸿富锦精密工业(武汉)有限公司 显示装置及调整显示装置观测距离的方法
US9041914B2 (en) 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
TWI552565B (zh) * 2013-05-24 2016-10-01 中臺科技大學 具三度空間控制功能之眼鏡型行動電話
WO2015012750A1 (en) * 2013-07-26 2015-01-29 Telefonaktiebolaget L M Ericsson (Publ) Camera controlled electrical fan
WO2015017242A1 (en) 2013-07-28 2015-02-05 Deluca Michael J Augmented reality based user interfacing
JP2015056141A (ja) 2013-09-13 2015-03-23 ソニー株式会社 情報処理装置、および情報処理方法
CN103605426A (zh) * 2013-12-04 2014-02-26 深圳中兴网信科技有限公司 基于手势识别的信息显示系统及其信息显示方法
CN106164995B (zh) 2014-01-30 2019-07-12 飞利浦灯具控股公司 姿势控制
US9395174B2 (en) 2014-06-27 2016-07-19 Faro Technologies, Inc. Determining retroreflector orientation by optimizing spatial fit
CN104597947A (zh) * 2014-12-01 2015-05-06 武汉理工大学 一种可手势交互的环境监测方法及装置
US11347316B2 (en) 2015-01-28 2022-05-31 Medtronic, Inc. Systems and methods for mitigating gesture input error
US10613637B2 (en) 2015-01-28 2020-04-07 Medtronic, Inc. Systems and methods for mitigating gesture input error
JP6772184B2 (ja) 2015-04-29 2020-10-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. グループのメンバによってデバイスを操作する方法及び装置
WO2017028187A1 (zh) * 2015-08-18 2017-02-23 黄冠明 根据虹膜匹配风扇状态的方法和风扇
WO2017033359A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 遠隔操作ロボットシステム
US10642955B2 (en) 2015-12-04 2020-05-05 Saudi Arabian Oil Company Devices, methods, and computer medium to provide real time 3D visualization bio-feedback
US10475351B2 (en) 2015-12-04 2019-11-12 Saudi Arabian Oil Company Systems, computer medium and methods for management training systems
US9889311B2 (en) 2015-12-04 2018-02-13 Saudi Arabian Oil Company Systems, protective casings for smartphones, and associated methods to enhance use of an automated external defibrillator (AED) device
US10628770B2 (en) 2015-12-14 2020-04-21 Saudi Arabian Oil Company Systems and methods for acquiring and employing resiliency data for leadership development
WO2018008225A1 (ja) 2016-07-05 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US10824132B2 (en) 2017-12-07 2020-11-03 Saudi Arabian Oil Company Intelligent personal protective equipment
US10942637B2 (en) * 2018-10-09 2021-03-09 Midea Group Co., Ltd. Method and system for providing control user interfaces for home appliances
CN110706697A (zh) * 2019-09-18 2020-01-17 云知声智能科技股份有限公司 语音控制方法及装置
CN112198853A (zh) * 2020-10-10 2021-01-08 珠海格力电器股份有限公司 智能家居设备的控制方法和装置
WO2022260655A1 (en) * 2021-06-08 2022-12-15 Hewlett-Packard Development Company, L.P. Gestures for switching audio endpoints

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US5214615A (en) * 1990-02-26 1993-05-25 Will Bauer Three-dimensional displacement of a body with computer interface
JP3338992B2 (ja) 1992-10-29 2002-10-28 株式会社日立製作所 手話/単語変換システム
US5899855A (en) * 1992-11-17 1999-05-04 Health Hero Network, Inc. Modular microprocessor-based health monitoring system
US5659764A (en) * 1993-02-25 1997-08-19 Hitachi, Ltd. Sign language generation apparatus and sign language translation apparatus
US5454043A (en) * 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
CA2151073A1 (en) * 1994-07-28 1996-01-29 Bishnu Saroop Atal Intelligent human interface system
US6072396A (en) * 1994-12-30 2000-06-06 Advanced Business Sciences Apparatus and method for continuous electronic monitoring and tracking of individuals
JPH08211979A (ja) 1995-02-02 1996-08-20 Canon Inc 手振り入力装置及び方法
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5982853A (en) * 1995-03-01 1999-11-09 Liebermann; Raanan Telephone for the deaf and method of using same
US5652849A (en) * 1995-03-16 1997-07-29 Regents Of The University Of Michigan Apparatus and method for remote control using a visual information stream
JPH0981309A (ja) 1995-09-13 1997-03-28 Toshiba Corp 入力装置
CH690875A5 (de) * 1996-05-21 2001-02-15 Hts High Technology Systems Ag Heim- und Gebäudeautomationssystem.
US6002808A (en) * 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US6144755A (en) * 1996-10-11 2000-11-07 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Method and apparatus for determining poses
US6198394B1 (en) * 1996-12-05 2001-03-06 Stephen C. Jacobsen System for remote monitoring of personnel
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013055025A1 (ko) * 2011-10-12 2013-04-18 한국과학기술연구원 지능 로봇, 지능 로봇과 사용자의 상호작용을 위한 시스템 및 지능 로봇과 사용자의 상호작용을 위한 방법
KR101295003B1 (ko) * 2011-10-12 2013-08-16 한국과학기술연구원 지능 로봇, 지능 로봇과 사용자의 상호작용을 위한 시스템 및 지능 로봇과 사용자의 상호작용을 위한 방법
KR20150145709A (ko) * 2014-06-20 2015-12-30 톰슨 라이센싱 사용자에 의해 장치를 제어하기 위한 장치 및 방법

Also Published As

Publication number Publication date
TW494308B (en) 2002-07-11
CN1198244C (zh) 2005-04-20
EP0919906A3 (en) 2000-08-16
DE69830295D1 (de) 2005-06-30
US6353764B1 (en) 2002-03-05
CN1223391A (zh) 1999-07-21
DE69830295T2 (de) 2005-10-13
EP0919906B1 (en) 2005-05-25
EP0919906A2 (en) 1999-06-02

Similar Documents

Publication Publication Date Title
KR19990045631A (ko) 제어방법
JPH11327753A (ja) 制御方法及びプログラム記録媒体
JP7193180B2 (ja) 家庭電器に制御用ユーザインタフェースを提供する方法及びシステム
JP2004303251A (ja) 制御方法
US10310631B2 (en) Electronic device and method of adjusting user interface thereof
US20160162039A1 (en) Method and system for touchless activation of a device
JP7151835B2 (ja) 情報処理装置、情報処理方法およびプログラム
JPH0981309A (ja) 入力装置
CN105291093A (zh) 一种家用机器人系统
JP2008016289A (ja) 照明制御システム
JP7211367B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20210394369A1 (en) Healthcare robot and control method therefor
JP2021169924A (ja) 空調制御装置、空調システム、空調制御方法及びプログラム
US11544968B2 (en) Information processing system, information processingmethod, and recording medium
JP2007160427A (ja) ロボット制御システム
KR20190106925A (ko) 인공지능 로봇 및 그의 제어 방법
JP2004289850A (ja) 制御方法、機器制御装置、及びプログラム記録媒体
JP7296626B2 (ja) 情報処理装置及びプログラム
CN112558754A (zh) 信息处理装置、存储介质及信息处理方法
US11195525B2 (en) Operation terminal, voice inputting method, and computer-readable recording medium
US11687049B2 (en) Information processing apparatus and non-transitory computer readable medium storing program
JP2004282770A (ja) 制御方法
WO2020026986A1 (ja) 情報処理装置、情報処理方法およびプログラム
CN112433601A (zh) 信息处理装置、存储介质及信息处理方法
CN111919250A (zh) 传达非语言提示的智能助理设备

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B601 Maintenance of original decision after re-examination before a trial
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20040306

Effective date: 20051031