KR20010017811A - Robot operating in response to image and voice through internet homepage - Google Patents
Robot operating in response to image and voice through internet homepage Download PDFInfo
- Publication number
- KR20010017811A KR20010017811A KR1019990033508A KR19990033508A KR20010017811A KR 20010017811 A KR20010017811 A KR 20010017811A KR 1019990033508 A KR1019990033508 A KR 1019990033508A KR 19990033508 A KR19990033508 A KR 19990033508A KR 20010017811 A KR20010017811 A KR 20010017811A
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- image
- voice
- sensing unit
- memory
- Prior art date
Links
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H13/00—Toy figures with self-moving parts, with or without movement of the toy as a whole
- A63H13/02—Toy figures with self-moving parts, with or without movement of the toy as a whole imitating natural actions, e.g. catching a mouse by a cat, the kicking of an animal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Toys (AREA)
Abstract
Description
본 발명은 장난감 로봇에 관한 것으로서, 특히 로봇이 원격지 제어신호에 따라 일련의 동작을 취하여 보다 다양한 로봇의 동작을 보여주므로써 아이들의 호기심을 유발하고, 동시에 만족도를 높여 보다 상품의 가치를 높이기 위한 인터넷 홈페이지를 통한 영상 및 음성에 따라 움직이는 로봇 및 그 제어 시스템에 관한 것이다.The present invention relates to a toy robot, in particular, the robot takes a series of movements in accordance with the remote control signal to show the operation of a variety of robots to induce children's curiosity, and at the same time increase the satisfaction of the Internet to increase the value of goods The present invention relates to a robot and its control system that move according to video and audio through a homepage.
종래의 일반적인 로봇 완구에 있어서, 로봇 완구 몸체를 여러 가지 구비하여 이를 조립하여 변신하게 하는 등 다양한 모양을 표현하도록 하여 왔다.In the conventional general robot toy, the robot toy body is provided with various types to express various shapes such as assembly and transformation.
그러나 이러한 일반적인 제한된 움직임을 갖는 장난감 완구 또는 로봇 등은 어린이들에게 식상함을 안겨주어 새로운 개념의 장난감 완구 또는 로봇에 대한 개발이 절실히 요청되고 있는 상황이다.However, such general toy toys or robots with limited movements are in a situation where children are hungry to develop new concepts of toy toys or robots.
상기와 같은 요청을 해결하기 위하여 본 고안은 로봇에 영상인식과 음성인식이 가능하도록 하여 약속되어진 해당 영상 및 음성이 인터넷 홈페이지를 통해 출력될 경우 미리 프로그램된 일련의 행동을 취하도록 함으로써 아이들의 호기심을 유발시키고, 로봇 완구의 상품가치를 높여 구매의욕을 불러일으키는 로봇 완구를 제공하는데 그 목적이 있다.In order to solve the request as described above, the present invention enables the robot to recognize the image and sound by taking a series of pre-programmed actions when the promised video and audio are output through the Internet homepage. The purpose of the present invention is to provide a robot toy that induces and motivates a purchase by increasing the value of the robot toy.
상기의 목적을 달성하기 위하여 로봇 몸체에 카메라와 같은 영상센싱부를 부착하고, 마이크와 같은 음성센싱부를 부착함으로써 컴퓨터 모니터 화면에 디스플레이되는 화상을 감지하도록 하고, 컴퓨터 내·외장 스피커를 통하여 출력되는 음성을 감지하여 해당 영상 및 음성이 흘러나올때 메모리에 미리 저장해둔 영상 데이터와 음성 데이터와 동일한 영상 및 음성인 것으로 판명시 해당 명령어에 따라 일련의 동작을 수행하도록 마이컴에서 각각의 액추에이터에 제어신호를 출력하도록 구성된 특징이 있다.In order to achieve the above object, an image sensing unit such as a camera is attached to the robot body, and an audio sensing unit such as a microphone is attached to detect an image displayed on a computer monitor screen, and the sound output through the computer's internal / external speakers can be detected. It is configured to output a control signal to each actuator in order to perform a series of operations according to the command when it detects and detects that the video and audio are the same as the video and audio data previously stored in the memory. There is a characteristic.
도 1은 본 발명의 실시예에 따른 인터넷 홈페이지를 통한 영상 및 음성에 따라 움직이는 로봇에 관한 블록도,1 is a block diagram of a robot moving according to an image and a voice through an Internet homepage according to an embodiment of the present invention;
도 2는 본 발명에 의한 로봇과 컴퓨터 홈페이지간의 제어 관계를 개략적으로 도시한 개략도.2 is a schematic diagram schematically showing a control relationship between a robot and a computer homepage according to the present invention;
* 도면의 주요 부분에 관한 설명 *Description of the main parts of the drawing
11 : 영상센싱부 12 : 음성센싱부11: image sensing unit 12: voice sensing unit
20 : 마이컴 30 : 메모리20: microcomputer 30: memory
41 : 액추에이터 1 42 : 액추에이터 241: Actuator 1 42: Actuator 2
4n ; 액추에이터 n 51 : 모니터4n; Actuator n 51: Monitor
52 : 스피커 53 : 화면52: speaker 53: screen
60 : 로봇60: robot
이하 본 발명의 바람직한 실시예를 첨부된 도면을 참고로 하여 상세히 설명하면 다음과 같다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
먼저 도 1 ∼ 도 2를 참고로하여 본 발명의 구성을 살펴보면 로봇(60) 몸체의 일부분에 부착되어 영상을 감지하는 영상 센싱부(11)와, 로봇 몸체의 일부분에 부착되어 음성을 감지하는 음성 센싱부(12)와, 영상 데이터 및 음성 데이터에 대한 신호를 저장하는 메모리(30)와, 상기 영상 센싱부(11)와 음성 센싱부(12)로부터 인가되는 신호를 메모리(30)에 저장된 신호와 비교하여 해당 신호와 동일하면 주어진 절차에 따라 해당동작을 수행하도록 제어신호를 출력하는 마이컴(20)과, 상기 마이컴(20)에서 출력되는 제어신호에 따라 상태가 가변되는 다수개의 액추에이터(41,42...4n)로 이루어진다.First, referring to the configuration of the present invention with reference to FIGS. 1 to 2, the image sensing unit 11 attached to a part of the robot 60 to detect an image and a voice attached to a part of the robot body to detect a voice A signal stored in the memory 30 to the sensor 12, a memory 30 for storing signals for the image data and audio data, and a signal applied from the image sensing unit 11 and the voice sensing unit 12 In comparison with the corresponding signal, the microcomputer 20 outputs a control signal to perform a corresponding operation according to a given procedure, and a plurality of actuators 41 whose state varies according to the control signal output from the microcomputer 20. 42 ... 4n).
상기 영상 센싱부(11)는 카메라를 사용하고, 음성센싱부(12)는 마이크로폰을 사용한다.The image sensing unit 11 uses a camera, and the voice sensing unit 12 uses a microphone.
상기 다수개의 액추에이터(41,42,...,4n)는 모터를 사용하며, 액추에이터의 사용위치는 로봇의 팔, 다리, 목, 어깨 등에 따라 선택하여 사용한다.The plurality of actuators 41, 42,..., 4n use a motor, and the use position of the actuator is selected and used according to the arm, leg, neck, shoulder, etc. of the robot.
상기와 같이 로봇이 구성되는 반면, 이러한 구성의 로봇을 제어하기 위하여 도 2에 도시된 바와 같이, 로봇의 메모리에 입력된 영상 신호와 동일한 영상을 홈페이지에 나타날 수 있도록 제작하고, 로봇의 메모리에 입력된 음성 신호와 동일한 소리신호를 재생할 수 있도록 제작하며, 사용자가 로봇을 앞에 두고 인터넷 홈페이지에 컴퓨터 또는 인터넷 단말기로 접속하여 컴퓨터 모니터(51) 화면(53)에 영상을 디스플레이하고, 스피커(52)를 통해서 소리가 흘러나오도록 제작한다.While the robot is configured as described above, in order to control the robot having such a configuration, as shown in FIG. 2, the same image signal input to the memory of the robot can be displayed on the homepage, and input to the memory of the robot. Produces to reproduce the same sound signal as the voice signal, the user is connected to the Internet homepage with a computer or an Internet terminal in front of the robot to display an image on the computer monitor 51 screen 53, and the speaker 52 Produce sound through.
상기와 같이 구성된 본 발명의 작용은 다음과 같다.The operation of the present invention configured as described above is as follows.
먼저 로봇을 작동시키기 전에 도 2에 도시된 바와 같이 컴퓨터를 부팅하여 인터넷 접속을 하고 해당 홈페이지에 연결한 뒤, 로봇을 컴퓨터의 화면 가시거리내에 위치시킨다.First, before operating the robot, as shown in FIG. 2, the computer is booted to connect to the Internet and connected to the homepage, and then the robot is positioned within the visual field of the computer.
로봇(60)은 모니터(51) 화면(53)에 디스플레이 된 영상을 영상센싱부(11)를 통하여 인식하고, 스피커(52)를 통하여 출력되는 소리를 음성센싱부(12)를 통하여 인식한다.The robot 60 recognizes the image displayed on the monitor 51 screen 53 through the image sensing unit 11 and recognizes the sound output through the speaker 52 through the voice sensing unit 12.
이때 인식된 영상과 소리와 메모리(30)에 입력된 데이터와 동일할 경우, 마이컴(20)에서 데이터에 셋팅된 신호로 각각의 액추에이터(41,42,...4n)로 출력한다.In this case, when the recognized image, sound, and data input to the memory 30 are the same, the microcomputer 20 outputs the signals set to the data to the respective actuators 41, 42, ... 4n.
이때 액추에이터(41,42,...4n)는 팔, 다리, 목, 어깨 등 제작자가 선택하는 방향에 따라 달라진다.At this time, the actuators (41, 42, ... 4n) depends on the direction the manufacturer chooses, such as arms, legs, neck, shoulders.
보다 다양한 동작을 취하도록 설계한다면 액추에이터의 수도 더 많아지며, 메모리(30)도 더 커지게 된다.Designing to take on a wider variety of operations results in more actuators and larger memory 30.
한편 본 발명이 추구하는 이상적인 인터넷 홈페이지를 통한 영상 및 음성에 따라 움직이는 로봇 및 그 제어 시스템의 구조는 부가 변경될 수 있으며, 변경되는 구조는 위에서 설명된 인터넷 홈페이지를 통한 영상 및 음성에 따라 움직이는 로봇 및 그 제어 시스템의 일부로서 포함된다.Meanwhile, the structure of the robot and its control system moving according to the video and audio through the ideal Internet homepage pursued by the present invention may be additionally changed, and the changed structure may be a robot moving according to the video and audio through the internet homepage described above. Included as part of its control system.
이상에서 설명한 바와 같이, 본 발명은 로봇이나 완구를 제작사 측의 프로그램에 따라 원하는 행동을 구현할 수 있는데 이때 로봇이나 완구를 소유한 사람은 로봇이 자기의 의지대로 행동하는 개체로 인식되게 할 수 있고, 이는 아무런 반응이 없는 장난감을 갖고 놀이를 하는 아이들에게 장난감에 특별한 감정을 느낄 수 있도록 하여 아이들의 정서함양에 도움을 주게 되며 또한 노인이나 장애인들 또는 감정적인 고립상태에 있는 사람들에게 하나의 위안거리를 제공할 수 있는 효과가 있으므로 장난감 및 완구 제조 산업상 매우 유용한 발명이다.As described above, the present invention can implement the desired behavior according to the program of the manufacturer or the robot or toy, wherein the person owning the robot or toy can be made to recognize the robot as an object acting at his will, This helps children to play with unresponsive toys and feels special emotions in the toys, helping them to develop their emotions, and to provide comfort for the elderly, the disabled, or those in emotional isolation. The present invention is very useful in the toy and toy manufacturing industry because it can provide.
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019990033508A KR20010017811A (en) | 1999-08-14 | 1999-08-14 | Robot operating in response to image and voice through internet homepage |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019990033508A KR20010017811A (en) | 1999-08-14 | 1999-08-14 | Robot operating in response to image and voice through internet homepage |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20010017811A true KR20010017811A (en) | 2001-03-05 |
Family
ID=19607221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019990033508A KR20010017811A (en) | 1999-08-14 | 1999-08-14 | Robot operating in response to image and voice through internet homepage |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20010017811A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030013768A (en) * | 2001-08-09 | 2003-02-15 | 주식회사 네이트시스템 | Apparatus for controlling of a doll using a computer |
KR20040033517A (en) * | 2002-10-15 | 2004-04-28 | 주식회사위프랜 | System and Method to control a toy using Web |
KR100451825B1 (en) * | 2001-11-27 | 2004-10-08 | 엠텍비젼 주식회사 | Teaching toy enabling to explain input image |
KR100459392B1 (en) * | 2000-08-21 | 2004-12-03 | 엘지전자 주식회사 | Toy performance apparatus and method using game |
KR100565193B1 (en) * | 2002-02-01 | 2006-03-30 | 엘지전자 주식회사 | Intrinic robot in function of goods purchase |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS624397U (en) * | 1985-06-22 | 1987-01-12 | ||
US5636994A (en) * | 1995-11-09 | 1997-06-10 | Tong; Vincent M. K. | Interactive computer controlled doll |
KR20000074695A (en) * | 1999-05-25 | 2000-12-15 | 김인광 | Method of motion adjustment of toy through the pattern recognition of the recorded speech or sound |
-
1999
- 1999-08-14 KR KR1019990033508A patent/KR20010017811A/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS624397U (en) * | 1985-06-22 | 1987-01-12 | ||
US5636994A (en) * | 1995-11-09 | 1997-06-10 | Tong; Vincent M. K. | Interactive computer controlled doll |
KR20000074695A (en) * | 1999-05-25 | 2000-12-15 | 김인광 | Method of motion adjustment of toy through the pattern recognition of the recorded speech or sound |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100459392B1 (en) * | 2000-08-21 | 2004-12-03 | 엘지전자 주식회사 | Toy performance apparatus and method using game |
KR20030013768A (en) * | 2001-08-09 | 2003-02-15 | 주식회사 네이트시스템 | Apparatus for controlling of a doll using a computer |
KR100451825B1 (en) * | 2001-11-27 | 2004-10-08 | 엠텍비젼 주식회사 | Teaching toy enabling to explain input image |
KR100565193B1 (en) * | 2002-02-01 | 2006-03-30 | 엘지전자 주식회사 | Intrinic robot in function of goods purchase |
KR20040033517A (en) * | 2002-10-15 | 2004-04-28 | 주식회사위프랜 | System and Method to control a toy using Web |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5746602A (en) | PC peripheral interactive doll | |
US6319010B1 (en) | PC peripheral interactive doll | |
Ishiguro et al. | Robovie: an interactive humanoid robot | |
CN104487208B (en) | Robot controls scenario generation method and device | |
US20090197504A1 (en) | Doll with communication function | |
US20060293787A1 (en) | Communication robot control system | |
KR20160043503A (en) | Haptically-enabled deformable device with rigid component | |
CN108363492A (en) | A kind of man-machine interaction method and interactive robot | |
JP2003266351A (en) | Robot device and motion control method therefor | |
CN110221683B (en) | Motion detection system, motion detection method, and computer-readable recording medium thereof | |
JP2002049385A (en) | Voice synthesizer, pseudofeeling expressing device and voice synthesizing method | |
WO2020190362A2 (en) | A social interaction robot | |
KR20010017811A (en) | Robot operating in response to image and voice through internet homepage | |
US20020072293A1 (en) | Personal computer system having and operating an external animated doll device | |
JP4022477B2 (en) | Robot phone | |
KR20200117712A (en) | Artificial intelligence smart speaker capable of sharing feeling and emotion between speaker and user | |
US20070078563A1 (en) | Interactive system and method for controlling an interactive system | |
JPS6247387A (en) | Doll | |
CN110382174A (en) | It is a kind of for executing mood posture with the device with customer interaction | |
CN111730608A (en) | Control device, robot, control method, and storage medium | |
JP2019168971A (en) | Same room feeling communication system | |
Kano et al. | Design and prototype of a remote arm-wrestling system | |
KR102300873B1 (en) | Physical substantive cyber robot | |
JP3239216B1 (en) | Robots and robot systems that update knowledge information by communication | |
KR20040107523A (en) | Dialog control for an electric apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
N231 | Notification of change of applicant | ||
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
NORF | Unpaid initial registration fee |