WO2014092272A1 - 프로젝션 기능을 갖는 로봇 및 로봇의 프로젝터 제어 방법 - Google Patents

프로젝션 기능을 갖는 로봇 및 로봇의 프로젝터 제어 방법 Download PDF

Info

Publication number
WO2014092272A1
WO2014092272A1 PCT/KR2013/006148 KR2013006148W WO2014092272A1 WO 2014092272 A1 WO2014092272 A1 WO 2014092272A1 KR 2013006148 W KR2013006148 W KR 2013006148W WO 2014092272 A1 WO2014092272 A1 WO 2014092272A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
projector
moving object
blocking area
projection
Prior art date
Application number
PCT/KR2013/006148
Other languages
English (en)
French (fr)
Inventor
권오성
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Publication of WO2014092272A1 publication Critical patent/WO2014092272A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/20Lamp housings
    • G03B21/2086Security or safety means in lamp houses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence

Definitions

  • the present invention relates to a movable service robot, and more particularly to a movable service robot having a projector.
  • ISO 12100 2010 defines general concepts and procedures for risk assessment and reduction of risk of machinery.
  • the regulations provide guidelines for machinery designers and manufacturers to better protect machinery users from hazards. However, there are no guidelines for protecting the vision of service robots equipped with projection systems.
  • the present invention has been made to solve the above problems, and an object thereof is to provide a robot and a projector control method of the robot that can protect the eyesight of a child or infant when executing the projection function.
  • a robot for achieving the above object, the projector for projecting a beam; A blocking area setting unit for setting a blocking area; And a projector controller configured to change the projector into a safe mode when the moving object reaches the blocking area.
  • the blocking area setting unit may set a blocking area surrounding the projection area of the beam.
  • the blocking area setting unit may set the blocking area according to the moving direction and the speed of the moving object.
  • the blocking area setting unit may reset the blocking area at every detection period.
  • the blocking area setting unit may determine a distance required for mode change of the projector according to sensing of a moving object, and a distance expected to move in the orthogonal direction with respect to the projection area of the beam during a time period in which a sensing period is agreed. And an orthogonal distance between the beam and the projection area of the beam.
  • the projection controller may return the projector to the projection mode when the moving object is separated from the blocking area.
  • the robot further includes a surveillance area setting unit configured to set a surveillance area surrounding the projection area of the beam and the blocking area, and the blocking area setting unit includes the blocking area from a point of time when the moving object enters the monitoring area. Can be set.
  • the monitoring area setting unit may set a distance calculated based on a mode change time required by the projector according to the detection of a moving object and a distance calculated based on the maximum speed of the moving object as an orthogonal distance between the monitoring area and the projection area of the beam. .
  • the surveillance region setting unit may reflect a usage environment variable of the mobile robot in the calculated distance.
  • a method of controlling a projector in a robot includes: projecting a beam using a projector; Setting a blocking area; And changing the projector to a safe mode when the moving object reaches the blocking area.
  • a blocking area surrounding the projection area of the beam may be set.
  • the blocking area may be set according to the moving direction and the speed of the moving object.
  • the setting of the blocking area may reset the blocking area at every detection period.
  • the setting of the blocking area may include a time required for changing a mode of the projector according to sensing of a moving object, and a distance expected to move in the orthogonal direction with respect to the projection area of the beam, during a time for agreeing a sensing period. Orthogonal distance between the blocking area and the projection area of the beam.
  • the method may further include returning the projector to the projection mode when the moving object is separated from the blocking area.
  • the method may further include setting a projection area of the beam and a surveillance area surrounding the blocking area before the setting of the blocking area.
  • the setting of the surveillance area may include a distance calculated based on a mode change time required by the projector according to detection of a moving object and a distance calculated based on the maximum speed of the moving object as an orthogonal distance between the monitoring area and the projection area of the beam. Can be set.
  • the setting of the surveillance area may reflect a usage environment variable of the robot in the calculated distance.
  • the present invention can protect the eyesight of a curious child or infant by switching the projection function to a safe mode before the child or infant enters the projection area when performing the projection function with a service robot mainly used in the home.
  • the present invention can protect eyesight even for a fast-moving person by varying the blocking area according to a person, ie, the direction and speed of movement of the moving object.
  • FIG. 1 is a view showing a projection of the robot according to an embodiment of the present invention in a coordinate system.
  • FIG. 2 is a diagram illustrating a projection area, a blocking area, and a monitoring area according to an embodiment of the present invention.
  • FIG 3 is a view showing the configuration of a projection system of a robot according to an embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating a method of controlling a projector of a robot according to an embodiment of the present invention.
  • FIG. 5 is a view showing the configuration of a projection system of a robot according to another embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating a method of controlling a projector of a robot according to another embodiment of the present invention.
  • FIG. 1 is a view showing a projection of the robot according to an embodiment of the present invention in a coordinate system.
  • the mobile robot 130 includes a projection system including a projector 110, and beams emitted from the projector 110 are projected onto a screen 120 such as a screen.
  • a beam emitted from the projector 110 forms a projection area to reach a screen 120 such as a screen.
  • the image output from the projector 110 is the size of the horizontal a and vertical b and is enlarged at the same ratio as the ratio is projected on the screen 120.
  • the projector 110 and the screen 120 such as a screen are separated by a distance of L.
  • the projector 110 then projects the beam at a height of k from the ground. And the lower end of the projection image has a height of l from the ground.
  • the beam between the projector 110 and the screen 120 occupies a projection area that satisfies Equation 1 below.
  • the first equation of Equation 1 may be derived from two surfaces 110 and 120 facing in the y-axis direction, the second equation may be derived from two surfaces facing in the z-axis direction, The first equation may be derived from two faces facing in the x-axis direction.
  • a surveillance area and a blocking area are set to detect a person approaching the projection area, that is, a moving object and change the projector 110 into a safe mode.
  • the blocking area surrounds the projection area and the surveillance area surrounds the blocking area surrounding the projection area. This will be described in detail with reference to FIG. 2.
  • FIG. 2 is a diagram illustrating a projection area, a blocking area, and a monitoring area according to an embodiment of the present invention.
  • the beam projected from the projector 110 forms a projection area (210).
  • a blocking area 230 surrounding and enclosing the projection area 210 is set.
  • the projection area 210 and the blocking area 230 may be parallel, and the orthogonal distance from the blocking area 230 to the projection area 210 is c.
  • the blocking area 230 may be fixed, or may be set according to the moving direction and speed of the moving object, and may be changed at each detection period when the moving object is detected at a constant period.
  • the safety mode includes turning off the projector 110, setting the image output from the projector 110 to a black screen, or reducing the amount of light.
  • a surveillance region 250 surrounding and enclosing the blocking region 230 may be set.
  • the blocking area may be set, and when the moving object moves in the monitoring area 250, the blocking area is changed according to the direction and speed of movement of the moving object at a constant detection period.
  • the orthogonal distance between the surveillance area 250 and the projection area 210 is u, and the orthogonal distance u may be defined as a characteristic value of the projection system. That is, it may be determined based on the time it takes for the projection system to detect the moving object and immediately change to the safe mode. This will be described later.
  • the projector 110 is configured by setting only the blocking area 230 without setting the monitoring area 250. Can be controlled.
  • the blocking region 230 may be fixed.
  • the projector 110 may be controlled by setting the blocking area 230 according to the moving direction and the speed of the moving object. That is, after the movement of the moving body is first detected, the blocking area 230 is set, and then the blocking area 230 is changed according to the moving direction and speed of the moving body, and then the moving object enters the blocking area 230. ) Can be changed to safe mode.
  • Tu The characteristic value of the projection system mounted on the mobile robot. It is the time taken for the projection system to detect the moving object and immediately enter the safe mode, reflecting the system's operation delay characteristics.
  • Vmax maximum speed of the moving object
  • A value between 0 and 1 as a variable (eg, home, office, school, etc.) of the environment in which the mobile robot is used.
  • Detection period (in other words, observation period) for detecting the moving object in the projection system of the mobile robot.
  • the moving object is the first time t1 Is detected at the point of.
  • the position of the moving object detected after the time tm The average speed of the moving object is Becomes And the average acceleration of the moving object to be. here Is the instantaneous velocity observed within ⁇ t of each time. Therefore, the position vector of the moving object can be expressed as Equation 2 below.
  • the position vector of the moving object can be calculated for every sensing period.
  • an orthogonal distance (also called a blocking distance) c from the projection area 210 to the blocking area 230 is expressed by Equation 3 below. here Is the orthographic velocity vector of the position vector of the moving object to the projection region 210 Is an orthographic acceleration vector.
  • the orthogonal distance c is defined as shown in Equation 3 above, but it may be larger than this as the minimum distance.
  • Equation 3 The meaning of Equation 3 is as follows. That is, if the moving object moves at the current velocity and acceleration at the present point of time, it is assumed that the projection area 210 is reached after the Tu is added to the detection period, and the minimum value of the orthogonal distance c is expressed by Equation 3 above. It means to value. If the moving object actually enters the blocking region 230 after determining the minimum value of the orthogonal distance c by Equation 3, it means that the projection region 210 is reached after a time of adding Tu to the sensing period. The moment the moving object reaches the projection area 210, the projector 110 is changed to the safe mode. Therefore, when the orthogonal distance c is set larger than the value of [Equation 3], the projector 110 is already changed to the safe mode before the moving object reaches the projection area 210 through the blocking area 230.
  • the orthogonal distance from the projection area 210 to the monitoring area 250 is as follows. That is, when the environmental variable (home, office, academy, etc.) where the mobile robot is expected to be used is called ⁇ ( ⁇ 1) and the maximum speed of the moving object observed for a certain time in the environment is called Vmax, the monitoring The distance u is given by Equation 4 below. The value of Equation 4 may be greater than the minimum value of the monitoring distance.
  • Equation 4 The meaning of Equation 4 is as follows when a is assumed to be 0.5. It is assumed that the moving object reaches the projection area 210 after the Tu time when the moving object enters the monitoring area 250 at the present time and then moves at the highest speed. In other words, it means that the moving object reaches the projection area 210 at the time when the moving object enters the surveillance area 250 and the projection system which senses it immediately changes the projector 110 to the safe mode.
  • FIG 3 is a view showing the configuration of a projection system of a mobile robot according to an embodiment of the present invention.
  • the projection system of the mobile robot includes a projector 310, a surveillance area setting unit 330, a moving object detecting unit 350, a blocking area setting unit 370, and a projector control unit 390.
  • the mobile robot may include a memory, a memory controller, one or more processing units (CPUs), a peripheral interface, a driver, a display, and an input device.
  • Such components may communicate via one or more communication buses or signal lines.
  • These various components may also be implemented in hardware, software or a combination of hardware and software, including one or more signal processing and / or application specific integrated circuits.
  • the memory may include fast random access memory, and may also include one or more magnetic disk storage devices, nonvolatile memory such as flash memory devices, or other nonvolatile semiconductor memory devices.
  • the memory is a storage device located remote from one or more processors, such as an RF circuit or an external port, the Internet, an intranet, a local area network (LAN), a wide area network (WLAN), and a storage area network (SAN). Network attached storage that is accessed through a communication network (not shown), such as, or a suitable combination thereof.
  • the CPU and peripheral interface, etc. access to the memory can be controlled by the memory controller.
  • the peripheral interface connects the input and output peripherals with the CPU and memory.
  • One or more processors execute a set of instructions stored in various software programs and / or memories to perform the projection functions of the mobile robot and process the data.
  • the display may use liquid crystal display (LCD) technology or light emitting polymer display (LPD) technology, and the display may be a touch display such as capacitive, resistive, or infrared type.
  • LCD liquid crystal display
  • LPD light emitting polymer display
  • the CPU is a processor configured to perform specific operations and to perform instructions, for example, to control the reception and manipulation of input and output data between components using instructions retrieved from memory.
  • the memory may be mounted (installed) with an operating system, a graphics module (instruction set) and a projection program (instruction set) as software components.
  • the operating system may be, for example, a built-in operating system such as Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS, or VxWorks, and may be a general system task (e.g., memory management, storage device control).
  • Various software components and / or devices for controlling and managing power management, etc. and facilitate communication between various hardware and software components.
  • the graphics module includes several well known software components for presenting and displaying graphics on the display.
  • graphics refers to any object that can be displayed to the user, including, without limitation, text, web pages, icons (eg, user interface objects including soft keys), digital images, videos, animations, and the like. Include.
  • the components shown in FIG. 3 may be implemented in software or hardware or a combination thereof.
  • the projector 310 outputs a beam of high brightness through the projection lens.
  • the beam output from the projector 310 forms a projection area and is projected onto a screen such as a screen.
  • a projector 310 includes both known projectors or next generation projectors.
  • the monitoring area setting unit 330 sets the monitoring area based on an environment variable where the mobile robot is used, a maximum speed of the moving object observed for a certain time in the environment, and Tu, a performance characteristic value of the projection system of the mobile robot. .
  • the environment variable may be set according to a user's input, and the maximum speed of the moving object may be determined based on the moving object detection result of the moving object detecting unit 350.
  • the characteristic value Tu can be determined by self test or can be set at the manufacturing stage.
  • the monitoring distance u of the surveillance region is the same as Equation 4, and may be set to a coordinate value on three-dimensional space coordinates, or may be set to a plane surrounding the blocking region.
  • the moving object detector 350 detects a moving object that is a moving object in the vicinity, including a laser distance sensor (LDS).
  • LDS laser distance sensor
  • two LDSs are used, and a sensing operation is performed at regular intervals.
  • the blocking area setting unit 370 calculates a moving direction, an average speed, and an average acceleration of the moving object based on the moving object detection result of the moving object detecting unit 350, and based on the moving direction, the average speed, and the average acceleration. As shown in Equation 3, a cutoff distance is calculated and a cutoff area according to the calculated cutoff distance is set.
  • the blocking area may be set to a coordinate value on three-dimensional space coordinates, or may be set to a plane surrounding the blocking area.
  • the projector controller 390 controls the blocking area setting unit 370 to set the blocking area when the moving object enters the monitoring area based on the detection result of the moving object detecting unit 350 and the monitoring area.
  • the projector controller 390 changes the projector 310 to the safe mode when the moving object reaches the blocking area based on the detection result of the moving object detecting unit 350 and the blocking area set by the blocking area setting unit 370. Let's do it.
  • the projector controller 390 changes the projector 310 from the safe mode to the projection mode when the moving object leaves the blocking area.
  • the projector controller 390 may display a "eye exposure to the beam" by TTS (TEXT TO SPEACH), motion, or the like before projection starts, after entering the safe mode, or before returning from the safe mode to the projection mode. And the user's eyesight becomes poor and his eyesight deteriorates. To avoid this, the screen is turned off when approaching the beam area, so do not access the screen during projection.
  • TTS TTS TO SPEACH
  • motion or the like
  • FIG. 4 is a flowchart illustrating a method of controlling a projector of a mobile robot according to an embodiment of the present invention.
  • the mobile robot starts a projection mode in which a beam is projected on a screen such as a screen after power supply (S401).
  • the beam thus forms a projection area in space.
  • the mobile robot sets a surveillance area surrounding the projection area (S403).
  • the mobile robot sets up a surveillance area based on an environment variable where the mobile robot is used, a maximum speed of the moving object observed for a certain time in the environment, and Tu, which is a performance characteristic value of the mobile robot.
  • the monitoring distance u of the surveillance region is the same as Equation 4, and may be set to a coordinate value on three-dimensional space coordinates, or may be set to a plane surrounding the blocking region.
  • the mobile robot detects a person, that is, a moving object, and calculates a moving direction, an average speed, and an average acceleration of the moving object based on the detection result of the moving object when the moving object enters the surveillance region.
  • the mobile robot calculates the blocking distance as shown in Equation 3 based on the movement direction, the average speed, and the average acceleration, and sets the blocking area according to the calculated blocking distance (S405).
  • the blocking area may be set as a coordinate value on three-dimensional space coordinates as a spatial area surrounding the projection area, or may be set as a plane surrounding the blocking area.
  • the mobile robot periodically monitors the moving object to determine whether the moving object reaches the blocking area (S407).
  • the mobile robot changes the projector to the safe mode (S409).
  • the mobile robot may output a black image through the projector, turn off the beam output of the projector, or set a weak beam intensity of the projector.
  • the mobile robot After changing to the safe mode, the mobile robot continuously monitors the moving object to determine whether the moving object leaves the blocking area (S411). If the moving object leaves the blocking area, the moving robot changes the projector back to the original projection mode (S413), otherwise it keeps the safe mode.
  • FIG. 5 is a view showing the configuration of a projection system of a mobile robot according to another embodiment of the present invention.
  • components having the same reference numerals as those shown in FIG. 3 include the same functions and operations, and thus descriptions thereof are omitted herein.
  • the projection system of the mobile robot further includes a service controller 510.
  • a service controller 510 When the projector is changed to a safe mode by a moving object while playing a streaming service such as VOD (Video On Demand) or a self-stored video, unreadable streaming data or video data may occur.
  • VOD Video On Demand
  • a self-stored video unreadable streaming data or video data may occur.
  • the service control unit 510 keeps the streaming service or image playback paused when the projector is changed to the safe mode, and plays back the streaming service or image playback again when the projector returns to the projection mode. play) state.
  • the service controller 510 rewinds the playback time point from the pause time point to a certain time earlier. Therefore, the user can be provided with a seamless service by reviving the memory of the past image.
  • the service controller 510 plays the image without rewinding the playback time, and rewinds the playback time only when the projector returns to the projection mode after the predetermined time T1. Can play the video.
  • FIG. 6 is a flowchart illustrating a projector control method of a mobile robot according to another embodiment of the present invention.
  • the mobile robot starts a projection mode in which a beam is projected on a screen such as a screen after power supply (S601).
  • the beam thus forms a projection area in space.
  • the mobile robot With the start of the projection mode, the mobile robot sets a surveillance area surrounding the projection area (S603).
  • the mobile robot sets up a surveillance area based on an environment variable where the mobile robot is used, a maximum speed of the moving object observed for a certain time in the environment, and Tu, which is a performance characteristic value of the mobile robot.
  • the monitoring distance u of the surveillance region is the same as Equation 4, and may be set to a coordinate value on three-dimensional space coordinates, or may be set to a plane surrounding the blocking region.
  • the mobile robot receives the image streaming data and projects the image onto a screen such as a screen through the projector (S605).
  • the mobile robot detects a person, that is, a moving object, calculates a moving direction, an average speed, and an average acceleration of the moving object based on the detection result of the moving object and enters the monitoring direction. Based on Equation 3, a cutoff distance is calculated and a cutoff area according to the calculated cutoff distance is set (S607).
  • the blocking area may be set to a coordinate value on three-dimensional space coordinates, or may be set to a plane surrounding the blocking area.
  • the mobile robot periodically monitors the moving object to determine whether the moving object reaches the blocking area (S609).
  • the mobile robot changes the projector to the safe mode (S611).
  • the mobile robot pauses the video streaming service at the same time (S613).
  • the mobile robot After changing to the safe mode, the mobile robot continuously monitors the moving object to determine whether the moving object leaves the blocking area (S615). When the moving object leaves the blocking area, the mobile robot changes the projector back to the original projection mode (S617), returns the image playback for a predetermined time from the streaming pause time, and restarts the streaming service (S619). Therefore, the user can be provided with a seamless service by reviving the memory of the past image.
  • the method of the present invention may be implemented as a program and stored in a recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.) in a computer-readable form.
  • a recording medium CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.

Abstract

프로젝션 기능을 실행할 때 어린이나 유아의 시력을 보호할 수 있는 로봇 및 로봇의 프로젝터 제어 방법이 개시된다. 시력 보호를 위한 로봇은 빔을 투사하는 프로젝터; 차단 영역을 설정하는 차단 영역 설정부; 및 상기 차단 영역에 이동체의 도달시 상기 프로젝터를 안전 모드로 변경시키는 프로젝터 제어부;를 포함하고, 상기 차단 영역 설정부는, 상기 빔의 투사 영역을 포위하는 차단 영역을 설정할 수 있다. 상기 차단 영역 설정부는, 상기 이동체의 움직임 방향 및 속도에 따라 차단 영역을 설정할 수 있다.

Description

프로젝션 기능을 갖는 로봇 및 로봇의 프로젝터 제어 방법
본 발명은 이동 가능한 서비스 로봇에 관한 것으로, 보다 구체적으로 프로젝터를 구비하는 이동 가능한 서비스 로봇에 관한 것이다.
본 발명은 2012년 12월 10일에 출원된 한국특허출원 제10-2012-0142705호에 기초한 우선권을 주장하며, 해당 출원의 명세서 및 도면에 개시된 모든 내용은 본 출원에 원용된다.
최근 가정용 서비스 로봇이 출시되고 있고, 이러한 가정용 서비스 로봇에는 프로젝션 시스템이 탑재되어 가정 내 실내 극장을 구현한다. 대표적으로 한국공개특허공보 제2010-0006311호를 들 수 있다.
상기 서비스 로봇의 안전 국제 표준은 현재 새로이 신설 중에 있으며 이에 대한 상위 표준으로 ISO 12100:2010에서는 기계류의 위험도 평가 및 위험도 감소에 대한 일반적인 개념과 절차를 규정하고 있다.
위 규정은 기계류 사용자를 위험으로부터 보다 잘 보호하기 위해 기계류 설계자와 제작자에게 가이드라인을 제공하고 있다. 그러나 프로젝션 시스템이 탑재되는 서비스 로봇의 시력 보호를 위한 가이드라인이 없는 실정이다.
서비스 로봇은 가정 내 어린이나 유아들을 대상으로 보급되고 있다. 서비스 로봇을 이용하여 프로젝션 기능을 실행하는 경우 호기심이 많은 어린이나 유아들이 빔의 투사 영역으로 진입할 가능성이 많다. 따라서 프로젝션 기능을 구비한 서비스 로봇에서 프로젝션 기능을 실행할 때 가정 내 어린이나 유아들의 시력 보호를 위한 가이드라인이 필요하다.
본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로, 프로젝션 기능을 실행할 때 어린이나 유아의 시력을 보호할 수 있는 로봇 및 로봇의 프로젝터 제어 방법을 제공하는데 그 목적이 있다.
본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기 목적을 달성하기 위한 본 발명의 일 측면에 따른 로봇은, 빔을 투사하는 프로젝터; 차단 영역을 설정하는 차단 영역 설정부; 및 상기 차단 영역에 이동체의 도달시 상기 프로젝터를 안전 모드로 변경시키는 프로젝터 제어부;를 포함한다.
상기 차단 영역 설정부는, 상기 빔의 투사 영역을 포위하는 차단 영역을 설정할 수 있다.
상기 차단 영역 설정부는, 상기 이동체의 움직임 방향 및 속도에 따라 차단 영역을 설정할 수 있다.
상기 차단 영역 설정부는, 감지 주기마다 차단 영역을 재설정할 수 있다.
상기 차단 영역 설정부는, 이동체의 감지에 따른 상기 프로젝터의 모드 변경 소요 시간과, 감지 주기의 합의 시간 동안, 상기 이동체가 상기 빔의 투사 영역에 대해 직교 방향으로 이동할 것으로 예상되는 거리를, 상기 차단 영역과 상기 빔의 투사 영역 사이의 직교 거리로 설정할 수 있다.
상기 프로젝션 제어부는, 상기 차단 영역으로부터 상기 이동체의 이탈시 상기 프로젝터를 프로젝션 모드로 복귀시킬 수 있다.
상기 로봇은 상기 빔의 투사 영역 및 상기 차단 영역을 포위하는 감시 영역을 설정하는 감시 영역 설정부;를 더 포함하고, 상기 차단 영역 설정부는, 상기 이동체의 상기 감시 영역으로의 진입 시점부터 상기 차단 영역을 설정할 수 있다.
상기 감시 영역 설정부는, 이동체의 감지에 따른 상기 프로젝터의 모드 변경 소요 시간과, 상기 이동체의 최고 속도에 기초하여 산출된 거리를, 상기 감시 영역과 상기 빔의 투사 영역 사이의 직교 거리로 설정할 수 있다.
상기 감시 영역 설정부는, 상기 산출된 거리에 이동 로봇의 사용 환경 변수를 반영할 수 있다.
상기 목적을 달성하기 위한 본 발명의 다른 측면에 따른 로봇에서 프로젝터를 제어하는 방법은, 프로젝터를 이용하여 빔을 투사하는 단계; 차단 영역을 설정하는 단계; 및 상기 차단 영역에 이동체의 도달시 상기 프로젝터를 안전 모드로 변경시키는 단계;를 포함한다.
상기 차단 영역을 설정하는 단계는, 상기 빔의 투사 영역을 포위하는 차단 영역을 설정할 수 있다.
상기 차단 영역을 설정하는 단계는, 상기 이동체의 움직임 방향 및 속도에 따라 차단 영역을 설정할 수 있다.
상기 차단 영역을 설정하는 단계는, 감지 주기마다 차단 영역을 재설정할 수 있다.
상기 차단 영역을 설정하는 단계는, 이동체의 감지에 따른 상기 프로젝터의 모드 변경 소요 시간과, 감지 주기의 합의 시간 동안, 상기 이동체가 상기 빔의 투사 영역에 대해 직교 방향으로 이동할 것으로 예상되는 거리를, 상기 차단 영역과 상기 빔의 투사 영역 사이의 직교 거리로 설정할 수 있다.
상기 방법은, 상기 차단 영역으로부터 상기 이동체의 이탈시 상기 프로젝터를 프로젝션 모드로 복귀시키는 단계;를 더 포함할 수 있다.
상기 방법은, 상기 차단 영역을 설정하는 단계 이전에, 상기 빔의 투사 영역 및 상기 차단 영역을 포위하는 감시 영역을 설정하는 단계;를 더 포함할 수 있다.
상기 감시 영역을 설정하는 단계는, 이동체의 감지에 따른 상기 프로젝터의 모드 변경 소요 시간과, 상기 이동체의 최고 속도에 기초하여 산출된 거리를, 상기 감시 영역과 상기 빔의 투사 영역 사이의 직교 거리로 설정할 수 있다.
상기 감시 영역을 설정하는 단계는, 상기 산출된 거리에 로봇의 사용 환경 변수를 반영할 수 있다.
본 발명은 가정 내에서 주로 사용되는 서비스 로봇으로 프로젝션 기능을 실행할 때 어린이나 유아가 투사 영역에 진입하기 전에 프로젝션 기능을 안전 모드로 전환시킴으로써 호기심 많은 어린이나 유아의 시력을 보호할 수 있다.
또한, 본 발명은 사람, 즉 이동체의 움직임 방향과 속도에 따라 차단 영역을 가변함으로써 빨리 움직이는 사람에 대해서도 시력을 보호할 수 있다.
도 1은 본 발명의 일 실시예에 따른 로봇의 프로젝션 모습을 좌표계로 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 투사 영역, 차단 영역 및 감시 영역을 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 로봇의 프로젝션 시스템의 구성을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 로봇의 프로젝터 제어 방법을 설명하는 흐름도이다.
도 5는 본 발명의 다른 실시예에 따른 로봇의 프로젝션 시스템의 구성을 나타낸 도면이다.
도 6은 본 발명의 다른 실시예에 따른 로봇의 프로젝터 제어 방법을 설명하는 흐름도이다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 로봇의 프로젝션 모습을 좌표계로 나타낸 도면이다.
도 1을 참조하면, 이동 로봇(130)은 프로젝터(110)를 구비하는 프로젝션 시스템을 포함하고, 상기 프로젝터(110)로부터 발산되는 빔은 스크린 등의 화면(120)에 투사된다.
도 1에 도시된 바와 같이, 프로젝터(110)로부터 발산되는 빔은 투사 영역을 형성하여 스크린 등의 화면(120)에 도달한다. 이때, 프로젝터(110)에서 출력되는 영상은 가로 a와 세로 b의 크기이고 그 비율과 동일한 비율로 확대되어 화면(120)에 투사된다. 프로젝터(110)와 스크린 등의 화면(120)은 L의 거리만큼 떨어져 있다. 그리고 프로젝터(110)는 지면으로부터 k의 높이에서 빔을 투사한다. 그리고 투사 영상의 하단은 지면으로부터 l의 높이를 갖는다.
프로젝터(110)와 화면(120) 사이의 빔은 하기의 [수학식1]을 만족하는 투사 영역을 점유한다.
수학식 1
Figure PCTKR2013006148-appb-M000001
Figure PCTKR2013006148-appb-I000001
Figure PCTKR2013006148-appb-I000002
상기 [수학식 1]의 첫 번째 수학식은, y 축 방향으로 마주보는 두 면(110, 120)으로부터 유도될 수 있고, 두 번째 수학식은 z 축 방향으로 마주보는 두 면으로부터 유도될 수 있으며, 세 번째 수학식은 x 축 방향으로 마주보는 두 면으로부터 유도될 수 있다.
상기 [수학식 1]을 만족하는 투사 영역으로 사람이 진입하여 사람의 눈에 빔이 비추어지면 사람의 시력에 악영향을 미치게 된다. 따라서 본 발명의 일 실시예에서는 투사 영역으로 접근하는 사람, 즉 이동체를 감지하여 프로젝터(110)를 안전 모드로 변경시키기 위해 감시 영역과 차단 영역을 설정한다. 차단 영역은 상기 투사 영역을 포위하여 감싸고 있고, 감시 영역은 상기 투사 영역을 감싸는 차단 영역을 포위하여 감싼다. 이를 도 2를 참조하여 구체적으로 설명한다.
도 2는 본 발명의 일 실시예에 따른 투사 영역, 차단 영역 및 감시 영역을 나타낸 도면이다.
도 2를 참조하면, 프로젝터(110)로부터 투사된 빔은 투사 영역을 형성한다(210). 그리고 투사 영역(210)을 포위하여 감싸는 차단 영역(230)이 설정된다. 이때 투사 영역(210)과 차단 영역(230)은 평행할 수 있고, 투사 영역(210)으로부터 차단 영역(230)으로부터 직교 거리는 c이다. 차단 영역(230)은 고정될 수 있고, 또는 이동체의 움직임 방향 및 속도에 따라 설정될 수 있고 일정한 주기로 이동체를 감지하는 경우 그 감지 주기마다 변경될 수 있다.
사람, 즉 이동체가 차단 영역(230)에 도달한 경우 프로젝터(110)는 안전 모드로 변경된다. 여기서 안전 모드는 프로젝터(110)를 오프하거나 프로젝터(110)에서 출력되는 영상을 블랙 화면으로 하는 경우 또는 광량을 줄이는 것 등을 포함한다.
또한, 도 2에 도시된 바와 같이, 차단 영역(230)을 포위하여 감싸는 감시 영역(250)이 설정될 수 있다. 그리고 이동체가 감시 영역(250)으로 진입하는 시점에 상기 차단 영역의 설정이 이루어질 수 있고, 그 감시 영역(250) 내에서 이동체가 움직일 때 일정한 감지 주기로 이동체의 움직임 방향과 속도에 따라 차단 영역을 변경시킬 수 있다. 감시 영역(250)과 투사 영역(210) 사이의 직교 거리는 u이고, 그 직교 거리 u는 프로젝션 시스템의 특성값으로 정의될 수 있다. 즉, 프로젝션 시스템이 이동체를 감지하고 즉시 안전 모드로 변경하는데 소요되는 시간에 기초하여 결정될 수 있다. 이에 관해서는 후술한다.
도 2를 참조한 실시예에서는 차단 영역(230)을 포위하는 감시 영역(250)을 포함하는 것으로 설명하였으나, 감시 영역(250)을 설정하지 않고, 차단 영역(230)만을 설정하여 프로젝터(110)를 제어할 수 있다. 차단 영역(230)을 고정시킬 수 있다. 또는 이동체의 움직임 방향 및 속도에 따라 차단 영역(230)을 설정하여 프로젝터(110)를 제어할 수도 있다. 즉 이동체의 움직임이 처음 감지되는 순간부터 차단 영역(230)을 설정하고 이후 이동체의 움직임 방향 및 속도에 따라 차단 영역(230)을 가변한 후 이동체가 차단 영역(230)에 진입하는 순간 프로젝터(110)를 안전 모드로 변경할 수 있다.
이하에서는 차단 영역(230)을 설정하는 방법 및 감시 영역(250)을 설정하는 방법의 예를 설명한다. 이에 앞서, 다음의 파라미터 및 용어를 정의한다.
c : 투사 영역(210)으로부터 차단 영역(230)까지의 직교 거리
u : 투사 영역(210)으로부터 감시 영역(250)까지의 직교 거리
Tu : 이동 로봇에 탑재되는 프로젝션 시스템의 특성값으로, 프로젝션 시스템이 이동체를 감지하고 즉시 프로젝터를 안전 모드로 진입하는데 소요하는 시간으로 시스템의 동작 지연 특성이 반영된 시간임.
Vmax : 이동체의 최고 속도
α : 이동 로봇이 사용되는 환경의 변수(예, 집, 사무실, 학원 등)로서 0에서 1 사이의 값.
Δt : 이동 로봇의 프로젝션 시스템에서 이동체를 감지하는 감지 주기(다른 표현으로 관측 주기).
차단 영역의 설정
이동체의 평균 속도를 측정할 수 있는 가장 짧은 시간 간격을 tm=m*Δt라 한다. 그리고 이동체가 처음으로 t1 시간에
Figure PCTKR2013006148-appb-I000003
의 지점에서 감지된다. 이어서 상기 시간 tm이 지난 후 감지된 이동체의 위치가
Figure PCTKR2013006148-appb-I000004
라 할 때, 이동체의 평균 속도는
Figure PCTKR2013006148-appb-I000005
이 된다. 그리고 이동체의 평균 가속도는 이다. 여기서
Figure PCTKR2013006148-appb-I000007
는 각 시간의 Δt 안에서 관측되는 순간 속도이다. 따라서 이동체의 위치 벡터는 다음 [수학식 2]와 같이 나타낼 수 있다. 이동체의 위치 벡터는 매 감지 주기마다 계산될 수 있다.
수학식 2
Figure PCTKR2013006148-appb-M000002
그리고 전술한 바와 같이 프로젝션 시스템이 이동체를 감지하고 즉시 프로젝터를 안전 모드로 진입시키는데 소요되는 시간은 Tu이다. 이 시간은 프로젝션 시스템의 성능에 좌우되는 특성값이다. 따라서 투사 영역(210)으로부터 차단 영역(230)까지의 직교 거리(차단 거리라고도 함) c는 다음 [수학식 3]과 같다. 여기서
Figure PCTKR2013006148-appb-I000008
는 이동체의 위치 벡터의 투사 영역(210)으로의 정사영 속도 벡터이고
Figure PCTKR2013006148-appb-I000009
는 정사영 가속도 벡터이다.
수학식 3
Figure PCTKR2013006148-appb-M000003
본 실시예에서는 직교 거리 c를 상기 [수학식 3]과 같이 정의하지만, 이는 최소 거리로서 이보다 더 커도 무방하다.
상기 [수학식 3]의 의미는 다음과 같다. 즉, 현재 시점에서 이동체가 현재의 속도와 가속도로 이동할 경우 감지 주기에 Tu를 더한 시간 후에는 투사 영역(210)에 도달한다는 것을 가정하여, 직교 거리 c의 최소 값을 상기 [수학식 3]의 값으로 한다는 것을 의미한다. 직교 거리 c의 최소 값을 상기 [수학식 3]으로 결정한 후 이동체가 실제로 차단 영역(230)에 진입하였다면, 감지 주기에 Tu를 더한 시간 후에는 투사 영역(210)에 도달한다는 것을 의미한다. 이동체가 투사 영역(210)에 도달하는 순간 프로젝터(110)는 안전 모드로 변경되어 있다. 따라서 직교 거리 c를 상기 [수학식 3]의 값 보다 크게 설정하는 경우, 이동체가 차단 영역(230)을 지나 투사 영역(210)에 도달하기 전에 이미 프로젝터(110)는 안전 모드로 변경되어 있다.
감시 영역의 설정
투사 영역(210)으로부터 감시 영역(250)까지의 직교 거리, 즉 감시 거리 u는 다음과 같다. 즉, 이동 로봇이 사용될 것으로 예상되는 곳의 환경 변수(집, 사무실, 학원 등)를 α(≤1)라 하고, 해당 환경에서 일정한 시간 동안 관측된 이동체의 최고 속도를 Vmax라 할 때, 상기 감시 거리 u는 다음 [수학식 4]와 같다. 하기 [수학식 4]의 값은 감시 거리의 최소 값으로 이보다 더 클 수 있다.
수학식 4
Figure PCTKR2013006148-appb-M000004
상기 [수학식 4]의 의미는 α를 0.5로 가정하였을 때 다음과 같다. 현재 시점에서 이동체가 감시 영역(250)에 진입하였고 이후 최고 속도로 이동할 경우 Tu 시간 후에는 투사 영역(210)에 도달한다는 것을 가정한다. 다시 말하면, 이동체가 감시 영역(250)에 진입하였고 이를 감지한 프로젝션 시스템이 프로젝터(110)을 즉시 안전 모드로 변경 완료하는 시점에 이동체가 투사 영역(210)에 도달한다는 것을 의미한다.
도 3은 본 발명의 일 실시예에 따른 이동 로봇의 프로젝션 시스템의 구성을 나타낸 도면이다.
도 3을 참조하면, 이동 로봇의 프로젝션 시스템은, 프로젝터(310), 감시 영역 설정부(330), 이동체 감지부(350), 차단 영역 설정부(370) 및 프로젝터 제어부(390)를 포함한다.
도 3에 도시하지 않았지만, 이동 로봇은, 메모리, 메모리 제어기, 하나 이상의 처리 장치(CPU), 주변 인터페이스, 구동부, 디스플레이 및 입력 장치를 포함할 수 있다. 이러한 구성요소는 하나 이상의 통신 버스 또는 신호선을 통하여 통신할 수 있다. 또한 이러한 여러 구성요소는 하나 이상의 신호 처리 및/또는 애플리케이션 전용 집적 회로(application specific integrated circuit)를 포함하여, 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어 둘의 조합으로 구현될 수 있다.
메모리는 고속 랜덤 액세스 메모리를 포함할 수 있고, 또한 하나 이상의 자기 디스크 저장 장치, 플래시 메모리 장치와 같은 불휘발성 메모리, 또는 다른 불휘발성 반도체 메모리 장치를 포함할 수 있다. 일부 실시예에서, 메모리는 하나 이상의 처리기로부터 멀리 떨어져 위치하는 저장 장치, 예를 들어 RF 회로 또는 외부 포트와, 인터넷, 인트라넷, LAN(Local Area Network), WLAN(Wide LAN), SAN(Storage Area Network) 등, 또는 이들의 적절합 조합과 같은 통신 네트워크(도시하지 않음)를 통하여 액세스되는 네트워크 부착형(attached) 저장 장치를 더 포함할 수 있다. CPU 및 주변 인터페이스 등이 메모리로 액세스하는 것은 메모리 제어기에 의하여 제어될 수 있다.
주변 인터페이스는 입출력 주변 장치를 CPU 및 메모리와 연결시킨다. 하나 이상의 처리기는 다양한 소프트웨어 프로그램 및/또는 메모리에 저장되어 있는 명령어 세트를 실행하여 이동 로봇의 프로젝션 기능을 수행하고 데이터를 처리한다.
디스플레이는 LCD(liquid crystal display) 기술 또는 LPD(light emitting polymer display) 기술을 사용할 수 있고, 이러한 디스플레이는 용량형, 저항형, 적외선형 등의 터치 디스플레이일 수 있다.
CPU는 특정 동작을 수행하고 명령어들을 수행하도록 구성된 프로세서로서, 예를 들어, 메모리로부터 검색된 명령어들을 이용하여 구성요소 간의 입력 및 출력 데이터의 수신과 조작을 제어할 수 있다.
메모리에는 소프트웨어 구성요소로서 운영 체제, 그래픽 모듈(명령어 세트) 및 프로젝션 프로그램(명령어 세트)이 탑재(설치)될 수 있다. 운영 체제는, 예를 들어, 다윈(Darwin), RTXC, LINUX, UNIX, OS X, WINDOWS 또는 VxWorks와 같은 내장 운영체제일 수 있고, 일반적인 시스템 태스크(task)(예를 들어, 메모리 관리, 저장 장치 제어, 전력 관리 등)를 제어 및 관리하는 다양한 소프트웨어 구성요소 및/또는 장치를 포함하고, 다양한 하드웨어와 소프트웨어 구성요소 사이의 통신을 촉진시킨다.
그래픽 모듈은 디스플레이 상에 그래픽을 제공하고 표시하기 위한 주지의 여러 소프트웨어 구성요소를 포함한다. "그래픽(graphics)"이란 용어는 텍스트, 웹 페이지, 아이콘(예컨대, 소프트 키를 포함하는 사용자 인터페이스 대상), 디지털 이미지, 비디오, 애니메이션 등을 제한 없이 포함하여, 사용자에게 표시될 수 있는 모든 대상을 포함한다.
도 3에 도시된 구성요소는 소프트웨어 또는 하드웨어 또는 이들의 조합으로 구현될 수 있다.
프로젝터(310)는 고휘도의 빔을 투사 렌즈를 통해 출력한다. 프로젝터(310)로부터 출력되는 빔은 투사 영역을 형성하여 스크린 등의 화면에 투사된다. 이러한 프로젝터(310)는 주지의 프로젝터 또는 차세대 프로젝터를 모두 포함한다.
감시 영역 설정부(330)는 이동 로봇이 사용되는 곳의 환경 변수, 해당 환경에서 일정한 시간 동안 관측된 이동체의 최고 속도 그리고 이동 로봇의 프로젝션 시스템의 성능 특성값인 Tu에 기초하여 감시 영역을 설정한다. 여기서 환경 변수는 사용자의 입력에 따라 설정될 수 있고, 이동체의 최고 속도는 이동체 감지부(350)에서의 이동체 감지 결과에 기초하여 결정될 수 있다. 그리고 상기 특성값 Tu는 자체 테스트에 의해 결정될 수 있거나, 제조 단계에서 설정될 수 있다. 감시 영역의 감시 거리 u는 상기 [수학식 4]와 같고, 3차원 공간 좌표 상의 좌표 값으로 설정될 수 있거나, 또는 차단 영역을 둘러싸는 평면으로 설정될 수도 있다.
이동체 감지부(350)는 LDS(Laser Distance Sensor)를 포함하여 주변의 이동하는 물체인 이동체를 감지한다. 바람직하게 두 개의 LDS를 이용하고, 일정한 주기로 감지 동작을 수행한다.
차단 영역 설정부(370)는 상기 이동체 감지부(350)에서의 이동체 감지 결과에 기초하여 이동체의 움직임 방향, 평균 속도 및 평균 가속도를 계산하고 그 움직임 방향, 평균 속도 및 평균 가속도에 기초하여 상기 [수학식 3]과 같이 차단 거리를 산출하고 그 산출된 차단 거리에 따른 차단 영역을 설정한다. 차단 영역은 3차원 공간 좌표 상의 좌표 값으로 설정될 수 있거나, 또는 차단 영역을 둘러싸는 평면으로 설정될 수도 있다.
프로젝터 제어부(390)는 상기 이동체 감지부(350)의 감지 결과 그리고 상기 감시 영역에 기초하여 이동체가 감시 영역에 진입한 경우 상기 차단 영역 설정부(370)를 제어하여 차단 영역을 설정하도록 한다.
또한 프로젝터 제어부(390)는 상기 이동체 감지부(350)의 감지 결과와 상기 차단 영역 설정부(370)에서 설정된 차단 영역에 기초하여 이동체가 차단 영역에 도달하는 경우 프로젝터(310)를 안전 모드로 변경시킨다. 프로젝터 제어부(390)는 이동체가 차단 영역을 벗어나는 경우 상기 프로젝터(310)를 안전 모드에서 프로젝션 모드로 변경한다.
또한, 프로젝터 제어부(390)는 프로젝션이 시작되기 전, 또는 안전 모드 진입 후, 또는 안전 모드에서 프로젝션 모드로 복귀하기 전에, TTS(TEXT TO SPEACH) 또는 모션 등으로 사용자에게 "빔에 눈이 노출되면, 아프고 시력이 나빠지게 되며, 이를 방지하기 위해 빔 영역에 근접할 때, 화면을 오프시키므로 프로젝션 중에 화면에 접근하지 마세요"와 같은 사용자 정보를 제공할 수 있다.
도 4는 본 발명의 일 실시예에 따른 이동 로봇의 프로젝터 제어 방법을 설명하는 흐름도이다.
도 4를 참조하면, 이동 로봇은 전원 공급 후 스크린 등의 화면에 빔을 투사하는 프로젝션 모드를 시작한다(S401). 따라서 빔은 공간상에 투사 영역을 형성한다.
프로젝션 모드의 시작과 함께 이동 로봇은 상기 투사 영역을 포위하는 감시 영역을 설정한다(S403). 이동 로봇은 이동 로봇이 사용되는 곳의 환경 변수, 해당 환경에서 일정한 시간 동안 관측된 이동체의 최고 속도 그리고 이동 로봇의 성능 특성값인 Tu에 기초하여 감시 영역을 설정한다. 감시 영역의 감시 거리 u는 상기 [수학식 4]와 같고, 3차원 공간 좌표 상의 좌표 값으로 설정될 수 있거나, 또는 차단 영역을 둘러싸는 평면으로 설정될 수도 있다.
이어서 이동 로봇은 사람, 즉 이동체를 감지하여 해당 이동체가 상기 감시 영역에 진입하는 경우 이동체 감지 결과에 기초하여 이동체의 움직임 방향, 평균 속도 및 평균 가속도를 계산한다. 그리고 이동 로봇은 그 움직임 방향, 평균 속도 및 평균 가속도에 기초하여 상기 [수학식 3]과 같이 차단 거리를 산출하고 그 산출된 차단 거리에 따른 차단 영역을 설정한다(S405). 차단 영역은 투사 영역을 포위하는 공간상의 영역으로 3차원 공간 좌표 상의 좌표 값으로 설정될 수 있거나, 또는 차단 영역을 둘러싸는 평면으로 설정될 수도 있다.
그리고, 이동 로봇은 이동체를 주기적으로 감시하여 해당 이동체가 상기 차단 영역에 도달하는지 판단한다(S407). 이동체가 차단 영역에 도달하는 경우, 이동 로봇은 프로젝터를 안전 모드로 변경시킨다(S409). 구체적으로, 이동 로봇은 프로젝터를 통해 블랙 영상이 출력되도록 하거나, 또는 프로젝터의 빔 출력을 오프시키거나, 또는 프로젝터의 빔 강도를 약하게 설정할 수 있다.
안전 모드로 변경 후, 이동 로봇은 이동체를 계속 감시하여 해당 이동체가 상기 차단 영역을 이탈하는지 판단한다(S411). 이동체가 차단 영역을 이탈하는 경우, 이동 로봇은 프로젝터를 다시 원래의 프로젝션 모드로 변경하고(S413), 그렇지 않으면 안전 모드를 계속 유지한다.
도 5는 본 발명의 다른 실시예에 따른 이동 로봇의 프로젝션 시스템의 구성을 나타낸 도면이다. 도 5에 있어서 도 3에 도시된 구성요소와 동일한 참조부호의 구성요소는 동일한 기능 및 동작을 포함하므로 여기서는 설명을 생략한다.
도 5를 참조하면, 이동 로봇의 프로젝션 시스템은 서비스 제어부(510)를 더 포함한다. VOD(Video On Demand)와 같은 스트리밍 서비스 또는 자체 저장된 영상을 재생하는 중에 이동체에 의해 프로젝터를 안전 모드로 변경시키는 경우 가독되지 않은 스트리밍 데이터 또는 영상 데이터가 발생할 수 있다.
따라서 서비스 제어부(510)는, 프로젝터가 안전 모드로 변경될 때 스트리밍 서비스 또는 영상 재생을 일시 중지(pause) 상태로 유지하고, 프로젝터가 다시 프로젝션 모드로 복귀될 때 스트리밍 서비스 또는 영상 재생을 다시 플레이(play) 상태로 변경한다. 이때 서비스 제어부(510)는 상기 일시 중지 시점으로부터 일정한 시간 이전으로 재생 시점을 리와인드(rewind)한다. 따라서 사용자는 과거 영상에 대한 기억을 되살려 끊김없는 서비스를 제공받을 수 있게 된다.
서비스 제어부(510)는 프로젝터가 안전 모드로 변경된 후 일정한 시간 T1 내에 프로젝션 모드로 돌아오는 경우 재생 시점의 리와인드 없이 영상을 재생하고, 상기 일정한 시간 T1 이후에 프로젝션 모드로 돌아오는 경우에만 재생 시점의 리와인드를 하여 영상을 재생할 수 있다.
도 6은 본 발명의 다른 실시예에 따른 이동 로봇의 프로젝터 제어 방법을 설명하는 흐름도이다.
도 6을 참조하면, 이동 로봇은 전원 공급 후 스크린 등의 화면에 빔을 투사하는 프로젝션 모드를 시작한다(S601). 따라서 빔은 공간상에 투사 영역을 형성한다.
프로젝션 모드의 시작과 함께 이동 로봇은 상기 투사 영역을 포위하는 감시 영역을 설정한다(S603). 이동 로봇은 이동 로봇이 사용되는 곳의 환경 변수, 해당 환경에서 일정한 시간 동안 관측된 이동체의 최고 속도 그리고 이동 로봇의 성능 특성값인 Tu에 기초하여 감시 영역을 설정한다. 감시 영역의 감시 거리 u는 상기 [수학식 4]와 같고, 3차원 공간 좌표 상의 좌표 값으로 설정될 수 있거나, 또는 차단 영역을 둘러싸는 평면으로 설정될 수도 있다.
이동 로봇은 영상 스트리밍 데이터를 수신하고 프로젝터를 통해 영상을 스크린 등의 화면에 투사한다(S605).
그리고 이동 로봇은 사람, 즉 이동체를 감지하여 해당 이동체가 상기 감시 영역에 진입하는 경우 이동체 감지 결과에 기초하여 이동체의 움직임 방향, 평균 속도 및 평균 가속도를 계산하고 그 움직임 방향, 평균 속도 및 평균 가속도에 기초하여 상기 [수학식 3]과 같이 차단 거리를 산출하고 그 산출된 차단 거리에 따른 차단 영역을 설정한다(S607). 차단 영역은 3차원 공간 좌표 상의 좌표 값으로 설정될 수 있거나, 또는 차단 영역을 둘러싸는 평면으로 설정될 수도 있다.
그리고, 이동 로봇은 이동체를 주기적으로 감시하여 해당 이동체가 상기 차단 영역에 도달하는지 판단한다(S609). 이동체가 차단 영역에 도달하는 경우, 이동 로봇은 프로젝터를 안전 모드로 변경시킨다(S611). 그리고 이동 로봇은 동시에 영상 스트리밍 서비스를 일시 중지한다(S613).
안전 모드로 변경 후, 이동 로봇은 이동체를 계속 감시하여 해당 이동체가 상기 차단 영역을 이탈하는지 판단한다(S615). 이동체가 차단 영역을 이탈하는 경우, 이동 로봇은 프로젝터를 다시 원래의 프로젝션 모드로 변경하고(S617), 스트리밍 일시 중지 시점으로부터 일정한 시간만큼 영상 재생을 되돌림한 후 스트리밍 서비스를 재시작한다(S619). 따라서 사용자는 과거 영상에 대한 기억을 되살려 끊김없는 서비스를 제공받을 수 있게 된다.
상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다.
본 명세서는 많은 특징을 포함하는 반면, 그러한 특징은 본 발명의 범위 또는 특허청구범위를 제한하는 것으로 해석되어서는 아니된다. 또한, 본 명세서에서 개별적인 실시예에서 설명된 특징들은 단일 실시예에서 결합되어 구현될 수 있다. 반대로, 본 명세서에서 단일 실시예에서 설명된 다양한 특징들은 개별적으로 다양한 실시예에서 구현되거나, 적절한 부결합(subcombination)에서 구현될 수 있다.
아울러, 상술한 실시예에서 다양한 시스템 구성요소의 구분은 모든 실시예에서 그러한 구분을 요구하지 않는 것으로 이해되어야 한다. 상술한 프로그램 구성요소 및 시스템은 일반적으로 단일 소프트웨어 제품 또는 멀티플 소프트웨어 제품에 패키지로 구현될 수 있다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.

Claims (18)

  1. 시력 보호를 위한 로봇으로서,
    빔을 투사하는 프로젝터;
    차단 영역을 설정하는 차단 영역 설정부; 및
    상기 차단 영역에 이동체의 도달시 상기 프로젝터를 안전 모드로 변경시키는 프로젝터 제어부;를 포함하는 로봇.
  2. 제 1 항에 있어서,
    상기 차단 영역 설정부는,
    상기 빔의 투사 영역을 포위하는 차단 영역을 설정하는 것을 특징으로 하는 로봇.
  3. 제 1 항에 있어서,
    상기 차단 영역 설정부는,
    상기 이동체의 움직임 방향 및 속도에 따라 차단 영역을 설정하는 것을 특징으로 하는 로봇.
  4. 제 3 항에 있어서,
    상기 차단 영역 설정부는,
    감지 주기마다 차단 영역을 재설정하는 것을 특징으로 하는 로봇.
  5. 제 3 항에 있어서,
    상기 차단 영역 설정부는,
    이동체의 감지에 따른 상기 프로젝터의 모드 변경 소요 시간과, 감지 주기의 합의 시간 동안, 상기 이동체가 상기 빔의 투사 영역에 대해 직교 방향으로 이동할 것으로 예상되는 거리를, 상기 차단 영역과 상기 빔의 투사 영역 사이의 직교 거리로 설정하는 것을 특징으로 하는 로봇.
  6. 제 1 항에 있어서,
    상기 프로젝션 제어부는,
    상기 차단 영역으로부터 상기 이동체의 이탈시 상기 프로젝터를 프로젝션 모드로 복귀시키는 것을 특징으로 하는 로봇.
  7. 제 1 항에 있어서,
    상기 빔의 투사 영역 및 상기 차단 영역을 포위하는 감시 영역을 설정하는 감시 영역 설정부;를 더 포함하고,
    상기 차단 영역 설정부는,
    상기 이동체의 상기 감시 영역으로의 진입 시점부터 상기 차단 영역을 설정하는 것을 특징으로 하는 로봇.
  8. 제 7 항에 있어서,
    상기 감시 영역 설정부는,
    이동체의 감지에 따른 상기 프로젝터의 모드 변경 소요 시간과, 상기 이동체의 최고 속도에 기초하여 산출된 거리를, 상기 감시 영역과 상기 빔의 투사 영역 사이의 직교 거리로 설정하는 것을 특징으로 하는 로봇.
  9. 제 8 항에 있어서,
    상기 감시 영역 설정부는,
    상기 산출된 거리에 로봇의 사용 환경 변수를 반영하는 것을 특징으로 하는 프로젝션 시스템.
  10. 로봇에서 프로젝터를 제어하는 방법으로서,
    프로젝터를 이용하여 빔을 투사하는 단계;
    차단 영역을 설정하는 단계; 및
    상기 차단 영역에 이동체의 도달시 상기 프로젝터를 안전 모드로 변경시키는 단계;를 포함하는 로봇의 프로젝터 제어 방법.
  11. 제 10 항에 있어서,
    상기 차단 영역을 설정하는 단계는,
    상기 빔의 투사 영역을 포위하는 차단 영역을 설정하는 것을 특징으로 하는 로봇의 프로젝터 제어 방법.
  12. 제 10 항에 있어서,
    상기 차단 영역을 설정하는 단계는,
    상기 이동체의 움직임 방향 및 속도에 따라 차단 영역을 설정하는 것을 특징으로 하는 로봇의 프로젝터 제어 방법.
  13. 제 12 항에 있어서,
    상기 차단 영역을 설정하는 단계는,
    감지 주기마다 차단 영역을 재설정하는 것을 특징으로 하는 로봇의 프로젝터 제어 방법.
  14. 제 12 항에 있어서,
    상기 차단 영역을 설정하는 단계는,
    이동체의 감지에 따른 상기 프로젝터의 모드 변경 소요 시간과, 감지 주기의 합의 시간 동안, 상기 이동체가 상기 빔의 투사 영역에 대해 직교 방향으로 이동할 것으로 예상되는 거리를, 상기 차단 영역과 상기 빔의 투사 영역 사이의 직교 거리로 설정하는 것을 특징으로 하는 로봇의 프로젝터 제어 방법.
  15. 제 10 항에 있어서,
    상기 차단 영역으로부터 상기 이동체의 이탈시 상기 프로젝터를 프로젝션 모드로 복귀시키는 단계;를 더 포함하는 것을 특징으로 하는 로봇의 프로젝터 제어 방법.
  16. 제 10 항에 있어서,
    상기 차단 영역을 설정하는 단계 이전에,
    상기 빔의 투사 영역 및 상기 차단 영역을 포위하는 감시 영역을 설정하는 단계;를 더 포함하는 것을 특징으로 하는 로봇의 프로젝터 제어 방법.
  17. 제 16 항에 있어서,
    상기 감시 영역을 설정하는 단계는,
    이동체의 감지에 따른 상기 프로젝터의 모드 변경 소요 시간과, 상기 이동체의 최고 속도에 기초하여 산출된 거리를, 상기 감시 영역과 상기 빔의 투사 영역 사이의 직교 거리로 설정하는 것을 특징으로 하는 로봇의 프로젝터 제어 방법.
  18. 제 17 항에 있어서,
    상기 감시 영역을 설정하는 단계는,
    상기 산출된 거리에 로봇의 사용 환경 변수를 반영하는 것을 특징으로 하는 로봇의 프로젝터 제어 방법.
PCT/KR2013/006148 2012-12-10 2013-07-10 프로젝션 기능을 갖는 로봇 및 로봇의 프로젝터 제어 방법 WO2014092272A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0142705 2012-12-10
KR1020120142705A KR101515179B1 (ko) 2012-12-10 2012-12-10 프로젝션 기능을 갖는 로봇 및 로봇의 프로젝터 제어 방법

Publications (1)

Publication Number Publication Date
WO2014092272A1 true WO2014092272A1 (ko) 2014-06-19

Family

ID=50934536

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/006148 WO2014092272A1 (ko) 2012-12-10 2013-07-10 프로젝션 기능을 갖는 로봇 및 로봇의 프로젝터 제어 방법

Country Status (2)

Country Link
KR (1) KR101515179B1 (ko)
WO (1) WO2014092272A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016018372A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. White flash generation from a light emitting diode (led) projector
CN115086627A (zh) * 2022-06-06 2022-09-20 岚图汽车科技有限公司 投影仪控制方法及装置、车辆

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102182087B1 (ko) * 2014-07-15 2020-11-23 엘지전자 주식회사 로봇 청소기의 정보표시장치
CN106239529A (zh) * 2016-09-06 2016-12-21 安庆建金智能科技有限公司 一种具有投影装置的智能机器人装置
CN108582104B (zh) * 2018-07-18 2021-03-30 何战涛 一种智能交互仪
KR20200055819A (ko) * 2018-11-08 2020-05-22 현대자동차주식회사 서비스 로봇 및 그의 운용 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR980007611A (ko) * 1996-06-11 1998-03-30 구자홍 투사형 디스플레이 장치
JP2002006397A (ja) * 2000-06-22 2002-01-09 Sony Corp 画像表示装置
JP2004070298A (ja) * 2002-06-10 2004-03-04 Sony Corp 画像投射装置及び画像投射方法
JP2006330447A (ja) * 2005-05-27 2006-12-07 Mitsubishi Electric Corp フロントプロジェクタ装置
JP4978260B2 (ja) * 2007-03-23 2012-07-18 セイコーエプソン株式会社 リモコン装置、プロジェクタシステム、及びリモコン装置の制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR980007611A (ko) * 1996-06-11 1998-03-30 구자홍 투사형 디스플레이 장치
JP2002006397A (ja) * 2000-06-22 2002-01-09 Sony Corp 画像表示装置
JP2004070298A (ja) * 2002-06-10 2004-03-04 Sony Corp 画像投射装置及び画像投射方法
JP2006330447A (ja) * 2005-05-27 2006-12-07 Mitsubishi Electric Corp フロントプロジェクタ装置
JP4978260B2 (ja) * 2007-03-23 2012-07-18 セイコーエプソン株式会社 リモコン装置、プロジェクタシステム、及びリモコン装置の制御方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016018372A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. White flash generation from a light emitting diode (led) projector
CN115086627A (zh) * 2022-06-06 2022-09-20 岚图汽车科技有限公司 投影仪控制方法及装置、车辆
CN115086627B (zh) * 2022-06-06 2023-05-30 岚图汽车科技有限公司 投影仪控制方法及装置、车辆

Also Published As

Publication number Publication date
KR20140074588A (ko) 2014-06-18
KR101515179B1 (ko) 2015-04-24

Similar Documents

Publication Publication Date Title
WO2014092272A1 (ko) 프로젝션 기능을 갖는 로봇 및 로봇의 프로젝터 제어 방법
AU2014297039B2 (en) Auto-cleaning system, cleaning robot and method of controlling the cleaning robot
WO2017065535A1 (ko) 전자 장치 및 그 제어 방법
WO2019182374A1 (en) System and method for utilizing gaze tracking and focal point tracking
WO2014042458A1 (en) Apparatus and method of providing user interface on head mounted display and head mounted display thereof
WO2018070751A1 (en) Electronic device having a plurality of displays and operating method thereof
WO2012077922A2 (en) 3 dimensional (3d) display system of responding to user motion and user interface for the 3d display system
WO2014148673A1 (en) 3d display device and method for controlling the same
WO2016137294A1 (en) Electronic device and control method thereof
JP5974189B2 (ja) 投写型映像表示装置及び投写型映像表示方法
WO2019151817A1 (en) Apparatus and method for tracking a focal point in a head mounted display system
WO2017150815A1 (ko) 디스플레이의 밝기를 제어하는 방법, 전자 장치 및 컴퓨터 판독가능 기록매체
WO2016060458A1 (en) Remote controller apparatus and control method thereof
WO2019074243A1 (en) DISPLAY DEVICE, USER TERMINAL DEVICE, DISPLAY SYSTEM COMPRISING THE SAME, AND ASSOCIATED COMAND METHOD
WO2022250300A1 (en) A method and an electronic apparatus for acquiring a floor map of a room layout
WO2021080290A1 (en) Electronic apparatus and control method thereof
WO2017065556A1 (ko) 영상 투사 장치, 그의 투사 영역 확장 방법 및 비일시적 컴퓨터 판독가능 기록매체
WO2016088922A1 (ko) 모바일 디바이스 및 웨어러블 디바이스를 이용한 인터페이스 제공 방법
WO2016047824A1 (ko) 화상 정보 영사 장치 및 그 영사 장치의 제어 방법
WO2019143122A1 (ko) 디스플레이 장치, 디스플레이 시스템 및 그 제어방법
WO2016122153A1 (en) Display apparatus and control method thereof
WO2020085821A1 (ko) 헤드 마운트 디스플레이에 연결된 스마트 단말 및 이를 위한 제어 방법
KR20120116076A (ko) 디스플레이장치 및 그 제어방법
WO2015099215A1 (ko) 헤드 마운트 디스플레이 장치 및 그 동작방법
WO2020204594A1 (ko) 가상 현실 장치 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13863043

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A SENT 20.11.15)

122 Ep: pct application non-entry in european phase

Ref document number: 13863043

Country of ref document: EP

Kind code of ref document: A1