WO2013094821A1 - 원격 제어 방법, 시스템 및 원격 제어 사용자 인터페이스 - Google Patents

원격 제어 방법, 시스템 및 원격 제어 사용자 인터페이스 Download PDF

Info

Publication number
WO2013094821A1
WO2013094821A1 PCT/KR2012/001538 KR2012001538W WO2013094821A1 WO 2013094821 A1 WO2013094821 A1 WO 2013094821A1 KR 2012001538 W KR2012001538 W KR 2012001538W WO 2013094821 A1 WO2013094821 A1 WO 2013094821A1
Authority
WO
WIPO (PCT)
Prior art keywords
control
touch
setting
target terminal
moving
Prior art date
Application number
PCT/KR2012/001538
Other languages
English (en)
French (fr)
Inventor
이영훈
강찬휘
김종철
김현호
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to US14/368,139 priority Critical patent/US9594502B2/en
Publication of WO2013094821A1 publication Critical patent/WO2013094821A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72415User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0022Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/70Device selection
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/90Additional features
    • G08C2201/93Remote control using other portable devices, e.g. mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/02Details of telephonic subscriber devices including a Bluetooth interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/06Details of telephonic subscriber devices including a wireless LAN interface

Definitions

  • the present invention relates to a remote control method, system and remote control user interface.
  • the existing robot device is simple in operation, control, and the like, and operates according to a preset method, which causes users (children) to easily get tired, and also has a problem in that they can only control the operation through the remote control.
  • PC-based educational humanoid robot platform PC-based educational humanoid robot platform
  • PC-based module that is modularized to combine and dismantle each component constituting the basic operation of the robot in various forms
  • An educational humanoid robot platform is proposed.
  • the robot is easy to move and has a small size, which is advantageous in that it is not restricted by space, but from the point of view of the user controlling the robot, a PC having a large weight and volume
  • a PC having a large weight and volume
  • the operation of the robot can be conveniently controlled remotely by using the mobile communication terminal, and in addition to the method preset by the service provider providing the robot, the user can conveniently control the operation (movement direction, distance and speed, etc.) of the robot directly.
  • the operation movement direction, distance and speed, etc.
  • the present invention provides a remote control method, system and user interface that can conveniently control the control target terminal through a variety of interfaces provided to the mobile communication terminal.
  • a method of remotely controlling a control target terminal by a mobile communication terminal comprises the steps of (a) displaying a plurality of control schemes for remotely controlling the control target terminal, (b If one of the plurality of control schemes is selected, displaying a control screen corresponding to the selected control scheme; and (c) if the control attribute value displayed on the control screen is set, the control attribute value includes the set control attribute value. And transmitting a control message to the control target terminal, wherein the control scheme includes at least one of a touch input having a direction, a tilt, and a pattern input by a continuous touch.
  • step (b) is a movement direction and a movement distance of the control target terminal using the touch having the direction when the control method using the touch having the direction is selected among the plurality of control methods.
  • a control screen including at least one of a moving direction setting area for setting at least one of the moving direction setting areas and a moving speed setting area for setting the moving speed of the control target terminal.
  • the step (b) is a movement direction of the control target terminal using the touch having the direction when the control method using the touch having the direction is selected from the plurality of control methods and
  • the control screen including an operation setting area for setting the movement speed is displayed.
  • the step (c) calculates the direction and length of the touch input to the control screen as a control attribute value for at least one of the moving direction, the moving distance, and the moving speed.
  • step (b) is a movement direction and a movement distance of the control target terminal using the tilt of the mobile communication terminal when the control method using the tilt is selected from the plurality of control methods.
  • a control screen including at least one of a moving direction setting area for setting at least one of the moving direction setting areas and a moving speed setting area for setting the moving speed of the control target terminal.
  • the movement direction setting region includes an avatar linked with the control target terminal, and the avatar is the movement direction setting region according to the tilt angle of the mobile communication terminal and the holding time of the tilt. To move within.
  • the step (c) calculates the tilt angle and the holding time of the tilt of the mobile communication terminal as control attribute values for the moving direction and the moving distance,
  • the setting value corresponding to the input touch is calculated as a control attribute value for the moving speed.
  • the step (b) is the movement of the control target terminal by using the motion including the tilt of the mobile communication terminal, when the control method using the tilt of the plurality of control methods is selected Displaying the control screen for setting a direction and a moving speed, wherein the control screen includes a fingerprint area to which the user fingerprint of the mobile communication terminal is in contact, and the tilting in the state where the user fingerprint is in contact with the fingerprint area; When the motion is included, the movement direction and the movement speed of the control target terminal are set.
  • step (c) calculates a motion including tilt of the mobile communication terminal as a control attribute value for the movement direction and movement speed, wherein the motion including the tilt is the movement.
  • the screen of the communication terminal should face up, down, left or right.
  • the step (b) is the control target terminal according to the pattern by the continuous touch when the control method using the pattern input by the continuous touch is selected from the plurality of control methods And a control screen including at least one of a moving path setting area for setting a moving path of a moving path and a moving speed setting area for setting a moving speed of the control target terminal.
  • the movement path setting region includes a plurality of nodes having an n ⁇ n shape, and the pattern is formed by a continuous touch via each node.
  • the step (c) calculates the input pattern as a control attribute value for the movement path, and sets the movement value corresponding to the touch input in the movement speed setting region to the movement speed. Calculated as the control attribute value for.
  • control method may further include a control based on an emotion selected by the user of the mobile communication terminal, and the step (b) may include controlling based on an emotion selected by the user from among the plurality of control methods. If selected, the control screen for setting at least one of the moving direction, the moving pattern, the moving speed, the text to speech (TTS), the color of the light emitting unit and the lighting speed of the control target terminal is displayed.
  • TTS text to speech
  • control method may further include content control stored in the control target terminal, and in step (b), when the content control is selected from the plurality of control methods, Display the control screen for setting one or more of a method of playing, stopping playback, and outputting stored content.
  • a user interface for remotely controlling a control target terminal by a mobile communication terminal a plurality of control scheme list and the control scheme list displayed for remote control of the control target terminal
  • the control screen includes a control screen displayed corresponding to the selected control method, wherein the control method includes one or more of pattern input by touch, tilt, and continuous touch having a direction
  • the control screen using a touch having a direction includes a first operation setting area for setting at least one of a moving direction, a distance, and a speed of the control target terminal using the touch having the direction
  • the control screen using tilting includes: By using the tilt of the mobile communication terminal of the control target terminal And a second operation setting area for setting at least one of the same direction, distance, and speed, wherein the control screen using the pattern input by the continuous touch is configured according to the pattern of the continuous touch. And at least one of a moving path setting area for setting a moving path and the moving speed setting area.
  • the first operation setting region may include a first touch region and a second touch region having a bar shape indicating up and down directions, and the first touch region may include the control.
  • the second touch area corresponds to the control of the right driving means of the control target terminal.
  • an upward or downward touch on the first touch area or the second touch area redirects the control target terminal, and an image on the first touch area and the second touch area. And simultaneous touch in the downward direction moves the control target terminal upward or downward.
  • the first operation setting region further includes a movement speed setting region for setting a movement speed of the control target terminal, wherein the movement speed setting region is included in the first operation setting region. If not, the first touch region and the second touch region further set the movement speed of the control target terminal through the touch having the direction.
  • the first operation setting region includes a cross-type touch area displaying up, down, left, and right directions, wherein each direction of the cross shape is the control target terminal. Corresponds to each moving direction.
  • the second operation setting region is displayed a plurality of concentric circles having a different radius
  • the avatar is linked to the control target terminal is displayed on the plurality of concentric circles, the plurality of concentric circles It becomes a reference for calculating one or more of the moving distance and the direction of the avatar.
  • the avatar moves on the plurality of concentric circles according to the tilt angle of the mobile communication terminal and the holding time of the tilt, and moves distances, directions, and the like of the avatars moving on the plurality of concentric circles. According to the speed, the moving distance, direction and speed of the control target terminal are determined.
  • the second operation setting area includes a fingerprint area to which the user fingerprint of the mobile communication terminal is in contact, and includes the tilt in the state where the user fingerprint is in contact with the fingerprint area.
  • the moving direction and the speed of the control target terminal are set.
  • the movement path setting region includes a plurality of nodes having an n ⁇ n shape, and the pattern is formed by a continuous touch via each node.
  • the movement speed setting region includes a movement speed setting bar for setting the movement speed of the control target terminal by touching in an up or down direction, wherein the movement speed setting bar is the above. It includes a current speed display for displaying the current moving speed of the control target terminal.
  • the movement speed setting region includes a current speed display unit for displaying a current movement speed of the control target terminal and a numeric pad for setting the movement speed of the control target terminal.
  • control method may further include a control based on an emotion selected by the user of the mobile communication terminal, and the control screen of the control method based on the emotion selected by the user may include a moving direction of the control target terminal. , One or more of the movement pattern, movement speed, TTS (Text To Speech), and the color and lighting speed of the light emitting unit.
  • TTS Text To Speech
  • control method may further include a method of controlling the content stored in the control target terminal, wherein the control screen of the method of controlling the content of the content stored in the control target terminal, playback Set one or more of the stop and output methods.
  • the remote control system if any one of a plurality of control methods for remotely controlling the control target terminal is selected, displays a control screen corresponding to the selected control method And when the control property value displayed on the control screen is set, receives the control message from the mobile communication terminal and the mobile communication terminal transmitting the control message including the set control property value, and receives the control message from the received control message.
  • a control target terminal configured to extract and operate a selected control scheme and control attribute values according to the selected control scheme, wherein the control scheme includes a touch having a direction, a tilt, a pattern input by a continuous touch, and a user of the mobile communication terminal.
  • Control based on the selected emotion and the control target terminal Stored comprises one or more of the control of the content, said control screen is an interface that can be set to the control attribute values according to the control method.
  • the mobile communication terminal may include a first area and a control target for setting at least one of a moving direction and a distance of the control target terminal.
  • the control screen including at least one of the second areas for setting the moving speed of the terminal is displayed.
  • the mobile communication terminal may set an operation setting area for setting at least one of a moving direction, a distance, and a speed of the control target terminal. Display the control screen comprising a.
  • the mobile communication terminal may include a first area for setting a movement path of the control target terminal and the control target terminal. At least one of the second regions for setting the movement speed.
  • the mobile communication terminal is the movement direction, movement pattern, movement speed, TTS (Text To Speech) and the light emitting unit of the control target terminal
  • TTS Text To Speech
  • the mobile communication terminal when the control of the content is selected from the control method, the mobile communication terminal is the control for setting at least one of the method of playing, stopping playback and output of the content stored in the control target terminal; Display the screen.
  • the present invention is not limited to the embodiments disclosed below, but may be configured in different forms, and the present embodiments are intended to complete the disclosure of the present invention and to provide general knowledge in the technical field to which the present invention belongs. It is provided to fully inform those who have the scope of the invention.
  • a user may directly set control attributes through an interface for controlling the control target terminal.
  • FIG. 1 is a diagram showing the configuration of a remote control system according to an embodiment of the present invention.
  • FIGS. 2 and 4 are views illustrating a control screen of a control method according to an embodiment of the present invention.
  • 5 and 7 are views illustrating a control screen of a control method according to another embodiment of the present invention.
  • FIGS. 8 to 10 are diagrams illustrating a control screen of a control method according to another embodiment of the present invention.
  • 11 to 14 are diagrams illustrating a control screen of a control method according to another embodiment of the present invention.
  • 15 to 17 are diagrams illustrating a control screen of a control method according to another embodiment of the present invention.
  • FIG. 18 is a flowchart illustrating a remote control process according to an embodiment of the present invention.
  • FIG. 1 is a diagram showing the configuration of a remote control system according to an embodiment of the present invention.
  • the remote control system 100 includes a mobile communication terminal 110 and a control target terminal 120.
  • the mobile communication terminal 110 displays a control screen corresponding to the selected control method, and displays the control screen.
  • the control message including the set control attribute value is transmitted to the control target terminal 120.
  • control method may include one or more of a touch having a direction, tilting, pattern input by a continuous touch, control based on the emotion selected by the user of the mobile communication terminal 110, and control of content stored in the control target terminal 120. It may include.
  • control screen includes an interface for setting a control attribute value according to the above-described control scheme.
  • the mobile communication terminal 110 may be connected to the control target terminal 120 using any one of Wi-Fi and Bluetooth.
  • the mobile communication terminal 110 may include one or more of a smart phone, a mobile phone, a PDA, a PMP, and a note pad capable of using Wi-Fi or Bluetooth.
  • control target terminal 120 receives a control message from the mobile communication terminal 110 and extracts a control attribute value according to the control scheme and the control scheme from the received control message.
  • control target terminal 120 performs an operation based on the extracted control scheme and the control attribute value according to the control scheme.
  • control target terminal 120 may include a robot having a shape in which children can feel friendly.
  • the robot may include a display unit (screen) on one side of the body, and may include a lighting unit in the body and each part connected to the body, and may be driven by driving means for movement, for example, a plurality of wheels and wheels. It may also include an electric motor for transmitting.
  • control target terminal 120 will be referred to as a kids robot, that is, a KiBot 120.
  • FIGS. 2 and 4 are views illustrating a control screen of a control method according to an embodiment of the present invention.
  • FIG. 2 illustrates a case where a control method using a touch having a direction is selected among a plurality of control methods.
  • a control screen using a touch having a direction may first be displayed as a default, and as shown in FIG. 3, a list for selecting a control method may be displayed.
  • a list for selecting a control method may be displayed first, and a control screen for the selected control method may be displayed.
  • a list for selecting a control scheme may be variously implemented.
  • the control screen 200 illustrated in FIG. 2 has a movement direction setting region 210 for setting the movement direction of the key bot 120 using a touch having a direction and a movement speed for setting the movement speed of the key bot 120. It may include one or more of the setting area 220.
  • the movement direction setting region 210 may include a first touch region 211 and a second touch region 212 having a bar shape indicating up and down directions, and the first touch region 211.
  • the left driving means eg, the motor and the wheels connected to the motor
  • the second touch area 212 may correspond to the control of the right driving means of the keybot 120.
  • an upward or downward touch on the first touch area 211 and the second touch area 212 may change the direction of the keybot 120, and the first touch area 211 and the second touch area ( Simultaneous touch of the up or down direction with respect to 212 may move the keybot 120 up or down.
  • the keybot 120 moves in a right direction while moving forward, and if a downward touch is input to the second touch area 211, the keybot 120 is moved. 120 may move in a left direction while reversing.
  • the keybot 120 may move in a straight direction.
  • the moving distance of the keybot 120 may vary according to the length of the touch input to the first touch area 211 and the second touch area 212.
  • the keybot 120 when the total length of the arrows indicating the respective directions of the first touch area 211 is equal to the movement distance of 30 cm of the keybot, when the touch is input to the shortest arrow in the upward direction, the keybot 120 has a distance of about 30 cm. If a touch is input to the middle of the arrow in the upward direction, the keybot 120 may move a distance of about 15 cm.
  • the keybot 120 may move by a predetermined distance in the corresponding direction.
  • the movement direction setting region 210 may include a cross-shaped touch area displaying up, down, left, and right directions.
  • each direction of the cross shape may correspond to the moving direction of the key bot 120, respectively.
  • the movement speed setting region 220 may include a movement speed setting bar 221 for setting the movement speed of the key bot 120 by touching in the up and down directions. .
  • the movement speed setting bar 221 may include a current speed display unit 222 displaying the current movement speed of the key bot 120.
  • the movement speed setting region 220 may include a numeric keypad for setting the movement speed of the keybot 120.
  • the moving speed is directly through the numeric keypad that can directly touch the number corresponding to the moving speed to be set. You can also adjust.
  • the mobile communication terminal 110 calculates the direction and the length of the touch input to the above-described moving direction setting area 210 as control property values for the moving direction and the moving distance of the keybot 120, and the moving speed setting area 220. ) May be calculated as a control attribute value for the moving speed and transmitted to the keybot 120.
  • FIG. 4 illustrates a case in which a control method using a touch having a direction is selected among the plurality of control methods, which is different from FIG. 2.
  • FIG. 4 illustrates a case in which the moving speed setting region 220 is not included in the control screen 200 illustrated in FIG. 2, and the keybot 120 is touched according to a touch of a touch region having a bar shape located at right and left.
  • the moving direction and the moving speed can be set together.
  • a touch area having a bar shape may be divided into 5 steps from -5 steps, and -5 steps may be determined at the slowest speed and 5 steps at the fastest speed.
  • the needle instrument panel located at the center may display the speed of the key bot 120 within a predetermined range (for example, 0 to 10).
  • 5 and 7 are views illustrating a control screen of a control method according to another embodiment of the present invention.
  • the mobile communication terminal 110 may display a control screen as illustrated in FIG. 6.
  • the control screen 300 illustrated in FIG. 6 sets a moving direction setting region 310 and a moving speed of the keybot 120 to set the moving direction of the keybot 120 using the tilt of the mobile communication terminal 110. It may include one or more of the moving speed setting region 320 to.
  • the movement direction setting region 310 may display a plurality of concentric circles 331 to 333 having different radii, and an avatar 340 linked with the keybot 120 may be displayed on the plurality of concentric circles.
  • the plurality of concentric circles 331 ⁇ 333 serve as a reference for calculating a moving distance and a direction of the avatar 340, and the avatar 340 is in accordance with the tilt angle and the holding time of the tilt of the mobile communication terminal 110. Can move on a plurality of concentric circles.
  • the moving distance and the direction of the key bot 120 may be determined according to the moving distance and the direction of the avatar 340 moving on the plurality of concentric circles 331 to 333.
  • the first concentric circles 331 having the smallest radius among the plurality of concentric circles 331 ⁇ 333 correspond to a moving distance of 40 cm of the key bot 120
  • the second concentric circles 332 may have a moving distance of the key bot 120
  • the third concentric circle 333 having the largest radius corresponds to 80 cm and corresponds to the moving distance of 120 cm of the keybot 120.
  • the mobile communication terminal 110 maintains the tilt angle and the tilt of the mobile communication terminal 110.
  • the time may be calculated as a control attribute value for the moving direction and the moving distance of the keybot 120.
  • the mobile communication terminal 110 may include a gyro sensor.
  • the moving speed setting region 320 is the same as the moving speed setting region 220 illustrated in FIG. 2, a detailed description thereof will be omitted.
  • the mobile communication terminal 110 displays the tilt angle and the holding time of the tilt of the mobile communication terminal 110 input through the moving direction setting region 310 of the control screen 300 shown in FIG. 6.
  • a control attribute value for the movement direction and the movement distance of the, and a value corresponding to the touch input to the movement speed setting region 320 may be calculated as a control attribute value for the movement speed and transmitted to the keybot 120.
  • the control screen illustrated in FIG. 7 is another embodiment for setting the moving direction and the speed of the keybot 120 by using the tilt of the mobile communication terminal 110.
  • the user fingerprint of the mobile communication terminal 110 is located at the bottom of the screen. This includes the fingerprint area 360 in contact.
  • the user of the mobile communication terminal 110 may control the movement direction and speed of the keybot 120 using the tilt of the mobile communication terminal 110 while holding the fingerprint area by hand.
  • the tilt may refer to the motion of the mobile communication terminal 110 and may be understood as meaning including the tilt described above.
  • the motion may include an operation of directing the screen of the mobile communication terminal 110 upward, downward, leftward, or rightward.
  • the keybot 120 moves forward.
  • the keybot 120 may switch to the left.
  • the speed of the keybot 120 may be determined according to the speed at which the mobile communication terminal 110 is shaken, that is, the speed at which the user of the mobile communication terminal 110 shakes the mobile communication terminal 110.
  • FIGS. 8 to 10 are diagrams illustrating a control screen of a control method according to another embodiment of the present invention.
  • the mobile communication terminal 110 may display a control screen as illustrated in FIG. 9. Can be.
  • the control screen 400 illustrated in FIG. 9 includes a movement path setting area 410 for setting a movement path of the keybot 120 and a movement speed for setting the movement speed of the keybot 120 according to a pattern by a continuous touch. It may include one or more of the setting area 420.
  • the movement path setting region 410 includes a plurality of nodes 411 having an n ⁇ n shape, and the pattern may be formed by a continuous touch passing through each node.
  • the moving speed setting region 420 is the same as the moving speed setting region 220 illustrated in FIG. 2, a detailed description thereof will be omitted.
  • the mobile communication terminal 110 calculates a pattern input through the moving path setting area 410 as a control attribute value for the moving path of the keybot 120, and applies the touch input to the moving speed setting area 420.
  • the corresponding value may be calculated as a control attribute value for the moving speed and transmitted to the keybot 120.
  • the mobile communication terminal 110 may separately store the pattern, and the stored patterns are provided as a list as shown in FIG. 10, and when any one pattern of the list is selected, the mobile communication terminal 110 is selected.
  • the pattern may be calculated as a control attribute value for the movement path of the keybot 120.
  • 11 to 14 are diagrams illustrating a control screen of a control method according to another embodiment of the present invention.
  • the mobile communication terminal 110 may display the control screen 500 as illustrated in FIG. 12.
  • the mobile communication terminal 110 controls the control attribute value of the keybot 120 corresponding to the selected emotion. May be extracted from the control property DB and transmitted to the keybot 120.
  • the mobile communication terminal 110 controls the control attribute values corresponding to the emotion of 'joy', that is, the 'keybot 120 moves back and forth twice and rotates the wheel, An image of a smiley expression is displayed on the screen of the screen 120.
  • the color of the horn-shaped light emitting part located on the head of the keybot 120 is yellow and emits three times per second, and the color of the lighting part located on the back of the hand is emitted three times per second and the tail.
  • the color of the lighting unit located in the red color is emitted three times per second 'value and TTS message (for example, today is a happy day ⁇ friends play with me ⁇ hi ⁇ ) extracted from the control property DB keybot 120 Can be sent.
  • the mobile communication terminal 110 may display the control screen as shown in FIG. 13 to set the color and the lighting speed of each lighting unit of the keybot 120, and in addition, the keybot 120 according to each emotion. It is possible to provide a control screen for setting a moving direction, a moving pattern, and a moving speed of the text, and inputting a text to speech (TTS).
  • TTS text to speech
  • the control attribute value input through the control screen may be stored in the control attribute DB in association with the emotion corresponding to the control attribute value.
  • control screen described above may be used as a control screen for setting the moving direction, the moving pattern, and the moving speed of the keybot 120 according to each emotion.
  • FIG. 14 is another embodiment of the control screen 500 as shown in FIG. 12.
  • the emotion list may be displayed as an icon representing emotion (hereinafter, referred to as an 'emotional icon'), rather than a 'character' indicating emotion.
  • an 'emotional icon' an icon representing emotion
  • the facial expression of the next keybot may change in response to the selected emotion.
  • the keybot 120 displays an expression of listening to the ears, saying, “Child tickles! Who can be a little bit? ", And when the gift icon is selected, the keybot 120 displays an exciting expression," Yah! Feel the best! ”
  • the keybot 120 may output a voice saying, “I am hungry, I am full, thanks ⁇ ” while displaying an eating expression.
  • 15 to 17 are diagrams illustrating a control screen of a control method according to another embodiment of the present invention.
  • the mobile communication terminal 110 displays the control screen as shown in FIG. 16, that is, the keybot 120.
  • a list of stored content can be displayed.
  • control screen 600 for setting one or more of the playback (start), playback stop (pause), and output method of the selected content is displayed. can do.
  • the 'start' button when the 'start' button is selected, the 'start' button may be changed to the 'pause' button, and after the 'pause' button is selected, the 'pause' button may be changed to the 'start' button again. Can be.
  • the output method is a selection for the output means of the selected content.
  • the selected content can be played through the screen located on the face of the keybot 120.
  • the keybot 120 is selected.
  • the selected content may be played through an external device (for example, a projector) connected to the.
  • the content being played can also be paused.
  • FIG. 18 is a flowchart illustrating a remote control process according to an embodiment of the present invention.
  • the mobile communication terminal 110 displays a plurality of control schemes for remotely controlling the keybot 120 on the screen of the mobile communication terminal 110 (S701).
  • control method may include one or more of a touch having a direction, tilting, pattern input by a continuous touch, control of the emotion selected by the user of the mobile communication terminal 110, and control of content stored in the keybot 120. have.
  • the mobile communication terminal 110 displays a control screen corresponding to the selected control scheme (S702).
  • the control screen may include at least one of a moving direction setting area for setting the moving direction and distance of the keybot 120 and a moving speed setting area for setting the moving speed of the keybot according to the selected control method (touch and tilt having a direction). It may include.
  • control screen includes a moving path setting area for setting the moving path of the keybot 120 and a moving speed setting area for setting the moving speed of the keybot 120 according to the selected control method (pattern input by the continuous touch). It may include one or more of.
  • control screen sets the color, lighting speed, movement direction, movement pattern, and movement speed of each lighting unit of the keybot 120 according to the selected control method (control based on emotion), and inputs TTS (Text To Speech). May contain interfaces that can
  • control screen may include an interface for displaying the content stored in the keybot according to the selected control method (control the content stored in the keybot) and setting one or more of a method of playing, stopping playback, and outputting the selected content among the displayed contents.
  • the mobile communication terminal 110 transmits a control message including the control attribute value set in S702 to the keybot 120 (S703).
  • the keybot 120 receives a control message from the mobile communication terminal 110 (S704).
  • the keybot 120 extracts a control attribute value according to the control scheme and the control scheme from the received control message (S705).
  • the keybot 120 After S705, the keybot 120 performs an operation based on the extracted control method and the control property value (S706).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

원격 제어 방법, 시스템 및 원격 제어 사용자 인터페이스가 제공된다. 이동 통신 단말기가 제어 대상 단말기를 원격 제어하는 방법은 (a) 상기 제어 대상 단말기를 원격 제어하기 위한 복수의 제어 방식을 표시하는 단계, (b) 상기 복수의 제어 방식 중 어느 하나가 선택되면, 상기 선택된 제어 방식에 대응하는 제어 화면을 표시하는 단계 및 (c) 상기 제어 화면에 표시된 제어 속성 값이 설정되면, 상기 설정된 제어 속성 값을 포함하는 제어 메시지를 상기 제어 대상 단말기로 전송하는 단계를 포함하되, 상기 제어 방식은 방향을 가지는 터치, 기울임 및 연속된 터치에 의한 패턴 입력 중 하나 이상을 포함한다.

Description

원격 제어 방법, 시스템 및 원격 제어 사용자 인터페이스
본 발명은 원격 제어 방법, 시스템 및 원격 제어 사용자 인터페이스에 관한 것이다.
최근, 사용자의 조작이나 주변 환경에 따라 자율 동작하는 완구 로봇 장치가 개발되고 있다.
그러나, 기존의 로봇 장치는 조작, 제어 등이 단순하며, 미리 설정된 방법에 의하여 동작하므로 사용자(어린이)들이 쉽게 싫증을 유발할 뿐만 아니라, 리모콘 등을 통하여 동작을 제어할 수밖에 없는 문제점이 있다.
이에, 한국등록실용신안공보 제20-423032호(PC 기반의 교육용 휴머노이드 로봇 플랫폼)에서는, 로봇의 기본 동작을 이루는 각 구성 요소들을 다양한 형태로 결합 및 해체할 수 있도록 모듈화(module)한 PC 기반의 교육용 휴머노이드 로봇 플랫폼을 제안하였다.
그러나 제어 대상인 로봇의 입장에서는, 로봇의 각 구성 요소를 모듈화함으로써, 로봇의 이동이 편리하고 크기가 작아 공간상의 제약을 받지 않는 장점이 있으나, 로봇을 제어하는 사용자의 입장에서는 무게와 부피가 큰 PC를 통해서 로봇을 제어할 수 밖에 없어 공간상의 제약이 존재하는 한계가 있다.
이에, 이동 통신 단말기를 이용하여 로봇의 동작을 편리하게 원격 제어할 수 있으며, 로봇을 제공하는 서비스 업자가 미리 설정한 방법 외에도, 사용자가 직접 로봇의 동작(이동 방향, 거리 및 속도 등)을 편리하고 간편하게 제어할 수 있는 다양하고 흥미있는 인터페이스를 통해 로봇을 제어하는 방안이 요구되고 있다.
상술한 종래 기술의 문제점을 해결하기 위해, 본 발명은 이동 통신 단말기에 제공되는 다양한 인터페이스를 통해 제어 대상 단말기를 편리하게 제어할 수 있는 원격 제어 방법, 시스템 및 사용자 인터페이스를 제공한다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위하여, 본 발명의 일 측면에 따른 이동 통신 단말기가 제어 대상 단말기를 원격 제어하는 방법은 (a) 상기 제어 대상 단말기를 원격 제어하기 위한 복수의 제어 방식을 표시하는 단계, (b) 상기 복수의 제어 방식 중 어느 하나가 선택되면, 상기 선택된 제어 방식에 대응하는 제어 화면을 표시하는 단계 및 (c) 상기 제어 화면에 표시된 제어 속성 값이 설정되면, 상기 설정된 제어 속성 값을 포함하는 제어 메시지를 상기 제어 대상 단말기로 전송하는 단계를 포함하되, 상기 제어 방식은 방향을 가지는 터치, 기울임 및 연속된 터치에 의한 패턴 입력 중 하나 이상을 포함한다.
본 발명의 일 측면에서, 상기 (b) 단계는 상기 복수의 제어 방식 중 상기 방향을 가지는 터치를 이용한 제어 방식이 선택된 경우, 상기 방향을 가지는 터치를 이용하여 상기 제어 대상 단말기의 이동 방향 및 이동 거리 중 하나 이상을 설정하기 위한 이동 방향 설정 영역 및 상기 제어 대상 단말기의 이동 속도를 설정하기 위한 이동 속도 설정 영역 중 하나 이상을 포함하는 상기 제어 화면을 표시한다.
또한, 본 발명의 일 측면에서, 상기 (b) 단계는 상기 복수의 제어 방식 중 상기 방향을 가지는 터치를 이용한 제어 방식이 선택된 경우, 상기 방향을 가지는 터치를 이용하여 상기 제어 대상 단말기의 이동 방향 및 이동 속도를 설정하기 위한 동작 설정 영역을 포함하는 상기 제어 화면을 표시한다.
또한, 본 발명의 일 측면에서, 상기 (c) 단계는 상기 제어 화면에 입력된 터치의 방향 및 길이를 상기 이동 방향, 이동 거리 및 이동 속도 중 하나 이상에 대한 제어 속성 값으로 산출한다.
또한, 본 발명의 일 측면에서, 상기 (b) 단계는 상기 복수의 제어 방식 중 상기 기울임을 이용한 제어 방식이 선택된 경우, 상기 이동 통신 단말기의 기울임을 이용하여 상기 제어 대상 단말기의 이동 방향 및 이동 거리 중 하나 이상을 설정하기 위한 이동 방향 설정 영역 및 상기 제어 대상 단말기의 이동 속도를 설정하기 위한 이동 속도 설정 영역 중 하나 이상을 포함하는 상기 제어 화면을 표시한다.
또한, 본 발명의 일 측면에서, 상기 이동 방향 설정 영역은 상기 제어 대상 단말기와 연동되는 아바타를 포함하며, 상기 아바타는 상기 이동 통신 단말기의 기울임 각도 및 상기 기울임의 유지 시간에 따라서 상기 이동 방향 설정 영역 내에서 이동한다.
또한, 본 발명의 일 측면에서, 상기 (c) 단계는 상기 이동 통신 단말기의 기울임 각도 및 상기 기울임의 유지 시간을 상기 이동 방향 및 이동 거리에 대한 제어 속성 값으로 산출하고, 상기 이동 속도 설정 영역에 입력된 터치에 대응하는 설정값을 상기 이동 속도에 대한 제어 속성 값으로 산출한다.
또한, 본 발명의 일 측면에서, 상기 (b) 단계는 상기 복수의 제어 방식 중 상기 기울임을 이용한 제어 방식이 선택된 경우, 상기 이동 통신 단말기의 기울임을 포함하는 모션을 이용하여 상기 제어 대상 단말기의 이동 방향 및 이동 속도를 설정하기 위한 상기 제어 화면을 표시하되, 상기 제어 화면은 상기 이동 통신 단말기의 사용자 지문이 접촉되는 지문 영역을 포함하고, 상기 지문 영역에 상기 사용자 지문이 접촉된 상태에서 상기 기울임을 포함하는 모션이 수행된 경우 상기 제어 대상 단말기의 이동 방향 및 이동 속도가 설정된다.
또한, 본 발명의 일 측면에서, 상기 (c) 단계는 상기 이동 통신 단말기의 기울임을 포함하는 모션을 상기 이동 방향 및 이동 속도에 대한 제어 속성 값으로 산출하되, 상기 기울임을 포함하는 모션은 상기 이동 통신 단말기의 화면이 위로, 아래로, 좌로 또는 우로 향하도록 한다.
또한, 본 발명의 일 측면에서, 상기 (b) 단계는 상기 복수의 제어 방식 중 상기 연속된 터치에 의한 패턴 입력을 이용한 제어 방식이 선택된 경우, 상기 연속된 터치에 의한 패턴에 따라 상기 제어 대상 단말기의 이동 경로를 설정하는 이동 경로 설정 영역 및 상기 제어 대상 단말기의 이동 속도를 설정하기 위한 이동 속도 설정 영역 중 하나 이상을 포함하는 상기 제어 화면을 표시한다.
또한, 본 발명의 일 측면에서, 상기 이동 경로 설정 영역은 n×n 형태인 복수개의 노드를 포함하며, 상기 패턴은 상기 각 노드를 경유하는 연속된 터치에 의하여 형성된다.
또한, 본 발명의 일 측면에서, 상기 (c) 단계는 상기 입력된 패턴을 상기 이동 경로에 대한 제어 속성 값으로 산출하고, 상기 이동 속도 설정 영역에 입력된 터치에 대응하는 설정값을 상기 이동 속도에 대한 제어 속성 값으로 산출한다.
또한, 본 발명의 일 측면에서, 상기 제어 방식은 상기 이동 통신 단말기의 사용자가 선택한 감성에 기초한 제어를 더 포함하며, 상기 (b) 단계는 상기 복수의 제어 방식 중 사용자가 선택한 감성에 기초한 제어가 선택된 경우, 상기 제어 대상 단말기의 이동 방향, 이동 패턴, 이동 속도, TTS(Text To Speech) 및 발광부의 색상과 점등 속도 중 하나 이상을 설정하기 위한 상기 제어 화면을 표시한다.
또한, 본 발명의 일 측면에서, 상기 제어 방식은 상기 제어 대상 단말기에 저장된 콘텐츠 제어를 더 포함하며, 상기 (b) 단계는 상기 복수의 제어 방식 중 콘텐츠 제어가 선택되는 경우, 상기 제어 대상 단말기에 저장된 콘텐츠의 재생, 재생 정지 및 출력 방법 중 하나 이상을 설정하기 위한 상기 제어 화면을 표시한다.
상기 목적을 달성하기 위하여, 본 발명의 일 측면에 따른 이동 통신 단말기가 제어 대상 단말기를 원격 제어하는 사용자 인터페이스는, 상기 제어 대상 단말기를 원격 제어하기 위해 표시되는 복수의 제어 방식 리스트 및 상기 제어 방식 리스트 중 어느 하나가 선택되면, 상기 선택된 제어 방식에 대응하여 표시되는 제어 화면을 포함하되, 상기 제어 방식은 방향을 가지는 터치, 기울임 및 연속된 터치에 의한 패턴 입력 중 하나 이상을 포함하고, 상기 방향을 가지는 터치를 이용한 제어 화면은 상기 방향을 가지는 터치를 이용하여 상기 제어 대상 단말기의 이동 방향, 거리 및 속도 중 하나 이상을 설정하기 위한 제 1 동작 설정 영역을 포함하며, 상기 기울임을 이용한 제어 화면은, 상기 이동 통신 단말기의 기울임을 이용하여 상기 제어 대상 단말기의 이동 방향, 거리 및 속도 중 하나 이상을 설정하기 위한 제 2 동작 설정 영역을 포함하고, 상기 연속된 터치에 의한 패턴 입력을 이용한 제어 화면은, 상기 연속된 터치에 의한 패턴에 따라 상기 제어 대상 단말기의 이동 경로를 설정하는 이동 경로 설정 영역 및 상기 이동 속도 설정 영역 중 하나 이상을 포함한다.
또한, 본 발명의 일 측면에서, 상기 제 1 동작 설정 영역은 상?하 방향을 표시하는 바(bar)형태의 제 1 터치 영역 및 제 2 터치 영역을 포함하되, 상기 제 1 터치 영역은 상기 제어 대상 단말기의 좌측 구동 수단의 제어에 대응하고, 상기 제 2 터치 영역은 상기 제어 대상 단말기의 우측 구동 수단의 제어에 대응한다.
또한, 본 발명의 일 측면에서, 상기 제 1 터치 영역 또는 제 2 터치 영역에 대한 상 또는 하 방향의 터치는 상기 제어 대상 단말기를 방향 전환 시키며, 상기 제 1 터치 영역 및 제 2 터치 영역에 대한 상 및 하 방향의 동시 터치는 상기 제어 대상 단말기를 상 또는 하방향으로 이동 시킨다.
또한, 본 발명의 일 측면에서, 상기 제 1 동작 설정 영역은, 상기 제어 대상 단말기의 이동 속도를 설정하는 이동 속도 설정 영역을 더 포함하되, 상기 제 1 동작 설정 영역에 상기 이동 속도 설정 영역이 포함되지 않은 경우, 상기 제 1 터치 영역 및 제 2 터치 영역은 상기 방향을 가지는 터치를 통하여 상기 제어 대상 단말기의 이동 속도를 더 설정한다.
또한, 본 발명의 일 측면에서, 상기 제 1 동작 설정 영역은 상?하?좌?우 방향을 표시하는 십자(cross)형태의 터치 영역을 포함하되, 상기 십자형태의 각 방향은 상기 제어 대상 단말기의 각 이동 방향에 대응한다.
또한, 본 발명의 일 측면에서, 상기 제 2 동작 설정 영역은 서로 다른 반경을 가지는 복수개의 동심원이 표시되며, 상기 복수개의 동심원 상에는 상기 제어 대상 단말기와 연동되는 아바타가 표시되되, 상기 복수개의 동심원은 상기 아바타의 이동 거리 및 방향 중 하나 이상을 산출하기 위한 기준이 된다.
또한, 본 발명의 일 측면에서, 상기 아바타는 상기 이동 통신 단말기의 기울임 각도 및 상기 기울임의 유지 시간에 따라서 상기 복수개의 동심원 상에서 이동하며, 상기 복수개의 동심원 상에서 이동하는 상기 아바타의 이동 거리, 방향 및 속도에 따라서, 상기 제어 대상 단말기의 이동 거리, 방향 및 속도가 정해진다.
또한, 본 발명의 일 측면에서, 상기 제 2 동작 설정 영역은 상기 이동 통신 단말기의 사용자 지문이 접촉되는 지문 영역을 포함하며, 상기 지문 영역에 상기 사용자 지문이 접촉된 상태에서 상기 기울임을 포함하는 모션이 수행된 경우 상기 제어 대상 단말기의 이동 방향 및 속도가 설정된다.
또한, 본 발명의 일 측면에서, 상기 이동 경로 설정 영역은 n×n 형태인 복수개의 노드를 포함하며, 상기 패턴은 상기 각 노드를 경유하는 연속된 터치에 의하여 형성된다.
또한, 본 발명의 일 측면에서, 상기 이동 속도 설정 영역은 상 또는 하 방향으로 터치됨으로써 상기 제어 대상 단말기의 이동 속도를 설정하는 이동 속도 설정 바(bar)를 포함하되, 상기 이동 속도 설정 바는 상기 제어 대상 단말기의 현재 이동 속도를 표시하는 현재 속도 표시부를 포함한다.
또한, 본 발명의 일 측면에서, 상기 이동 속도 설정 영역은 상기 제어 대상 단말기의 현재 이동 속도를 표시하는 현재 속도 표시부 및 상기 제어 대상 단말기의 이동 속도를 설정하는 숫자 패드를 포함한다.
또한, 본 발명의 일 측면에서, 상기 제어 방식은 상기 이동 통신 단말기의 사용자가 선택한 감성에 기초한 제어를 더 포함하며, 상기 사용자가 선택한 감성에 기초한 제어 방식의 제어 화면은 상기 제어 대상 단말기의 이동 방향, 이동 패턴, 이동 속도, TTS(Text To Speech) 및 발광부의 색상과 점등 속도 중 하나 이상을 설정한다.
또한, 본 발명의 일 측면에서, 상기 제어 방식은 상기 제어 대상 단말기에 저장된 콘텐츠를 제어하는 방식을 더 포함하며, 상기 콘텐츠를 제어하는 방식의 제어 화면은 상기 제어 대상 단말기에 저장된 콘텐츠의 재생, 재생 정지 및 출력 방법 중 하나 이상을 설정한다.
상기 목적을 달성하기 위하여, 본 발명의 일 측면에 따른 원격 제어 시스템은, 상기 제어 대상 단말기를 원격 제어하기 위한 복수의 제어 방식 중 어느 하나가 선택되면, 상기 선택된 제어 방식에 대응하는 제어 화면을 표시하고, 상기 제어 화면에 표시된 제어 속성 값이 설정되면, 상기 설정된 제어 속성 값을 포함하는 제어 메시지를 전송하는 이동 통신 단말기 및 상기 이동 통신 단말기로부터 상기 제어 메시지를 수신하고, 상기 수신된 제어 메시지로부터 상기 선택된 제어 방식 및 상기 선택된 제어 방식에 따른 제어 속성 값을 추출하여 동작하는 제어 대상 단말기를 포함하되, 상기 제어 방식은 방향을 가지는 터치, 기울임, 연속된 터치에 의한 패턴 입력, 상기 이동 통신 단말기의 사용자가 선택한 감성에 기초한 제어 및 상기 제어 대상 단말기에 저장된 콘텐츠의 제어 중 하나 이상을 포함하며, 상기 제어 화면은 상기 제어 방식에 따라서 상기 제어 속성 값을 설정할 수 있는 인터페이스를 포함한다.
본 발명의 일 측면에서, 상기 제어 방식 중 상기 방향을 가지는 터치 및 기울임이 선택되면, 상기 이동 통신 단말기는 상기 제어 대상 단말기의 이동 방향 및 거리 중 하나 이상을 설정하기 위한 제 1 영역 및 상기 제어 대상 단말기의 이동 속도를 설정하기 위한 제 2 영역 중 하나 이상을 포함하는 상기 제어 화면을 표시한다.
또한, 본 발명의 일 측면에서, 상기 제어 방식 중 상기 방향을 가지는 터치 및 기울임이 선택되면, 상기 이동 통신 단말기는 상기 제어 대상 단말기의 이동 방향, 거리 및 속도 중 하나 이상을 설정하기 위한 동작 설정 영역을 포함하는 상기 제어 화면을 표시한다.
또한, 본 발명의 일 측면에서, 상기 제어 방식 중 상기 연속된 터치에 의한 패턴 입력이 선택되면, 상기 이동 통신 단말기는 상기 제어 대상 단말기의 이동 경로를 설정하기 위한 제 1 영역 및 상기 제어 대상 단말기의 이동 속도를 설정하기 위한 제 2 영역 중 하나 이상을 포함한다.
또한, 본 발명의 일 측면에서, 상기 제어 방식 중 상기 감성에 기초한 제어가 선택되면, 상기 이동 통신 단말기는 상기 제어 대상 단말기의 이동 방향, 이동 패턴, 이동 속도, TTS(Text To Speech) 및 발광부의 색상과 점등 속도 중 하나 이상을 설정하기 위한 상기 제어 화면을 표시한다.
또한, 본 발명의 일 측면에서, 상기 제어 방식 중 상기 콘텐츠의 제어가 선택되면, 상기 이동 통신 단말기는 상기 제어 대상 단말기에 저장된 콘텐츠의 재생, 재생 정지 및 출력 방법 중 하나 이상을 설정하기 위한 상기 제어 화면을 표시한다.
상기 목적을 달성하기 위한 구체적인 사항들은 첨부된 도면과 함께 상세하게 후술된 실시예들을 참조하면 명확해질 것이다.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라, 서로 다른 다양한 형태로 구성될 수 있으며, 본 실시예들은 본 발명의 개시가 완전하도록 하고 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.
전술한 본 발명의 원격 제어 방법, 시스템 및 원격 제어 사용자 인터페이스의 과제 해결 수단 중 하나에 의하면, 이동 통신 단말기에 제공되는 다양한 인터페이스를 통해 제어 대상 단말기를 편리하게 제어할 수 있다.
또한, 제어 대상 단말기를 제어하는 인터페이스가 직관적이므로, 제어 대상 단말기의 이동 방향, 거리 및 속도 등을 한눈에 파악할 수 있다.
또한, 제어 대상 단말기를 제어하는 인터페이스를 통해, 제어 속성을 사용자가 직접 설정할 수 있다.
도 1은 본 발명의 일 실시예에 따른 원격 제어 시스템의 구성을 도시한 도면이다.
도 2 및 도 4는 본 발명의 일 실시예에 따른 제어 방식의 제어 화면을 도시한 도면이다.
도 5 및 도 7은 본 발명의 다른 실시예에 따른 제어 방식의 제어 화면을 도시한 도면이다.
도 8 내지 도 10은 본 발명의 또 다른 실시예에 따른 제어 방식의 제어 화면을 도시한 도면이다.
도 11 내지 도 14는 본 발명의 또 다른 실시예에 따른 제어 방식의 제어 화면을 도시한 도면이다.
도 15 내지 17은 본 발명의 또 다른 실시예에 따른 제어 방식의 제어 화면을 도시한 도면이다.
도 18은 본 발명의 일 실시예에 따른 원격 제어 과정을 도시한 흐름도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
참고로, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’되어 있다고 할 때, 이는 ‘직접적으로 연결’되어 있는 경우뿐 아니라, 그 중간에 다른 구성 요소를 사이에 두고 ‘간접적으로 연결’되어 있는 경우도 포함한다.
또한 어떤 부분이 어떤 구성 요소를 ‘포함’한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
이하, 첨부된 도면들을 참조하여 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른 원격 제어 시스템의 구성을 도시한 도면이다.
본 발명의 일 실시예에 따른 원격 제어 시스템(100)은 이동 통신 단말기(110) 및 제어 대상 단말기(120)를 포함한다.
각 구성 요소를 설명하면, 이동 통신 단말기(110)는 제어 대상 단말기(120)를 원격 제어하기 위한 복수의 제어 방식 중 어느 하나가 선택되면, 선택된 제어 방식에 대응하는 제어 화면을 표시하고, 제어 화면에 표시된 제어 속성 값이 설정되면, 설정된 제어 속성 값을 포함하는 제어 메시지를 제어 대상 단말기(120)로 전송한다.
여기서, 제어 방식은 방향을 가지는 터치, 기울임, 연속된 터치에 의한 패턴 입력, 이동 통신 단말기(110)의 사용자가 선택한 감성에 기초한 제어 및 제어 대상 단말기(120)에 저장된 콘텐츠의 제어 중 하나 이상을 포함할 수 있다.
또한, 제어 화면은 상기한 제어 방식에 따라서 제어 속성 값을 설정할 수 있는 인터페이스를 포함한다.
각 제어 방식에 대한 제어 화면의 상세한 설명은 도 2 내지 도 17을 참조하여 후술하도록 한다.
또한, 이동 통신 단말기(110)는 와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 제어 대상 단말기(120)와 연결될 수 있다.
참고로, 이동 통신 단말기(110)는 와이파이(Wi-Fi) 또는 블루투스(Bluetooth)를 이용할 수 있는 스마트폰, 핸드폰, PDA, PMP 및 노트 패드(Note Pad)중 하나 이상을 포함 수 있다.
한편, 제어 대상 단말기(120)는 이동 통신 단말기(110)로부터 제어 메시지를 수신하고, 수신된 제어 메시지로부터 제어 방식 및 제어 방식에 따른 제어 속성 값을 추출한다.
이후, 제어 대상 단말기(120)는 추출된 제어 방식 및 제어 방식에 따른 제어 속성 값에 기초하여 동작을 수행한다.
참고로, 제어 대상 단말기(120)는 어린이들이 친근함을 느낄 수 있는 형상의 로봇을 포함할 수 있다.
이 로봇은 몸체의 일 측면에 디스플레이부(화면)를 포함할 수 있으며, 몸체 및 몸체와 연결된 각 부분에 점등부를 포함할 수도 있고, 이동을 위한 구동 수단, 예를 들어 복수개의 바퀴와 바퀴에 동력을 전달하는 전기 모터를 포함할 수도 있다.
이하에서는, 제어 대상 단말기(120)를 키즈 로봇(Kids Robot), 즉, 키봇(KiBot)(120)으로 칭하도록 한다.
도 2 및 도 4는 본 발명의 일 실시예에 따른 제어 방식의 제어 화면을 도시한 도면이다.
도 2는 복수의 제어 방식 중 방향을 가지는 터치를 이용한 제어 방식이 선택된 경우이다.
참고로, 도 2에 도시된 바와 같이, 방향을 가지는 터치를 이용한 제어 화면이 먼저 기본(default)으로 표시되고, 도 3에 도시된 바와 같이 제어 방식을 선택할 수 있는 리스트가 표시될 수 있다.
또한, 도 3에 도시된 바와 같이 제어 방식을 선택할 수 있는 리스트가 먼저 표시되고, 선택된 제어 방식에 대한 제어 화면이 표시될 수도 있다.
도 3에 도시된 바와 같이, 제어 방식을 선택할 수 있는 리스트는 다양하게 구현될 수 있다.
도 2에 도시된 제어 화면(200)은 방향을 가지는 터치를 이용하여 키봇(120)의 이동 방향을 설정하기 위한 이동 방향 설정 영역(210) 및 키봇(120)의 이동 속도를 설정하기 위한 이동 속도 설정 영역(220) 중 하나 이상을 포함할 수 있다.
여기서, 이동 방향 설정 영역(210)은 상?하 방향을 표시하는 바(bar)형태의 제 1 터치 영역(211) 및 제 2 터치 영역(212)을 포함할 수 있으며, 제 1 터치 영역(211)은 키봇(120)의 좌측 구동 수단(예를 들어, 모터와 해당 모터에 연결된 바퀴)의 제어에 대응하고, 제 2 터치 영역(212)은 키봇(120)의 우측 구동 수단의 제어에 대응할 수 있다.
따라서, 제 1 터치 영역(211) 및 제 2 터치 영역(212)에 대한 상 또는 하 방향의 터치는 키봇(120)을 방향 전환 시킬 수 있으며, 제 1 터치 영역(211) 및 제 2 터치 영역(212)에 대한 상 또는 하 방향의 동시 터치는 키봇(120)을 상 또는 하방향으로 이동 시킬 수 있다.
예를 들어, 제 1 터치 영역(211)에 상 방향의 터치가 입력되면, 키봇(120)은 전진하면서 우측 방향으로 이동하고, 제 2 터치 영역(211)에 하 방향의 터치가 입력되면, 키봇(120)은 후진하면서 좌측 방향으로 이동할 수 있다.
또한, 제 1 터치 영역(211) 및 제 2 터치 영역(212)에 상 방향의 터치가 동시 입력되면, 키봇(120)은 직진하는 방향으로 이동할 수 있다.
참고로, 제 1 터치 영역(211)과 제 2 터치 영역(212)에 입력되는 터치의 길이에 따라서 키봇(120)의 이동 거리가 달라질 수 있다.
예를 들어, 제 1 터치 영역(211)의 각 방향을 나타내는 화살표의 총 길이가 키봇의 이동 거리 30cm에 대등되는 경우, 상 방향의 화살표 최단까지 터치가 입력되면 키봇(120)은 약 30cm의 거리를 이동할 수 있고, 상 방향의 화살표 중간까지 터치가 입력되면 키봇(120)은 약 15cm의 거리를 이동할 수 있다.
물론, 제 1 터치 영역(211)와 제 2 터치 영역(212)에 입력되는 터치의 길이와 관계 없이, 방향을 가지는 터치가 입력되면, 해당 방향으로 미리 정해진 거리만큼 키봇(120)이 이동할 수도 있다.
이동 방향 설정 영역(210)의 다른 실시예로서, 이동 방향 설정 영역(210)이 상?하?좌?우 방향을 표시하는 십자(cross)형태의 터치 영역을 포함할 수 있다.
여기서, 십자형태의 각 방향은 키봇(120)의 이동 방향에 각각 대응될 수 있다.
또한, 이동 속도 설정 영역(220)은 도 2에 도시된 바와 같이, 상?하 방향으로 터치됨으로써 키봇(120)의 이동 속도를 설정하는 이동 속도 설정 바(bar)(221)를 포함할 수 있다.
여기서, 이동 속도 설정 바(221)는 키봇(120)의 현재 이동 속도를 표시하는 현재 속도 표시부(222)를 포함할 수 있다.
이동 속도 설정 영역(220)의 다른 실시예로서, 이동 속도 설정 영역(220)은 키봇(120)의 이동 속도를 설정할 수 있는 숫자 키패드를 포함할 수 있다.
즉, 이동 속도 설정 바(bar)(221)와 같이 상?하 방향의 터치로 이동 속도를 조절하는 방식이 아닌, 설정하려는 이동 속도에 해당하는 숫자를 직접 터치할 수 있는 숫자 키패를 통해 이동 속도를 조절할 수도 있다.
이동 통신 단말기(110)는 전술한 이동 방향 설정 영역(210)에 입력된 터치의 방향과 길이를 키봇(120)의 이동 방향 및 이동 거리에 대한 제어 속성 값으로 산출하고, 이동 속도 설정 영역(220)에 입력된 터치에 대응하는 값을 이동 속도에 대한 제어 속성 값으로 산출하여 키봇(120)으로 전송할 수 있다.
도 4는 복수의 제어 방식 중 방향을 가지는 터치를 이용한 제어 방식이 선택된 경우로서, 도 2와는 다른 실시예이다.
도 4는, 도 2에 도시된 제어 화면(200)에서 이동 속도 설정 영역(220)이 포함되지 않은 경우이며, 좌우에 위치한 바(bar) 형상을 가지는 터치 영역의 터치에 따라서 키봇(120)의 이동 방향 및 이동 속도가 함께 설정될 수 있다.
예를 들어, 바(bar) 형상을 가지는 터치 영역은 -5 단계에서 5 단계로 구분될 수 있으며, -5 단계는 가장 느린 속도, 5 단계는 가장 빠른 속도로 정해질 수 있다.
이 밖에, 도 4에 도시된 제어 화면을 통하여 키봇(120)을 제어하는 방법은 도 2의 제어 화면(200)을 이용하는 것과 동일하므로, 이에 대한 설명은 생략하도록 한다.
참고로, 중앙에 위치한 바늘 계기판은 키봇(120)의 속도를 미리 정해진 범위(예를 들어, 0~10) 내에서 표시할 수 있다.
도 5 및 도 7은 본 발명의 다른 실시예에 따른 제어 방식의 제어 화면을 도시한 도면이다.
도 5에 도시된 바와 같이, 제어 방식을 선택할 수 있는 리스트에서 기울임을 이용한 제어 방식이 선택되면, 이동 통신 단말기(110)는 도 6에 도시된 바와 같은 제어 화면을 표시할 수 있다.
도 6에 도시된 제어 화면(300)은 이동 통신 단말기(110)의 기울임을 이용하여 키봇(120)의 이동 방향을 설정하기 위한 이동 방향 설정 영역(310) 및 키봇(120)의 이동 속도를 설정하기 위한 이동 속도 설정 영역(320) 중 하나 이상을 포함할 수 있다.
여기서, 이동 방향 설정 영역(310)은 서로 다른 반경을 가지는 복수개의 동심원(331~333)이 표시되며, 복수개의 동심원 상에는 키봇(120)과 연동되는 아바타(340)가 표시될 수 있다.
참고로, 복수개의 동심원(331~333)은 아바타(340)의 이동 거리 및 방향을 산출하기 위한 기준이 되며, 아바타(340)는 이동 통신 단말기(110)의 기울임 각도 및 기울임의 유지 시간에 따라서 복수개의 동심원 상에서 이동할 수 있다.
즉, 복수개의 동심원(331~333) 상에서 이동하는 아바타(340)의 이동 거리 및 방향에 따라서, 키봇(120)의 이동 거리 및 방향이 정해질 수 있다.
예를 들어, 복수개의 동심원(331~333) 중 반경이 가장 작은 제 1 동심원(331)은 키봇(120)의 이동 거리 40cm에 대응하고, 제 2 동심원(332)은 키봇(120)의 이동 거리 80cm에 대응하며, 반경이 가장 큰 제 3 동심원(333)은 키봇(120)의 이동 거리 120cm에 대응한다.
이동 통신 단말기(110)의 기울임 각도 및 기울임의 유지 시간에 따라서 아바타(340)가 특정 위치(350)에 위치하면, 이동 통신 단말기(110)는 이동 통신 단말기(110)의 기울임 각도 및 기울임의 유지 시간을 키봇(120)의 이동 방향 및 이동 거리에 대한 제어 속성 값으로 산출할 수 있다.
이를 위해, 이동 통신 단말기(110)에는 자이로센서가 포함될 수 있다.
한편, 이동 속도 설정 영역(320)은 도 2에 도시된 이동 속도 설정 영역(220)과 동일하므로 상세한 설명은 생략하도록 한다.
결국, 이동 통신 단말기(110)는 도 6에 도시된 제어 화면(300)의 이동 방향 설정 영역(310)을 통해 입력된 이동 통신 단말기(110)의 기울임 각도 및 기울임의 유지 시간을 키봇(120)의 이동 방향 및 이동 거리에 대한 제어 속성 값으로 산출하고, 이동 속도 설정 영역(320)에 입력된 터치에 대응하는 값을 이동 속도에 대한 제어 속성 값으로 산출하여 키봇(120)으로 전송할 수 있다.
도 7에 도시된 제어 화면은 이동 통신 단말기(110)의 기울임을 이용하여 키봇(120)의 이동 방향 및 속도를 설정하기 위한 다른 실시예로서, 화면의 하단에 이동 통신 단말기(110)의 사용자 지문이 접촉되는 지문 영역(360)을 포함한다.
이동 통신 단말기(110)의 사용자는 지문 영역을 손으로 잡은 상태에서, 이동 통신 단말기(110)의 기울임을 이용하여 키봇(120)의 이동 방향 및 속도를 제어할 수 있다.
참고로, 여기서 기울임은, 이동 통신 단말기(110)의 모션을 의미하는 것으로서, 앞서 설명한 기울임을 포함하는 의미로 이해할 수 있다.
또한, 모션은 이동 통신 단말기(110)의 화면이 위로, 아래로, 좌로, 또는 우로 향하도록 하는 동작을 포함할 수 있다.
예를 들어, 이동 통신 단말기(110)의 사용자가 지문 영역(360)을 손으로 잡은 상태에서, 이동 통신 단말기(110)의 화면이 위로 향하도록 모션을 취하는 경우, 키봇(120)은 전진하게 되며, 이동 통신 단말기(110)의 화면이 좌로 향하도록 모션을 취하는 경우, 키봇(120)은 좌로 방향을 전환할 수 있다.
이때, 이동 통신 단말기(110)가 흔들리는 속도, 즉, 이동 통신 단말기(110)의 사용자가 이동 통신 단말기(110)를 흔드는 속도에 따라서 키봇(120)의 속도가 정해질 수 있다.
도 8 내지 도 10은 본 발명의 또 다른 실시예에 따른 제어 방식의 제어 화면을 도시한 도면이다.
도 8에 도시된 바와 같이, 제어 방식을 선택할 수 있는 리스트에서 연속된 터치에 의한 패턴 입력을 이용한 제어 방식이 선택되면, 이동 통신 단말기(110)는 도 9에 도시된 바와 같은 제어 화면을 표시할 수 있다.
도 9에 도시된 제어 화면(400)은 연속된 터치에 의한 패턴에 따라 키봇(120)의 이동 경로를 설정하는 이동 경로 설정 영역(410) 및 키봇(120)의 이동 속도를 설정하기 위한 이동 속도 설정 영역(420) 중 하나 이상을 포함할 수 있다.
여기서, 이동 경로 설정 영역(410)은 n×n 형태인 복수개의 노드(411)를 포함하며, 패턴은 각 노드를 경유하는 연속된 터치에 의하여 형성될 수 있다.
한편, 이동 속도 설정 영역(420)은 도 2에 도시된 이동 속도 설정 영역(220)과 동일하므로 상세한 설명은 생략하도록 한다.
결국, 이동 통신 단말기(110)는 이동 경로 설정 영역(410)을 통해 입력된 패턴을 키봇(120)의 이동 경로에 대한 제어 속성 값으로 산출하고, 이동 속도 설정 영역(420)에 입력된 터치에 대응하는 값을 이동 속도에 대한 제어 속성 값으로 산출하여 키봇(120)으로 전송할 수 있다.
참고로, 이동 통신 단말기(110)는 패턴을 별도로 저장할 수 있으며, 저장된 패턴은 도 10에 도시된 바와 같이 리스트로 제공되고, 리스트 중 어느 하나의 패턴이 선택되면, 이동 통신 단말기(110)는 선택된 패턴을 키봇(120)의 이동 경로에 대한 제어 속성 값으로 산출할 수 있다.
도 11 내지 도 14는 본 발명의 또 다른 실시예에 따른 제어 방식의 제어 화면을 도시한 도면이다.
도 11에 도시된 바와 같이, 제어 방식을 선택할 수 있는 리스트에서 감성에 기초한 제어 방식이 선택되면, 이동 통신 단말기(110)는 도 12에 도시된 바와 같은 제어 화면(500)을 표시할 수 있다.
이후, 도 12에 도시된 감성의 목록(510) 중 이동 통신 단말기(110)의 사용자에 의해 어느 하나가 선택되면, 이동 통신 단말기(110)는 선택된 감성에 대응하는 키봇(120)의 제어 속성 값을 제어 속성 DB로부터 추출하여 키봇(120)으로 전송할 수 있다.
예를 들어, ‘기쁨’이라는 감성이 선택되면, 이동 통신 단말기(110)는 ‘기쁨’이라는 감성에 대응하는 제어 속성 값들, 즉, ‘키봇(120)이 앞뒤로 2회 움직이고 한 바퀴 회전, 키봇(120)의 화면에는 환하게 웃는 표정의 이미지를 표시, 키봇(120)의 머리에 위치한 뿔 형상의 점등부 색상은 노란색으로 초당 3회 발광, 손등에 위치한 점등부의 색상은 파란색으로 초당 3회 발광, 꼬리에 위치한 점등부의 색상은 붉은색으로 초당 3회 발광’하도록 하는 값 및 TTS 메시지(예를 들어, 오늘은 즐거운날~ 친구야 나랑 같이 놀자~ 히~)를 제어 속성 DB로부터 추출하여 키봇(120)으로 전송할 수 있다.
이를 위해, 이동 통신 단말기(110)는 도 13에 도시된 바와 같은 제어 화면을 표시하여, 키봇(120)의 각 점등부의 색상과 점등 속도를 설정할 수 있으며, 이 밖에도 각 감성에 따라서 키봇(120)의 이동 방향, 이동 패턴 및 이동 속도를 설정하고, TTS(Text To Speech)를 입력할 수 있는 제어 화면을 제공할 수 있다.
이 제어 화면을 통해 입력된 제어 속성 값은 해당 제어 속성 값에 대응하는 감성과 연계되어 제어 속성 DB에 저장될 수 있다.
참고로, 각 감성에 따라서 키봇(120)의 이동 방향, 이동 패턴 및 이동 속도를 설정하기 위한 제어 화면은, 앞서 설명한 제어 화면이 이용될 수 있다.
도 14는 도 12에 도시된 바와 같은 제어 화면(500)의 다른 실시예로서, 감성 목록이 감성을 나타내는 ‘문자’가 아닌, 감성을 나타내는 아이콘(이하, ‘감성 아이콘’이라 칭함)으로 표시될 수 있으며, 감성 아이콘이 선택되면, 선택된 감성에 대응하여 옆 키봇의 얼굴 표정이 변할 수 있다.
예를 들어, 깃털 아이콘이 선택되면, 키봇(120)은 귀를 기울이는 표정을 표시하면서 “아이 간지러워! 누가 소근소근 하는거지?”라는 음성을 출력할 수 있으며, 선물 아이콘이 선택되면, 키봇(120)은 신나는 표정을 표시하면서 “야호! 기분 최고!”라는 음성을 출력할 수 있다.
또한, 배터리 아이콘이 선태되면, 키봇(120)은 먹는 표정을 표시하면서 “배고팠는데 이제 배부르다, 고마워~”라는 음성을 출력할 수 있다.
도 15 내지 17은 본 발명의 또 다른 실시예에 따른 제어 방식의 제어 화면을 도시한 도면이다.
도 15에 도시된 바와 같이, 제어 방식을 선택할 수 있는 리스트에서 콘텐츠를 제어하는 제어 방식이 선택되면, 이동 통신 단말기(110)는 도 16에 도시된 바와 같은 제어 화면, 즉, 키봇(120)에 저장된 콘텐츠의 목록을 표시할 수 있다.
이후, 표시된 콘텐츠 목록 중 어느 하나가 선택되면, 도 17에 도시된 바와 같이, 선택된 콘텐츠의 재생(시작), 재생 정지(일시 정지) 및 출력 방법 중 하나 이상을 설정하는 제어 화면(600)을 표시할 수 있다.
도 17에서는 ‘시작’ 버튼이 선택되면 ‘시작’ 버튼은 ‘일시 정지’ 버튼으로 변경될 수 있으며, 후에 ‘일시 정지’ 버튼이 선택되면, ‘일시 정지’ 버튼은 다시 ‘시작’ 버튼으로 변경될 수 있다.
여기서 출력 방법은 선택된 콘텐츠의 출력 수단에 대한 선택으로서, ‘얼굴’이 선택되면, 키봇(120)의 얼굴에 위치한 화면을 통해 선택된 콘텐츠가 재생 될 수 있으며, ‘빔’이 선택되면, 키봇(120)과 연결된 외부 장치(예를 들어, 프로젝터)를 통해 선택된 콘텐츠가 재생될 수 있다.
물론, 재생중인 콘텐츠를 일시 정시 시킬 수도 있다.
도 18은 본 발명의 일 실시예에 따른 원격 제어 과정을 도시한 흐름도이다.
이하, 도 1에 도시된 시스템의 구성 요소를 참조하여 도 18의 흐름도를 설명하도록 한다.
먼저, 이동 통신 단말기(110)는 키봇(120)을 원격 제어하기 위한 복수의 제어 방식을 이동 통신 단말기(110)의 화면에 표시한다(S701).
여기서 제어 방식은 방향을 가지는 터치, 기울임, 연속된 터치에 의한 패턴 입력, 이동 통신 단말기(110)의 사용자가 선택한 감성에 대한 제어 및 키봇(120)에 저장된 콘텐츠의 제어 중 하나 이상을 포함할 수 있다.
S701 후, 복수의 제어 방식 중 어느 하나가 선택되면, 이동 통신 단말기(110)는 선택된 제어 방식에 대응하는 제어 화면을 표시한다(S702).
여기서 제어 화면은 선택된 제어 방식(방향을 가지는 터치 및 기울임)에 따라 키봇(120)의 이동 방향 및 거리를 설정하기 위한 이동 방향 설정 영역 및 키봇의 이동 속도를 설정하기 위한 이동 속도 설정 영역 중 하나 이상을 포함할 수 있다.
또한, 제어 화면은 선택된 제어 방식(연속된 터치에 의한 패턴 입력)에 따라 키봇(120)의 이동 경로를 설정하기 위한 이동 경로 설정 영역 및 키봇(120)의 이동 속도를 설정하기 위한 이동 속도 설정 영역 중 하나 이상을 포함할 수 있다.
또한, 제어 화면은 선택된 제어 방식(감성에 기초한 제어)에 따라 키봇(120)의 각 점등부의 색상과 점등 속도, 이동 방향, 이동 패턴 및 이동 속도를 설정하고, TTS(Text To Speech)를 입력할 수 있는 인터페이스를 포함할 수 있다
또한, 제어 화면은 선택된 제어 방식(키봇에 저장된 콘텐츠 제어)에 따라 키봇에 저장된 콘텐츠를 표시하고, 표시된 콘텐츠 중 선택된 콘텐츠의 재생, 재생 정지 및 출력 방법 중 하나 이상을 설정하는 인터페이스를 포함할 수 있다.
S702 후, 제어 화면에 표시된 제어 속성 값이 설정되면, 이동 통신 단말기(110)는 S702에서 설정된 제어 속성 값을 포함하는 제어 메시지를 키봇(120)으로 전송한다(S703).
S703 후, 키봇(120)은 이동 통신 단말기(110)로부터 제어 메시지를 수신한다(S704).
S704 후, 키봇(120)은 수신된 제어 메시지로부터 제어 방식 및 제어 방식에 따른 제어 속성 값을 추출한다(S705).
S705 후, 키봇(120)은 추출된 제어 방식 및 제어 속성 값에 기초하여 동작을 수행한다(S706).
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다.
본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
로봇, 통신 산업에 이용할 수 있다.

Claims (31)

  1. 이동 통신 단말기가 제어 대상 단말기를 원격 제어하는 방법에 있어서,
    (a) 상기 제어 대상 단말기를 원격 제어하기 위한 복수의 제어 방식을 표시하는 단계,
    (b) 상기 복수의 제어 방식 중 어느 하나가 선택되면, 상기 선택된 제어 방식에 대응하는 제어 화면을 표시하는 단계 및
    (c) 상기 제어 화면에 표시된 제어 속성 값이 설정되면, 상기 설정된 제어 속성 값을 포함하는 제어 메시지를 상기 제어 대상 단말기로 전송하는 단계
    를 포함하되, 상기 제어 방식은 방향을 가지는 터치, 기울임 및 연속된 터치에 의한 패턴 입력 중 하나 이상을 포함하는, 원격 제어 방법.
  2. 제 1 항에 있어서,
    상기 (b) 단계는
    상기 복수의 제어 방식 중 상기 방향을 가지는 터치를 이용한 제어 방식이 선택된 경우, 상기 방향을 가지는 터치를 이용하여 상기 제어 대상 단말기의 이동 방향 및 이동 거리 중 하나 이상을 설정하기 위한 이동 방향 설정 영역 및 상기 제어 대상 단말기의 이동 속도를 설정하기 위한 이동 속도 설정 영역 중 하나 이상을 포함하는 상기 제어 화면을 표시하는, 원격 제어 방법.
  3. 제 1 항에 있어서,
    상기 (b) 단계는
    상기 복수의 제어 방식 중 상기 방향을 가지는 터치를 이용한 제어 방식이 선택된 경우, 상기 방향을 가지는 터치를 이용하여 상기 제어 대상 단말기의 이동 방향 및 이동 속도를 설정하기 위한 동작 설정 영역을 포함하는 상기 제어 화면을 표시하는, 원격 제어 방법.
  4. 제 2 항 또는 제 3 항에 있어서,
    상기 (c) 단계는
    상기 제어 화면에 입력된 터치의 방향 및 길이를 상기 이동 방향, 이동 거리 및 이동 속도 중 하나 이상에 대한 제어 속성 값으로 산출하는, 원격 제어 방법.
  5. 제 1 항에 있어서,
    상기 (b) 단계는
    상기 복수의 제어 방식 중 상기 기울임을 이용한 제어 방식이 선택된 경우, 상기 이동 통신 단말기의 기울임을 이용하여 상기 제어 대상 단말기의 이동 방향 및 이동 거리 중 하나 이상을 설정하기 위한 이동 방향 설정 영역 및 상기 제어 대상 단말기의 이동 속도를 설정하기 위한 이동 속도 설정 영역 중 하나 이상을 포함하는 상기 제어 화면을 표시하는, 원격 제어 방법.
  6. 제 5 항에 있어서,
    상기 이동 방향 설정 영역은 상기 제어 대상 단말기와 연동되는 아바타를 포함하며, 상기 아바타는 상기 이동 통신 단말기의 기울임 각도 및 상기 기울임의 유지 시간에 따라서 상기 이동 방향 설정 영역 내에서 이동하는, 원격 제어 방법.
  7. 제 5 항에 있어서,
    상기 (c) 단계는 상기 이동 통신 단말기의 기울임 각도 및 상기 기울임의 유지 시간을 상기 이동 방향 및 이동 거리에 대한 제어 속성 값으로 산출하고, 상기 이동 속도 설정 영역에 입력된 터치에 대응하는 설정값을 상기 이동 속도에 대한 제어 속성 값으로 산출하는, 원격 제어 방법.
  8. 제 1 항에 있어서,
    상기 (b) 단계는
    상기 복수의 제어 방식 중 상기 기울임을 이용한 제어 방식이 선택된 경우, 상기 이동 통신 단말기의 기울임을 포함하는 모션을 이용하여 상기 제어 대상 단말기의 이동 방향 및 이동 속도를 설정하기 위한 상기 제어 화면을 표시하되, 상기 제어 화면은 상기 이동 통신 단말기의 사용자 지문이 접촉되는 지문 영역을 포함하고, 상기 지문 영역에 상기 사용자 지문이 접촉된 상태에서 상기 기울임을 포함하는 모션이 수행된 경우 상기 제어 대상 단말기의 이동 방향 및 이동 속도가 설정되는, 원격 제어 방법.
  9. 제 8 항에 있어서,
    상기 (c) 단계는
    상기 이동 통신 단말기의 기울임을 포함하는 모션을 상기 이동 방향 및 이동 속도에 대한 제어 속성 값으로 산출하되, 상기 기울임을 포함하는 모션은 상기 이동 통신 단말기의 화면이 위로, 아래로, 좌로 또는 우로 향하도록 하는 것인, 원격 제어 방법.
  10. 제 1 항에 있어서,
    상기 (b) 단계는
    상기 복수의 제어 방식 중 상기 연속된 터치에 의한 패턴 입력을 이용한 제어 방식이 선택된 경우, 상기 연속된 터치에 의한 패턴에 따라 상기 제어 대상 단말기의 이동 경로를 설정하는 이동 경로 설정 영역 및 상기 제어 대상 단말기의 이동 속도를 설정하기 위한 이동 속도 설정 영역 중 하나 이상을 포함하는 상기 제어 화면을 표시하는, 원격 제어 방법.
  11. 제 10 항에 있어서,
    상기 이동 경로 설정 영역은 n×n 형태인 복수개의 노드를 포함하며, 상기 패턴은 상기 각 노드를 경유하는 연속된 터치에 의하여 형성되는 것인, 원격 제어 방법.
  12. 제 10 항에 있어서,
    상기 (c) 단계는
    상기 입력된 패턴을 상기 이동 경로에 대한 제어 속성 값으로 산출하고, 상기 이동 속도 설정 영역에 입력된 터치에 대응하는 설정값을 상기 이동 속도에 대한 제어 속성 값으로 산출하는, 원격 제어 방법.
  13. 제 1 항에 있어서,
    상기 제어 방식은 상기 이동 통신 단말기의 사용자가 선택한 감성에 기초한 제어를 더 포함하며,
    상기 (b) 단계는
    상기 복수의 제어 방식 중 사용자가 선택한 감성에 기초한 제어가 선택된 경우, 상기 제어 대상 단말기의 이동 방향, 이동 패턴, 이동 속도, TTS(Text To Speech) 및 발광부의 색상과 점등 속도 중 하나 이상을 설정하기 위한 상기 제어 화면을 표시하는, 원격 제어 방법.
  14. 제 1 항에 있어서,
    상기 제어 방식은 상기 제어 대상 단말기에 저장된 콘텐츠 제어를 더 포함하며,
    상기 (b) 단계는
    상기 복수의 제어 방식 중 콘텐츠 제어가 선택되는 경우, 상기 제어 대상 단말기에 저장된 콘텐츠의 재생, 재생 정지 및 출력 방법 중 하나 이상을 설정하기 위한 상기 제어 화면을 표시하는, 원격 제어 방법.
  15. 이동 통신 단말기가 제어 대상 단말기를 원격 제어하는 사용자 인터페이스에 있어서,
    상기 제어 대상 단말기를 원격 제어하기 위해 표시되는 복수의 제어 방식 리스트 및
    상기 제어 방식 리스트 중 어느 하나가 선택되면, 상기 선택된 제어 방식에 대응하여 표시되는 제어 화면
    을 포함하되, 상기 제어 방식은 방향을 가지는 터치, 기울임 및 연속된 터치에 의한 패턴 입력 중 하나 이상을 포함하고,
    상기 방향을 가지는 터치를 이용한 제어 화면은 상기 방향을 가지는 터치를 이용하여 상기 제어 대상 단말기의 이동 방향, 거리 및 속도 중 하나 이상을 설정하기 위한 제 1 동작 설정 영역을 포함하며,
    상기 기울임을 이용한 제어 화면은, 상기 이동 통신 단말기의 기울임을 이용하여 상기 제어 대상 단말기의 이동 방향, 거리 및 속도 중 하나 이상을 설정하기 위한 제 2 동작 설정 영역을 포함하고,
    상기 연속된 터치에 의한 패턴 입력을 이용한 제어 화면은, 상기 연속된 터치에 의한 패턴에 따라 상기 제어 대상 단말기의 이동 경로를 설정하는 이동 경로 설정 영역 및 상기 이동 속도 설정 영역 중 하나 이상을 포함하는, 원격 제어 사용자 인터페이스.
  16. 제 15 항에 있어서,
    상기 제 1 동작 설정 영역은 상?하 방향을 표시하는 바(bar)형태의 제 1 터치 영역 및 제 2 터치 영역을 포함하되,
    상기 제 1 터치 영역은 상기 제어 대상 단말기의 좌측 구동 수단의 제어에 대응하고, 상기 제 2 터치 영역은 상기 제어 대상 단말기의 우측 구동 수단의 제어에 대응하는 것인, 원격 제어 사용자 인터페이스.
  17. 제 16 항에 있어서,
    상기 제 1 터치 영역 또는 제 2 터치 영역에 대한 상 또는 하 방향의 터치는 상기 제어 대상 단말기를 방향 전환 시키며, 상기 제 1 터치 영역 및 제 2 터치 영역에 대한 상 및 하 방향의 동시 터치는 상기 제어 대상 단말기를 상 또는 하방향으로 이동 시키는, 원격 제어 사용자 인터페이스.
  18. 제 17 항에 있어서,
    상기 제 1 동작 설정 영역은, 상기 제어 대상 단말기의 이동 속도를 설정하는 이동 속도 설정 영역을 더 포함하되,
    상기 제 1 동작 설정 영역에 상기 이동 속도 설정 영역이 포함되지 않은 경우, 상기 제 1 터치 영역 및 제 2 터치 영역은 상기 방향을 가지는 터치를 통하여 상기 제어 대상 단말기의 이동 속도를 더 설정하는, 원격 제어 사용자 인터페이스.
  19. 제 15 항에 있어서,
    상기 제 1 동작 설정 영역은 상?하?좌?우 방향을 표시하는 십자(cross)형태의 터치 영역을 포함하되, 상기 십자형태의 각 방향은 상기 제어 대상 단말기의 각 이동 방향에 대응하는, 원격 제어 사용자 인터페이스.
  20. 제 15 항에 있어서,
    상기 제 2 동작 설정 영역은 서로 다른 반경을 가지는 복수개의 동심원이 표시되며, 상기 복수개의 동심원 상에는 상기 제어 대상 단말기와 연동되는 아바타가 표시되되, 상기 복수개의 동심원은 상기 아바타의 이동 거리 및 방향 중 하나 이상을 산출하기 위한 기준이 되는 것인, 원격 제어 사용자 인터페이스.
  21. 제 20 항에 있어서,
    상기 아바타는 상기 이동 통신 단말기의 기울임 각도 및 상기 기울임의 유지 시간에 따라서 상기 복수개의 동심원 상에서 이동하며, 상기 복수개의 동심원 상에서 이동하는 상기 아바타의 이동 거리, 방향 및 속도에 따라서, 상기 제어 대상 단말기의 이동 거리, 방향 및 속도가 정해지는, 원격 제어 사용자 인터페이스.
  22. 제 15 항에 있어서,
    상기 제 2 동작 설정 영역은 상기 이동 통신 단말기의 사용자 지문이 접촉되는 지문 영역을 포함하며, 상기 지문 영역에 상기 사용자 지문이 접촉된 상태에서 상기 기울임을 포함하는 모션이 수행된 경우 상기 제어 대상 단말기의 이동 방향 및 속도가 설정되는, 원격 제어 사용자 인터페이스.
  23. 제 15 항에 있어서,
    상기 이동 경로 설정 영역은 n×n 형태인 복수개의 노드를 포함하며, 상기 패턴은 상기 각 노드를 경유하는 연속된 터치에 의하여 형성되는 것인, 원격 제어 사용자 인터페이스.
  24. 제 15 항에 있어서,
    상기 제어 방식은 상기 이동 통신 단말기의 사용자가 선택한 감성에 기초한 제어를 더 포함하며, 상기 사용자가 선택한 감성에 기초한 제어 방식의 제어 화면은 상기 제어 대상 단말기의 이동 방향, 이동 패턴, 이동 속도, TTS(Text To Speech) 및 발광부의 색상과 점등 속도 중 하나 이상을 설정하는, 원격 제어 사용자 인터페이스.
  25. 제 15 항에 있어서,
    상기 제어 방식은 상기 제어 대상 단말기에 저장된 콘텐츠를 제어하는 방식을 더 포함하며, 상기 콘텐츠를 제어하는 방식의 제어 화면은 상기 제어 대상 단말기에 저장된 콘텐츠의 재생, 재생 정지 및 출력 방법 중 하나 이상을 설정하는, 원격 제어 사용자 인터페이스.
  26. 원격 제어 시스템에 있어서,
    상기 제어 대상 단말기를 원격 제어하기 위한 복수의 제어 방식 중 어느 하나가 선택되면, 상기 선택된 제어 방식에 대응하는 제어 화면을 표시하고, 상기 제어 화면에 표시된 제어 속성 값이 설정되면, 상기 설정된 제어 속성 값을 포함하는 제어 메시지를 전송하는 이동 통신 단말기 및
    상기 이동 통신 단말기로부터 상기 제어 메시지를 수신하고, 상기 수신된 제어 메시지로부터 상기 선택된 제어 방식 및 상기 선택된 제어 방식에 따른 제어 속성 값을 추출하여 동작하는 제어 대상 단말기
    를 포함하되, 상기 제어 방식은 방향을 가지는 터치, 기울임, 연속된 터치에 의한 패턴 입력, 상기 이동 통신 단말기의 사용자가 선택한 감성에 기초한 제어 및 상기 제어 대상 단말기에 저장된 콘텐츠의 제어 중 하나 이상을 포함하며, 상기 제어 화면은 상기 제어 방식에 따라서 상기 제어 속성 값을 설정할 수 있는 인터페이스를 포함하는, 원격 제어 시스템.
  27. 제 26 항에 있어서,
    상기 제어 방식 중 상기 방향을 가지는 터치 및 기울임이 선택되면, 상기 이동 통신 단말기는 상기 제어 대상 단말기의 이동 방향 및 거리 중 하나 이상을 설정하기 위한 제 1 영역 및 상기 제어 대상 단말기의 이동 속도를 설정하기 위한 제 2 영역 중 하나 이상을 포함하는 상기 제어 화면을 표시하는, 원격 제어 시스템.
  28. 제 26 항에 있어서,
    상기 제어 방식 중 상기 방향을 가지는 터치 및 기울임이 선택되면, 상기 이동 통신 단말기는 상기 제어 대상 단말기의 이동 방향, 거리 및 속도 중 하나 이상을 설정하기 위한 동작 설정 영역을 포함하는 상기 제어 화면을 표시하는, 원격 제어 시스템.
  29. 제 26 항에 있어서,
    상기 제어 방식 중 상기 연속된 터치에 의한 패턴 입력이 선택되면, 상기 이동 통신 단말기는 상기 제어 대상 단말기의 이동 경로를 설정하기 위한 제 1 영역 및 상기 제어 대상 단말기의 이동 속도를 설정하기 위한 제 2 영역 중 하나 이상을 포함하는 상기 제어 화면을 표시하는, 원격 제어 시스템.
  30. 제 26 항에 있어서,
    상기 제어 방식 중 상기 감성에 기초한 제어가 선택되면, 상기 이동 통신 단말기는 상기 제어 대상 단말기의 이동 방향, 이동 패턴, 이동 속도, TTS(Text To Speech) 및 발광부의 색상과 점등 속도 중 하나 이상을 설정하기 위한 상기 제어 화면을 표시하는, 원격 제어 시스템.
  31. 제 26 항에 있어서,
    상기 제어 방식 중 상기 콘텐츠의 제어가 선택되면, 상기 이동 통신 단말기는 상기 제어 대상 단말기에 저장된 콘텐츠의 재생, 재생 정지 및 출력 방법 중 하나 이상을 설정하기 위한 상기 제어 화면을 표시하는, 원격 제어 시스템.
PCT/KR2012/001538 2011-12-21 2012-02-29 원격 제어 방법, 시스템 및 원격 제어 사용자 인터페이스 WO2013094821A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/368,139 US9594502B2 (en) 2011-12-21 2012-02-29 Method and system for remote control, and remote-controlled user interface

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2011-0139632 2011-12-21
KR1020110139632A KR101410416B1 (ko) 2011-12-21 2011-12-21 원격 제어 방법, 시스템 및 원격 제어 사용자 인터페이스

Publications (1)

Publication Number Publication Date
WO2013094821A1 true WO2013094821A1 (ko) 2013-06-27

Family

ID=48668680

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/001538 WO2013094821A1 (ko) 2011-12-21 2012-02-29 원격 제어 방법, 시스템 및 원격 제어 사용자 인터페이스

Country Status (3)

Country Link
US (1) US9594502B2 (ko)
KR (1) KR101410416B1 (ko)
WO (1) WO2013094821A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103558786A (zh) * 2013-10-31 2014-02-05 哈尔滨工业大学 基于嵌入Android移动终端及FPGA的手部功能康复机器人人机交互控制系统
WO2017126827A1 (ko) * 2016-01-22 2017-07-27 삼성전자 주식회사 단말 장치, 원격 제어 시스템 및 제어 방법
EP3126936A4 (en) * 2014-04-04 2018-03-28 ABB Schweiz AG Portable apparatus for controlling robot and method thereof

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9429940B2 (en) 2011-01-05 2016-08-30 Sphero, Inc. Self propelled device with magnetic coupling
US10281915B2 (en) 2011-01-05 2019-05-07 Sphero, Inc. Multi-purposed self-propelled device
US20120173050A1 (en) 2011-01-05 2012-07-05 Bernstein Ian H System and method for controlling a self-propelled device in connection with a virtual environment
US9090214B2 (en) 2011-01-05 2015-07-28 Orbotix, Inc. Magnetically coupled accessory for a self-propelled device
US9218316B2 (en) 2011-01-05 2015-12-22 Sphero, Inc. Remotely controlling a self-propelled device in a virtualized environment
US20120244969A1 (en) 2011-03-25 2012-09-27 May Patents Ltd. System and Method for a Motion Sensing Device
WO2013033954A1 (zh) 2011-09-09 2013-03-14 深圳市大疆创新科技有限公司 陀螺式动态自平衡云台
US9827487B2 (en) 2012-05-14 2017-11-28 Sphero, Inc. Interactive augmented reality using a self-propelled device
KR20150012274A (ko) 2012-05-14 2015-02-03 오보틱스, 아이엔씨. 이미지 내 원형 객체 검출에 의한 계산장치 동작
US10056791B2 (en) 2012-07-13 2018-08-21 Sphero, Inc. Self-optimizing power transfer
US8903568B1 (en) * 2013-07-31 2014-12-02 SZ DJI Technology Co., Ltd Remote control method and terminal
EP2984519B1 (en) 2013-10-08 2020-08-12 SZ DJI Osmo Technology Co., Ltd. Apparatus and methods for stabilization and vibration reduction
US9421688B2 (en) * 2013-12-12 2016-08-23 Beatbots, LLC Robot
US9358475B2 (en) 2013-12-12 2016-06-07 Beatbots, LLC Robot
US9829882B2 (en) 2013-12-20 2017-11-28 Sphero, Inc. Self-propelled device with center of mass drive system
KR20150144641A (ko) * 2014-06-17 2015-12-28 삼성전자주식회사 사용자 단말 장치 및 그 제어 방법
CN104636105A (zh) * 2015-01-28 2015-05-20 深圳市智达谷科技有限公司 一种无线同屏控制方法及系统
CN105549604B (zh) * 2015-12-10 2018-01-23 腾讯科技(深圳)有限公司 飞行器操控方法和装置
US10587790B2 (en) 2015-11-04 2020-03-10 Tencent Technology (Shenzhen) Company Limited Control method for photographing using unmanned aerial vehicle, photographing method using unmanned aerial vehicle, mobile terminal, and unmanned aerial vehicle
US20170200390A1 (en) * 2016-01-07 2017-07-13 Arthur E. Seymour Educational system utilizing a contest and a method of conducting the same
WO2017126740A1 (ko) * 2016-01-22 2017-07-27 삼성전자 주식회사 단말 장치, 원격 제어 시스템 및 제어 방법
CN107305464A (zh) * 2016-04-25 2017-10-31 西安中兴新软件有限责任公司 一种基于压力感应的控制方法和装置
US20170344172A1 (en) * 2016-05-30 2017-11-30 Nanning Fugui Precision Industrial Co., Ltd. Interface control method and mobile terminal
KR20180010884A (ko) * 2016-07-22 2018-01-31 삼성전자주식회사 무인 이동체를 제어하는 전자 장치, 그 제어 방법 및 저장 매체
JP2018163132A (ja) * 2017-03-24 2018-10-18 望月 玲於奈 姿勢算出プログラム、姿勢情報を用いたプログラム
US11376743B2 (en) * 2019-04-04 2022-07-05 Joyhaptics Oy Systems and methods for providing remote touch
KR20210019630A (ko) * 2019-08-12 2021-02-23 현대자동차주식회사 대화형 자율 주행 시스템
US11454511B2 (en) 2019-12-17 2022-09-27 Chian Chiu Li Systems and methods for presenting map and changing direction based on pointing direction
JP1721461S (ja) * 2021-02-15 2022-08-02 薬剤注射用グラフィカルユーザーインターフェースを有する表示画面

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090157221A1 (en) * 2007-12-14 2009-06-18 Hon Hai Precision Industry Co., Ltd. Robotic system, robot and mobile phone
KR101033726B1 (ko) * 2010-11-12 2011-05-09 주식회사 모뉴엘 모션제어 로봇시스템
US20110191516A1 (en) * 2010-02-04 2011-08-04 True Xiong Universal touch-screen remote controller

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7690043B2 (en) * 1994-12-19 2010-03-30 Legal Igaming, Inc. System and method for connecting gaming devices to a network for remote play
JPH09322262A (ja) * 1996-05-27 1997-12-12 Casio Comput Co Ltd 遠隔通信制御装置
US8427426B2 (en) * 2005-05-27 2013-04-23 Sony Computer Entertainment Inc. Remote input device
US8577538B2 (en) * 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
US8407605B2 (en) * 2009-04-03 2013-03-26 Social Communications Company Application sharing
US20100177053A2 (en) * 2008-05-09 2010-07-15 Taizo Yasutake Method and apparatus for control of multiple degrees of freedom of a display
US8264381B2 (en) * 2008-08-22 2012-09-11 Microsoft Corporation Continuous automatic key control
DK2435149T3 (en) * 2009-05-28 2015-09-21 Anki Inc Distributed system for autonomous control of toy cars
JP5317911B2 (ja) * 2009-09-28 2013-10-16 任天堂株式会社 情報処理プログラムおよび情報処理装置
KR20110071220A (ko) 2009-12-21 2011-06-29 한국전자통신연구원 원격 존재 로봇의 원격 제어 장치 및 방법
KR101162982B1 (ko) 2010-01-28 2012-07-09 (주)유비쿼터스사이언스테크놀러지 로봇 원격 제어 시스템
JP2011201002A (ja) * 2010-03-26 2011-10-13 Sony Corp ロボット装置、ロボット装置の遠隔制御方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090157221A1 (en) * 2007-12-14 2009-06-18 Hon Hai Precision Industry Co., Ltd. Robotic system, robot and mobile phone
US20110191516A1 (en) * 2010-02-04 2011-08-04 True Xiong Universal touch-screen remote controller
KR101033726B1 (ko) * 2010-11-12 2011-05-09 주식회사 모뉴엘 모션제어 로봇시스템

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103558786A (zh) * 2013-10-31 2014-02-05 哈尔滨工业大学 基于嵌入Android移动终端及FPGA的手部功能康复机器人人机交互控制系统
CN103558786B (zh) * 2013-10-31 2016-01-13 哈尔滨工业大学 基于嵌入Android移动终端及FPGA的手部功能康复机器人人机交互控制系统
EP3126936A4 (en) * 2014-04-04 2018-03-28 ABB Schweiz AG Portable apparatus for controlling robot and method thereof
US10166673B2 (en) 2014-04-04 2019-01-01 Abb Schweiz Ag Portable apparatus for controlling robot and method thereof
WO2017126827A1 (ko) * 2016-01-22 2017-07-27 삼성전자 주식회사 단말 장치, 원격 제어 시스템 및 제어 방법

Also Published As

Publication number Publication date
US20140371954A1 (en) 2014-12-18
KR101410416B1 (ko) 2014-06-27
US9594502B2 (en) 2017-03-14
KR20130074819A (ko) 2013-07-05

Similar Documents

Publication Publication Date Title
WO2013094821A1 (ko) 원격 제어 방법, 시스템 및 원격 제어 사용자 인터페이스
WO2020103247A1 (zh) Ai智能编程仿生机器人的控制系统、方法及存储介质
WO2018131884A1 (en) Moving robot and control method thereof
WO2017131335A1 (ko) 사용자 단말 장치 및 그 제어 방법
WO2018043966A1 (ko) 로봇 청소기, 단말 장치 및 그 제어 방법
WO2018054056A1 (zh) 一种互动式运动方法及头戴式智能设备
WO2010027190A2 (ko) 진동 정보를 전달하는 이동통신 단말기 및 방법
WO2015156465A1 (en) Flexible glass display apparatus and method for controlling the same
WO2014021605A1 (ko) 원격 제어 장치 및 방법
WO2020184733A1 (ko) 로봇
WO2016204357A1 (ko) 이동 단말기 및 그 제어 방법
EP3295675A1 (en) Adapting user interface of display apparatus according to remote control device
WO2017018552A1 (ko) 이어셋 및 그 제어 방법
WO2020230928A1 (ko) 로봇 및 그의 제어 방법
WO2018030567A1 (ko) Hmd 및 그 hmd의 제어 방법
WO2020256180A1 (ko) 사용자 인식 기반의 유모차 로봇 및 그 제어 방법
WO2014069722A1 (ko) 3차원 디스플레이 장치 및 그의 사용자 인터페이스 방법
WO2018124823A1 (en) Display apparatus and controlling method thereof
WO2020199318A1 (zh) 书本点读互动设备及其控制方法、计算机可读存储介质
WO2021040105A1 (ko) 개체명 테이블을 생성하는 인공 지능 장치 및 그 방법
WO2020017752A1 (ko) 드로잉을 통한 이동 로봇 제어 장치 및 그것의 동작 방법
WO2016190676A1 (ko) 로봇, 스마트 블록 완구 및 이를 이용한 로봇 제어 시스템
WO2014109448A1 (ko) 얼굴에 기반하는 사용자 인터페이스를 제공하는 로봇 및 로봇의 제어 방법
WO2021145506A1 (ko) 모듈을 이용한 독자 참여형 전자책 시스템 및 동작 방법
WO2016122153A1 (en) Display apparatus and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12858744

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14368139

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 12858744

Country of ref document: EP

Kind code of ref document: A1