WO2014155885A1 - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
WO2014155885A1
WO2014155885A1 PCT/JP2013/084894 JP2013084894W WO2014155885A1 WO 2014155885 A1 WO2014155885 A1 WO 2014155885A1 JP 2013084894 W JP2013084894 W JP 2013084894W WO 2014155885 A1 WO2014155885 A1 WO 2014155885A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
user
projection
unit
image
Prior art date
Application number
PCT/JP2013/084894
Other languages
English (en)
French (fr)
Inventor
田島 秀春
隆信 佐藤
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to JP2015507968A priority Critical patent/JPWO2014155885A1/ja
Priority to CN201380075096.1A priority patent/CN105122186A/zh
Priority to US14/779,033 priority patent/US20160054860A1/en
Publication of WO2014155885A1 publication Critical patent/WO2014155885A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence

Definitions

  • the present invention relates to an input device that receives an input to a device that is an operation target from a user.
  • Patent Document 1 discloses a technique for detecting the position and moving direction of an operation object such as a user's hand in a projected image and displaying a user interface image (input image) according to the detection result. Has been.
  • Japanese Patent Publication Japanese Patent Laid-Open No. 2009-64109 (published on March 26, 2009)”
  • Patent Document 1 describes that the display direction of the input image at a predetermined position is determined, but does not describe a technique for changing the position at which the input image is projected.
  • the present invention has been made in view of the above problems, and an object thereof is to provide an input device capable of projecting the input image to a position desired by a user.
  • an input device is an input device that receives an input to a target device from a user, and an input image for the user to perform an input operation is a projection target object Projection position determining means for determining which position on the projection plane of the image is to be projected based on the user's action indicating the position or a physical change caused by the action, and projected on the projection plane Pointing position specifying means for specifying the position indicated by the user with respect to the input image.
  • the input image can be projected at a position desired by the user.
  • a television (television receiver, display device) 1 which is an aspect of the input device of the present invention will be described in detail with reference to FIGS.
  • the television 1 of one embodiment of the present invention is described as a television capable of Internet connection.
  • the television according to the present invention is not limited to a television that can be connected to the Internet, and may be any television that can receive broadcast waves and output video and audio.
  • the present invention can be applied to any device that functions in accordance with a user input operation, such as an air conditioner and a lighting device, in addition to the television.
  • a user input operation such as an air conditioner and a lighting device
  • dimensional relationships such as length, size, and width and shapes in the drawings are appropriately changed for clarity and simplification of the drawings, and do not represent actual dimensions and shapes.
  • FIG. 2 is a schematic diagram illustrating a configuration of the control system 100 of the television 1 according to the present embodiment.
  • the television 1 of one embodiment of the present invention determines which position on the projection plane 30 of the projection target object the input image 40 for the user A to perform an input operation is projected to. It is determined on the basis of a physical change (vibration) generated in accordance with the operation indicating the projection position of A.
  • a plurality of vibration sensors 10a and 10b detect vibrations generated by an operation performed by the user A on the projection surface 30 (such as hitting the projection surface 30), and vibrations are detected. A detection signal indicating this is transmitted to the television 1.
  • the television 1 determines the position where the user A performed the operation on the projection plane 30 by analyzing the detection signals from the vibration sensors 10a and 10b. Thereafter, the television 1 projects the input image 40 at the position.
  • the input image 40 is, for example, an image imitating a remote controller or a keyboard.
  • the projection target object is a table such as a low table or a dining table, and the top plate of the table serves as the projection surface 30.
  • the plurality of vibration sensors 10 a and 10 b are arranged at different predetermined positions on the projection surface 30.
  • the vibration sensor 10 a is disposed at the left end portion of the projection surface 30, and the vibration sensor 10 b is disposed at the right end portion of the projection surface 30.
  • the vibration sensors 10a and 10b transmit a detection signal indicating that to the television 1.
  • the projection position specifying unit 151 (see FIG. 1) of the television 1 detects and detects the time difference between the timing when the detection signal transmitted from the vibration sensor 10a is received and the timing when the detection signal transmitted from the vibration sensor 10b is received. Based on the order in which the signals are received, the position hit by the user on the projection plane 30 is determined.
  • the area of the projection surface 30, in other words, the area in which the input image can be projected is sufficiently larger than the area of the input image 40. That is, the television 1 is a user who hits the projection surface 30 performed at an arbitrary position on the projection surface 30 that is sufficiently larger than the area of the projected input image, such as a low table or a dining table top plate. By detecting this operation, the position where the operation is performed can be set as the position where the input image 40 is projected.
  • the process determining unit 155 (see FIG. 1) of the television 1 specifies the position designated by the user A with respect to the projected input image 40. Specifically, the process determination unit 155 captures the operation of the user A with respect to the input image 40 (for example, the operation of touching the input image 40 with a finger), and analyzes the captured image so that the user A Specify the indicated position. And the television 1 performs the process according to the specified position.
  • the user A can project the input image 40 at an arbitrary position on the projection plane 30 that is sufficiently wider than the projected input image. Further, the user A can cause the television 1 to execute processing corresponding to the designated position by performing an operation of designating the position on the projected input image 40. Therefore, the user A can cause the television 1 to execute processing using the input image 40 at a desired position, as in the case of using a movable input device such as a remote controller.
  • the user A can cause the television 1 to execute processing by performing an operation of touching the input image 40 with an image of pressing a key or button of an input device such as a normal keyboard or remote control.
  • the television 1 when the user B who is in a position different from the user A performs an operation such as hitting the projection surface 30, the television 1 similarly determines the position where the user B performed the above operation on the projection surface 30. Then, the input image 40 is projected onto the position.
  • each user projects the input image 40 to a desired position without moving the current position, and the projected image 40 is input.
  • Input operation can be performed.
  • FIG. 1 is a block diagram illustrating an example of a main configuration of the television 1 according to the present embodiment.
  • the television 1 includes at least a position information reception unit 11, an image projection unit 12, an imaging unit 13, a storage unit 14, an input control unit 15, a television control unit 16, and a display unit 17. .
  • the position information receiving unit 11 is a communication device that can perform wired communication or wireless communication with a plurality of vibration sensors 10a and 10b provided outside and receives signals from the vibration sensors 10a and 10b. Further, the vibration sensors 10a and 10b are arranged on the projection surface 30 as described above, detect vibrations associated with an operation performed by the user on the projection surface 30, and position detection signals indicating that the vibrations are detected. It transmits to the information receiver 11. When the position information receiving unit 11 receives the detection signals from the vibration sensors 10a and 10b, the position information receiving unit 11 supplies the detection signals to a projection position specifying unit 151 described later.
  • the sensor that transmits a signal to the position information receiving unit 11 is not limited to the vibration sensor 10.
  • an acceleration sensor may be used, and sound may be detected instead of vibration.
  • Examples of the sensor that detects sound include a microphone.
  • a microphone is used as a sensor, there is a possibility that malfunction due to the sound of television broadcasting may occur. For this reason, it is more preferable to use a sensor that detects vibration as a sensor that transmits a signal to the position information receiving unit 11 in terms of increasing the reliability of input to the television 1. Further, by using a sensor that detects vibration, the user can display the input image 40 with a minimum operation such as hitting the projection surface 30.
  • the input control unit 15 is independent of a television control unit 16 described later.
  • an input device that can operate even when the television 1 is in a standby state can be realized in the same manner as a conventional input device such as a remote controller.
  • the user can start up the television 1 that is in a standby state from the position where the user views and can also put the TV 1 that is started into a standby state.
  • the input control unit 15 includes a projection position specifying unit 151, a projection control unit 152, an imaging control unit 153, an image analysis unit 154, and a process determination unit 155.
  • the projection position specifying unit (projection position determining means) 151 indicates to which position on the projection plane 30 of the projection target object the input image 40 for the user to perform an input operation is projected. It is a block that is determined based on a physical change that occurs with the operation.
  • the projection position specifying unit 151 receives the timing of receiving the detection signal (first detection signal) transmitted from the vibration sensor 10a and the detection signal (second detection signal) transmitted from the vibration sensor 10b.
  • the position on the projection plane 30 hit by the user is determined as the projection position of the input image 40 based on the time difference from the timing and the order in which the detection signals are received.
  • Formulas for determining the projection position are stored in the storage unit 14 in advance.
  • the projection position specifying unit 151 substitutes information indicating whether (i) the time difference and (ii) the first detection signal or the second detection signal are received first into the mathematical expression. calculate.
  • the projection position specifying unit 151 supplies projection position information indicating the specified projection position to the projection control unit 152 and the imaging control unit 153.
  • the projection control unit 152 controls the image projection unit 12 to project the input image 40 at the position indicated by the projection position information supplied from the projection position specifying unit 151. Specifically, the projection control unit 152 reads the input image 40 from the projection image storage unit 141, and causes the image projection unit 12 to project the input image 40 onto the projection position.
  • an image imitating a keyboard is projected as shown in FIG.
  • a button imitating an activation button for switching between the operation state and the standby state of the television 1 is drawn in addition to the keys of the normal keyboard.
  • the operation state is a state in which images and sound are being output
  • the standby state is a state in which power is supplied but output of images and sounds is stopped. That is, when the television 1 is in a standby state, the user touches the start button so that the television 1 enters an operation state.
  • the user touches an input image 40 that simulates a keyboard while looking at the display screen of the television 1, so that the user can perform a complicated input operation as compared with a conventional remote control operation. It is also possible to do this.
  • the input image 40 may be capable of an input operation corresponding to an operation of simultaneously pressing a plurality of keys (for example, an operation of pressing the Enter key while pressing the Ctrl key), as in a normal keyboard. Good.
  • an image selected in advance by the user may be projected, or an image to be projected by the projection control unit 152 may be determined according to the usage state of the television 1. For example, when watching a television broadcast, the projection control unit 152 projects an input image 40 that simulates a remote control, and when using an Internet browser, the projection control unit 152 uses an input that simulates a keyboard.
  • the image 40 may be projected.
  • the input image may be an input image 50 imitating a display screen of a so-called smartphone display as shown in FIG.
  • icons 51 51 (51a to 51d) indicating the functions of the television 1 are displayed. When the user touches the icon 51, processing corresponding to the touched icon 51 is performed.
  • the television 1 may execute.
  • the projection control unit 152 may be configured to display an arrow on the display unit 17 of the television 1 and cause the user to move the arrow with a fingertip instead of moving the arrow using a mouse.
  • the input image 40 has a predetermined area simulating a touch pad, and the arrow may be moved according to the movement of the fingertip within this area.
  • the input image 40 has an area in which a photograph displayed on the display unit 17 of the television 1 can be enlarged or reduced so that the user can perform pinch-in and pinch-out operations on the display surface of the smartphone with a fingertip. May be.
  • the TV control unit 16 which will be described later, based on the operation performs the size of a specific image displayed on the display unit 17. May be changed.
  • the projection control unit 152 may display the input image 50 or the area imitating the touch pad simultaneously with the input image 40 imitating the keyboard described above.
  • Imaging control unit 153 The imaging control unit 153 captures the imaging direction (and the imaging range) of the imaging unit 13 so that the user's operation on the input image 40 projected at the position indicated by the projection position information supplied from the projection position specifying unit 151 can be captured. ) To control the image.
  • the imaging control unit 153 supplies the image analysis unit 154 with image data (captured image data) obtained by imaging the region including the input image 40 captured by the imaging unit 13.
  • the region including the input image 40 refers to a region in which the position designated by the user with respect to the input image 40 can be specified.
  • the image analysis unit (instructed position specifying unit) 154 is a block that specifies a position instructed by the user with respect to the input image 40 projected on the projection plane 30. Specifically, the image analysis unit 154 analyzes the captured image data supplied from the imaging control unit 153 and determines whether an operation (such as an operation of touching with a finger) is performed on the input image 40 by the user. .
  • the image analysis unit 154 specifies where the user touched the input image 40 and supplies touch position information indicating the specified position to the processing determination unit 155.
  • the touch position may be specified using a coordinate system set for the image of the input image 40 included in the captured image data.
  • the process determination unit 155 is a block that determines a process to be executed by the television 1 in accordance with the position (touch position) in the input image 40 instructed by the user.
  • the storage unit 14 stores correspondence information indicating a correspondence relationship between the touch position in the projected input image 40 and the type of control signal transmitted to the television control unit 16.
  • the process determining unit 155 refers to the correspondence information and identifies a control signal corresponding to the touch position indicated by the touch position information supplied from the image analysis unit 154.
  • the process determination unit 155 supplies the specified control signal to the television control unit 16 described later.
  • the processing executed by the television 1 corresponding to the control signal may be determined by the television 1 instead of the processing determination unit 155. .
  • the image projecting unit 12 is a projector that projects the input image 40 onto the projection position identified by the projection position identifying unit 151.
  • the image projection unit 12 can change the projection direction according to the projection position under the control of the projection control unit 152. Thereby, the image projection unit 12 can project the input image 40 at the projection position.
  • the imaging unit 13 is a camera for imaging a user's operation. Specifically, the imaging unit 13 images a region including the projected input image 40 and supplies the captured image data to the imaging control unit 153.
  • the storage unit 14 is a storage area for storing a control program executed by the input control unit 15 and various data (setting values, tables, etc.) read when the control program is executed.
  • various conventionally known storage means for example, ROM (Read Only Memory), RAM (Random Access Memory), flash memory, EPROM (Erasable Programmable ROM), EEPROM (registered trademark) (Electrically EPROM) HDD (Hard Disk Drive) or the like can be used.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • flash memory for example, RAM (Random Access Memory), flash memory, EPROM (Erasable Programmable ROM), EEPROM (registered trademark) (Electrically EPROM) HDD (Hard Disk Drive) or the like can be used.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • EPROM Erasable Programmable ROM
  • EEPROM registered trademark
  • HDD Hard Disk Drive
  • the storage unit 14 of the present embodiment includes a projection image storage unit 141.
  • the projection image storage unit 141 is a storage area for storing data of various input images 40. Further, as described above, the storage unit 14 stores information indicating a correspondence relationship between the designated position with respect to the projected input image 40 and the process executed on the television 1 (not illustrated).
  • the television control unit 16 is a control device that controls various functions of the television 1.
  • the television control unit 16 performs the process indicated by the control signal supplied from the process determining unit 155.
  • the control signal is information indicating a channel change
  • the television control unit 16 receives a broadcast wave corresponding to the channel after the change, and displays an image on the display unit 17 described later.
  • the control signal is information indicating acquisition of content through the Internet connection
  • the television control unit 16 acquires content from an external server (not shown) and causes the display unit 17 to display the content image.
  • the control signal is information indicating activation of the television 1 in the standby state or transition to the standby state
  • the television control unit 16 starts or stops the output of the image and sound.
  • the processing executed by the television control unit 16 is not limited to the above. That is, the television control unit 16 executes processing for realizing functions preset in the television 1. For example, changing the volume, displaying a program guide, starting an Internet browser, and the like are examples of processing.
  • the display unit 17 is a display device that displays information processed by the television 1 as an image. Information processed by the television control unit 16 is displayed on the display unit 17.
  • the display unit 17 is configured by a display device such as an LCD (liquid crystal display).
  • FIG. 4 is a flowchart illustrating an example of the flow of input processing in the television 1.
  • the position information receiving unit 11 receives the first and second detection signals indicating that the vibration accompanying the user's operation is detected from the plurality of vibration sensors 10a and 10b (YES in S1), the received first information is received.
  • the second detection signal is supplied to the projection position specifying unit 151.
  • the projection position specifying unit 151 calculates a time difference between the timing at which the first detection signal is received and the timing at which the second detection signal is received (S2). Furthermore, the projection position specifying unit 151 specifies the position where the vibration is generated on the projection plane 30, that is, the position where the operation is performed by the user, based on the calculated time difference and the order in which the detection signals are received (S3: Projection position determination step).
  • the projection position specifying unit 151 supplies projection position information indicating the specified position to the projection control unit 152 and the imaging control unit 153.
  • the projection control unit 152 changes the projection direction of the image projection unit 12 according to the projection position information supplied from the projection position specifying unit 151 (S4), and the input image 40 from the projection image storage unit 141. , And causes the image projection unit 12 to project the input image 40 onto the projection position.
  • the imaging control unit 153 captures the imaging direction of the imaging unit 13 so that the user's operation on the input image 40 displayed at the projection position indicated by the projection position information supplied from the projection position specifying unit 151 can be captured. And the imaging unit 13 executes imaging (S5). Further, the imaging control unit 153 supplies captured image data indicating the image captured by the imaging unit 13 to the image analysis unit 154. Imaging by the imaging unit 13 may be performed at predetermined time intervals after the input image 40 is projected.
  • the image analysis unit 154 further analyzes the captured image data when a user action indicating a position in the input image 40 is detected (YES in S6).
  • the coordinates of the user's designated position on the input image 40 are detected (S7: designated position specifying step).
  • the image analysis unit 154 supplies touch position information indicating the coordinates to the process determination unit 155.
  • the process determining unit 155 refers to the correspondence information stored in the storage unit 14 and stores information on the process executed on the television 1 associated with the coordinates indicated by the supplied touch position information.
  • the processing in the television 1 is determined by reading (S8). Thus, the input operation determination process ends.
  • the process determining unit 155 supplies a control signal corresponding to the determined process to the television control unit 16, and the television control unit 16 executes a process corresponding to the supplied control signal.
  • the television control unit 16 stops outputting video and audio, and as a result, the television 1 transitions to the standby state.
  • FIG. 6 is a schematic diagram illustrating a configuration of the control system 200 of the television 110 according to the present embodiment.
  • the television 110 according to the present embodiment does not require the vibration sensor 10 outside. That is, the television 110 further includes a human sensor 21 (see FIG. 5) that detects the position of the user A and a second imaging unit 22 (see FIG. 5) that images the operation of the user A.
  • a human sensor 21 see FIG. 5
  • a second imaging unit 22 see FIG. 5
  • an input image 40 for the user A to perform an input operation is obtained.
  • the position on the projection plane 30 that is to be projected is determined.
  • FIG. 5 is a block diagram illustrating an example of a main configuration of the television 110 according to the present embodiment.
  • the television 110 according to the present embodiment includes a human sensor 21 and a second imaging unit 22 instead of the position information receiving unit 11 included in the television 1 of the first embodiment.
  • the television 110 includes a projection position specifying unit 156 instead of the projection position specifying unit 151.
  • the human sensor 21 (user position detection means) is a sensor that detects the position of the user within the detection range.
  • the detection range of the human sensor 21 may be limited to the projection plane 30 and a space area in the vicinity thereof. In this case, the human sensor 21 detects the position of the user when the user exists in the vicinity of the projection plane 30.
  • the human sensor 21 is not limited to an infrared sensor, and may be a temperature sensor, as long as it can detect the position of the user and can be provided on the television 1. It may be.
  • the human sensor 21 is a passive sensor that receives infrared rays even when the television 1 is in a standby state, and receives infrared rays emitted from the user when the user enters the detection range. Further, when the human sensor 21 detects that the user is within the detection range by receiving infrared rays emitted from the user, the human sensor 21 supplies user position information indicating the position of the user to the projection position specifying unit 156.
  • the human sensor 21 may be an infrared active sensor.
  • the second imaging unit 22 is a camera for imaging a user's operation that indicates a position where the input image 40 is projected. Specifically, the second imaging unit 22 captures an area including the position of the user detected by the human sensor 21 and supplies captured image data indicating the captured image to the projection position specifying unit 156.
  • the “region including the user's position” is a region in a predetermined range centered on the position indicated by the user position information.
  • the second imaging unit 22 performs the above imaging at predetermined time intervals after the human sensor 21 detects the position of the user, and supplies each captured image data to the projection position specifying unit 156.
  • the projection position specifying unit (projection position determining means) 156 first causes the second imaging unit 22 to perform imaging when the human sensor 21 detects the presence of the user. When the detected user position is outside the imaging range of the second imaging unit 22 at that time, the projection position specifying unit 156 controls the imaging direction of the second imaging unit 22 according to the user position information. Imaging is executed later.
  • the projection position specifying unit 156 determines on which position on the projection plane 30 of the projection target object the input image 40 for the user to perform an input operation is projected based on the user's operation indicating the projection position. decide. In other words, the projection position specifying unit 156 determines which position on the projection plane 30 the user has designated as the projection position by analyzing the captured image data acquired by the second imaging unit 22. The projection position specifying unit 156 supplies projection position information indicating the specified position to the projection control unit 152 and the imaging control unit 153.
  • the operation for designating the projection position is, for example, an operation of touching the surface of the projection surface 30 with the index finger.
  • the projection position specifying unit 156 may specify the position touched by the index finger of the user as the projection position of the input image 40.
  • FIG. 7 is a flowchart illustrating an example of the flow of input operation determination processing in the television 110.
  • the human sensor 21 detects the presence of a user (YES in S21)
  • user position information is transmitted to the projection position specifying unit 156.
  • the projection position specifying unit 156 controls the imaging direction of the second imaging unit 22 based on the received user position information, and then causes the second imaging unit 22 to perform imaging (S22).
  • the projection position specifying unit 156 analyzes the captured image data acquired by the second imaging unit 22. As a result of analyzing the captured image data, when an operation for designating the projection position of the input image 40 is detected (YES in S23), the projection position specifying unit 156 displays the user for the projection image of the input image 40 included in the captured image. Is specified (S24: projection position determination step). The projection position specifying unit 156 supplies projection position information indicating the specified position to the projection control unit 152 and the imaging control unit 153.
  • step S25 to step S29 is the same as that of the first embodiment. That is, the processing from step S25 to step S29 is the same as the processing from step S4 to step S8 shown in FIG.
  • the television 110 uses the human sensor 21 and the second imaging unit 22 to specify the position where the input image 40 is projected. Thereby, it is not necessary to provide the vibration sensor 10 on the projection surface. Therefore, the degree of freedom of the position where the input image 40 is projected can be further expanded. For example, it is possible to project the input image 40 using the projection surface 30 as a floor of a living room where an unspecified number of vibrations may occur.
  • FIG. 8 is a block diagram illustrating an example of a main configuration of the television 120 according to the present embodiment. As illustrated in FIG. 8, the television 120 according to the present embodiment does not include the second imaging unit 22, unlike the television 110 according to the second embodiment.
  • the projection position specifying unit 156 causes the imaging unit 13 to execute imaging for specifying the projection position.
  • imaging is performed after controlling the imaging direction of the imaging unit 13 according to the information on the position of the user detected by the human sensor 21. Let it run.
  • the captured image data acquired by the imaging unit 13 is supplied to the imaging control unit 153, and the projection position of the input image 40 is specified. Since the subsequent processing is the same as that of the second embodiment, detailed description thereof is omitted.
  • FIG. 9 is a block diagram showing an example of a main configuration of the television 130 of the present embodiment.
  • the television 130 according to the present embodiment does not include the imaging unit 13 therein, and controls the imaging device 20 provided outside the television 130 to perform imaging of user operations. Therefore, the imaging control unit 153 performs wired communication or wireless communication with the imaging device 20 via a communication unit (not shown).
  • the imaging device 20 is a device including a camera for imaging a user's operation. Note that the number of cameras provided in the imaging device 20 is not particularly limited, and a plurality of cameras may be provided.
  • the imaging control unit 153 sets the imaging direction of the camera included in the imaging device 20 so that the user's action can be taken with respect to the input image 40 displayed at the position indicated by the projection position information supplied from the projection position specifying unit 151.
  • a control signal for control is transmitted to the imaging device 20.
  • the imaging control unit 153 transmits an imaging execution signal for causing the imaging device 20 to execute imaging of an area including the input image 40 and receives captured image data indicating the captured image from the imaging device 20.
  • the imaging device 20 changes the imaging direction of the camera according to the received control signal. Thereafter, when receiving the imaging execution signal, the imaging device 20 executes imaging and transmits the captured image data to the television 120 (imaging control unit 153).
  • the television 120 specifies the projection position of the input image 40 by receiving a signal from the vibration sensor 10 as in the first embodiment, but the present invention is not limited to this.
  • the projection position of the input image 40 may be specified using the human sensor and the imaging unit (or the second imaging unit).
  • FIG. 10 is a schematic diagram showing the configuration of the television control system 300 according to the present embodiment.
  • the imaging device 20 performs wired communication or wireless communication with the television 120 to acquire captured image data. Therefore, the user can freely change the installation location of the imaging device 20.
  • the camera is positioned at the position a. Since the blind spot due to the back of the user's hand and arm decreases when the position is provided at the position b, the user's action can be imaged more accurately.
  • the imaging device 20 can be freely installed at a position where the blind spot can be reduced, a highly reliable input device can be realized in detecting the user's operation.
  • the type of the input image 40 to be projected may be changed in accordance with an instruction operation performed by the user on the projected input image 40.
  • the process determining unit 155 displays the input image 40 after the change.
  • Information to be specified and a change instruction are supplied to the projection control unit 152.
  • the projection control unit 152 reads the input image 40 from the projection image storage unit 141 according to the supplied instruction and information, and causes the image projection unit 12 to project the input image 40.
  • each input image 40 has an area imitating a button for changing the input image, and when the area is touched by the user, the projection control unit 152 An image selection image for changing the input image 40 may be projected.
  • the user of the television 1/110/120 does not move from the current position, and for example, an input image simulating a remote control and an input image simulating a keyboard according to the intended use of the television 1/110/120. And can be changed.
  • FIG. 11 is a block diagram illustrating an example of a main configuration of the input control device 2 according to the present embodiment.
  • the input control device 2 is a device that receives a user input for causing a plurality of devices (target devices) such as the television 3, the air conditioner 4, and the lighting device 5 to execute processing.
  • target devices such as the television 3, the air conditioner 4, and the lighting device 5 to execute processing.
  • the target device is not limited to the above-described device, and any device that can receive a signal from the outside and execute processing can be used.
  • any of the plurality of target devices can be selected by a user input operation on the input image 40 and a process in the selected target device is selected. Is possible.
  • the input control device 2 includes an input information determination unit 158, a transmission control unit 159, a projection control unit 160, and a transmission unit 23 as a configuration that the above-described televisions 1, 110, and 120 do not have. .
  • the projection control unit 160 When the projection position information indicating the projection position of the input image 40 is supplied from the projection position specifying unit 151, the projection control unit 160 first selects the device shown in FIG. 12A from the projection image storage unit 141. The use image 41 is read out, and the image projection unit 12 is caused to project the device selection image 41 at the projection position.
  • the projection control unit 160 reads the input image 40 from the projection image storage unit 141 according to the information on the target device supplied from the device selection unit 157, and causes the image projection unit 12 to perform projection. For example, a TV remote control image 42 shown in FIG. 12B is projected.
  • the input information determination unit 158 is a block that determines a selected device and a process to be executed by the device in accordance with an input to the input image 40 by the user.
  • the input information determination unit 158 includes a process determination unit 155 and a device selection unit 157.
  • process determination unit 155 is the same as the process determination unit 155 of each embodiment described above, the description thereof is omitted.
  • the device selection unit 157 is a block that determines a selected device in accordance with an input to the input image 40 by the user. Specifically, the device selection unit 157 stores information on the target device associated with the position indicated by the touch position information supplied from the image analysis unit 154 (for example, coordinates on the device selection image 41). 14 is read and determined as a selected target device (referred to as a specific device). In addition, the device selection unit 157 supplies information on the specific device to the projection control unit 160.
  • the input information determining unit 158 supplies the transmission control unit 159 with information on the specific device and processing executed by the specific device.
  • the transmission control unit 159 is a block that controls the transmission unit 23. Specifically, the transmission control unit 159 transmits a control signal corresponding to the process determined by the process determination unit 155 to the specific device determined by the device selection unit 157 by controlling the transmission unit 23.
  • the transmission unit 23 (transmission means) is a communication device that transmits a control signal corresponding to a process to be executed by each target device.
  • the transmission of the control signal from the transmission unit 23 to each target device is preferably wireless transmission, but may be wired transmission.
  • the projection position of the input image 40 is specified by using the human sensor 21 and the second imaging unit 22 as in the second embodiment.
  • the image capturing unit 13 may be used instead of the second image capturing unit 22 as in the third embodiment, and the input image is received by receiving a signal from the vibration sensor 10 as in the first embodiment. Forty projection positions may be specified.
  • the user can project the input image 40 that can operate a plurality of devices at a desired position on the projection surface 30, and can operate the plurality of devices using only the input image 40. Therefore, the user does not need to install an input device such as a remote controller for operating each device. As a result, there is no possibility that the user loses the input device.
  • FIG. 12 is a schematic diagram illustrating an example of an input image projected by the input control device 2 of the present embodiment.
  • FIG. 12A is a schematic diagram illustrating an example of the device selection image 41 described above.
  • the device selection image 41 is an image for selecting a target device as an input target.
  • an area simulating buttons that can be selected by the television 3, the air conditioner 4, and the illumination device 5 is displayed. Each is drawn.
  • region drawn is not limited to the above-mentioned example, It changes according to the kind of said object apparatus.
  • an input image for performing input to the selected target device is projected to the specified position instead of the device selection image 41.
  • a television remote control image 42 simulating a television remote control shown in FIG. 12B is projected.
  • the TV remote control image 42 has a power button for switching between the TV operating state and the standby state, a channel button for switching channels, a volume button for changing the volume, like a normal TV remote control, An area simulating a program guide button for displaying the program guide is drawn.
  • the TV remote control image 42 is an example, and in addition to the buttons described above, an area simulating a button of a TV remote control may be drawn.
  • the user can display the input image 40 for executing the input to the selected target device only by selecting the target device in the device selection image 41.
  • the user views the broadcast displayed on the TV 3 by performing an operation on the TV remote control image 42 so as to operate a normal TV remote control. be able to.
  • Control blocks of the television 1 and the input control device 2 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or realized by software using a CPU (Central Processing Unit). May be.
  • the television 1 and the input control device 2 include a CPU that executes instructions of a program that is software that realizes each function, and a ROM (Read that records the above program and various data so that the computer (or CPU) can read them. Only Memory) or a storage device (these are referred to as “recording media”), RAM (Random Access Memory) for expanding the program, and the like. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it.
  • a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • a transmission medium such as a communication network or a broadcast wave
  • the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
  • the input device (the television 1 and the input control device 2) according to the aspect 1 of the present invention is an input device that accepts an input to a target device from a user, and an input image 40 for the user to perform an input operation is projected.
  • Projection position determination means projection position specifying unit 151 that determines which position on the projection plane 30 the object has to project based on the user's operation indicating the position or a physical change that occurs with the operation. 156) and designated position specifying means (image analysis unit 154) for specifying the position designated by the user with respect to the input image projected onto the projection plane.
  • An input device control method is an input device control method that accepts an input to a target device from a user, and an input image for a user to perform an input operation is a projection target object.
  • a projection position determining step (S3, S24) for determining a position on the projection plane to be projected based on the user's action indicating the position or a physical change caused by the action; and the projection plane
  • a designated position identifying step (S7, S28) for identifying a position designated by the user with respect to the input image projected on the screen.
  • the position on the projection plane where the input image is projected is determined based on the user's action indicating the position or the physical change caused by the action, The position designated by the user with respect to the projected input image is specified.
  • the user can project the input image at a desired position on the projection plane by performing an operation for indicating the position where the input image is projected, and input the target device at the desired position. It can be carried out.
  • the projection position determination means may determine the projection position of the input image by analyzing an image obtained by capturing the operation.
  • the input device can determine the position at which the input image is projected without arranging the vibration sensor on the projection plane. For this reason, an unspecified number of vibrations are generated. Even when the input image is projected onto the projection target object that cannot use the vibration sensor, the projection position of the input image can be specified.
  • the input device is the input apparatus according to aspect 2, in which the image capturing unit (the image capturing unit 13 and the second image capturing unit 22) that captures the operation and the user position detection unit (human impression) that detects the position of the user. Sensor 21), and the imaging unit may operate based on a detection result of the user by the user position detection means.
  • the image capturing unit the image capturing unit 13 and the second image capturing unit 22
  • the user position detection unit human impression
  • the user's operation is imaged by the operation of the imaging unit based on the result of detecting the user's position. Then, by analyzing the captured image, it is determined at which position on the projection plane the input image is projected.
  • the input device can more reliably capture the user's action indicating the projection position of the input image.
  • the input device according to aspect 4 of the present invention may be operable even when the target device is in a standby state in any of the above aspects 1 to 3.
  • the input image can be projected onto the projection plane even when the target device is in the standby state.
  • the input device can provide an input image that can be used in the same manner as an input device such as a remote controller.
  • the input device (input control device 2) according to Aspect 5 of the present invention is the input device according to any one of Aspects 1 to 4, wherein when there are a plurality of the target devices, the plurality of the input devices are input by the user's input operation on the input image. Any of the target devices can be selected, and a process in the selected target device can be selected, and the target device selected by the input operation is caused to execute the process selected by the input operation.
  • a transmission means (transmission unit 23) for transmitting a signal for the purpose may be further provided.
  • the signal for performing the process selected by the input operation with respect to the image for an input is transmitted with respect to the target apparatus selected by the input operation with respect to the image for an input among several target apparatuses. be able to.
  • the user can cause a plurality of target devices to execute processing by the operation on the projected input image.
  • the input device is the input apparatus according to aspect 1, wherein the projection position determination unit analyzes the signals output from the plurality of vibration sensors 10 that detect vibrations generated by the operation.
  • the projection position of the input image may be determined, and the plurality of vibration sensors may be disposed on the projection plane.
  • the position on the projection plane where the input image is projected is determined by analyzing the signals output from the plurality of vibration sensors arranged on the projection plane.
  • the user can display the input image at a desired position with a minimum operation such as hitting the projection surface, and thus a more convenient input device can be provided.
  • the input device may be realized by a computer.
  • the input device is realized by the computer by causing the computer to operate as each unit included in the input device.
  • a control program and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.
  • the embodiment of the present invention can also be expressed as follows.
  • control system of the present invention is a control system that performs control for operating the apparatus, controls each part of the apparatus, and controls the system control unit that controls the own system, and inputs for operating the apparatus.
  • Input video projection means for freely projecting an input video to be performed on a predetermined area, projection of the input video, input video projection location instruction means for instructing a projection location, and the input video
  • operating status input means for converting the status operated by the computer into information and inputting the information to the control unit.
  • the control system it is possible to freely project an input video for performing input for operating the apparatus onto a predetermined area.
  • the status operated by the user can be computerized and input to the control unit for the projected input video. Therefore, the user can project the input video image at a desired position on the projection surface, and can input the target device at the desired position.
  • the apparatus of the present invention is an apparatus that is controlled by the control system, and preferably has means for operating the control system even in a standby state.
  • the control system can be operated even when the apparatus is in a standby state. Therefore, similarly to an input device such as a remote controller, it is possible to provide an input video that can operate the device from a standby state.
  • the control system of the present invention is a control system that performs control for operating one or a plurality of devices, and transmits a control signal to each control unit that controls each unit of each device.
  • a control information transmission system control unit for controlling, an input video projection means for freely projecting an input video for performing an operation for operating each device for each device, a projection of the input video, Input image projection location instruction means for instructing the projection location, and operation status input means for converting the information operated by the user into the input image and inputting the information to the control unit.
  • the apparatus of the present invention preferably has means for receiving a signal from the control system.
  • each device can be controlled by transmitting a control signal to each control unit that controls each unit of each device based on the situation operated by the user. This eliminates the need for the user to install an input device such as a remote control for each target device. Therefore, the control system can prevent a situation in which the target device cannot execute processing due to the loss of the input device of each target device.
  • the input image projection unit includes a unit that switches a plurality of input images.
  • the user can project an input image of a desired format at a desired position.
  • the present invention can be suitably used for an apparatus that accepts and operates an input from a remote location, such as a television, an air conditioner, and a lighting device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Social Psychology (AREA)
  • Chemical & Material Sciences (AREA)
  • Neurosurgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Analytical Chemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

 テレビ(1)は、ユーザが入力操作を行うための入力用画像を投影対象物体が有する投影面におけるどの位置に投影するかを、当該位置を示すユーザの動作または当該動作に伴って発生する物理的変化に基づいて決定する投影位置特定部(151、156)と、投影面に投影された入力用画像に対してユーザが指示した位置を特定する画像解析部(154)とを備える。

Description

入力装置
 本発明は操作対象である機器に対する入力をユーザから受け付ける入力装置に関する。
 近年、離れた位置から機器を制御する場合において、従来用いられるリモコンなどの入力装置に代えて、ユーザの入力操作を受け付けるための入力用画像を投影し、当該入力用画像へのユーザの操作によって機器を制御する技術が提案されている。
 例えば、下記の特許文献1には、投影した画像におけるユーザの手などの操作物体の位置および移動方向を検出し、検出結果に応じて、ユーザインターフェース画像(入力用画像)を表示する技術が開示されている。
日本国公開特許公報「特開2009-64109号公報(2009年3月26日公開)」
 しかしながら、上記特許文献1には、所定の位置における入力用画像の表示方向を決定することが記載されているが、入力用画像を投影する位置を変更する技術については記載されていない。
 本発明は、上記の課題に鑑みてなされたものであり、その目的は、上記入力用画像をユーザの所望する位置に投影することができる入力装置を提供することにある。
 上記の課題を解決するために、本発明の一態様に係る入力装置は、対象機器に対する入力をユーザから受け付ける入力装置であって、ユーザが入力操作を行うための入力用画像を、投影対象物体が有する投影面におけるどの位置に投影するかを、当該位置を示す上記ユーザの動作または当該動作に伴って発生する物理的変化に基づいて決定する投影位置決定手段と、上記投影面に投影された入力用画像に対してユーザが指示した位置を特定する指示位置特定手段と、を備えている。
 本発明の一態様によれば、上記入力用画像をユーザの所望する位置に投影することができるという効果を奏する。
本発明の実施形態1に係るテレビの要部構成の一例を示すブロック図である。 本発明の実施形態1に係るテレビ制御システムの構成を示す概略図である。 本発明の実施形態1に係るテレビが投影する入力用画像の一例を示す模式図である。 本発明の実施形態1に係るテレビにおける処理の流れの一例を示すフローチャートである。 本発明の実施形態2に係るテレビの要部構成の一例を示すブロック図である。 本発明の実施形態2に係るテレビ制御システムの構成を示す概略図である。 本発明の実施形態2に係るテレビにおける処理の流れの一例を示すフローチャートである。 本発明の実施形態3に係るテレビの要部構成の一例を示すブロック図である。 本発明の実施形態4に係るテレビの要部構成の一例を示すブロック図である。 本発明の実施形態4に係るテレビ制御システムの構成を示す概略図である。 本発明の実施形態5に係る入力制御装置の要部構成の一例を示すブロック図である。 本発明の実施形態5に係る入力制御装置が投影する入力用画像の一例を示す模式図である。
 <実施形態1>
 以下、図1~4に基づき、本発明の入力装置の一態様であるテレビ(テレビジョン受像機、表示装置)1について詳細に説明する。なお、本発明の一態様のテレビ1は、インターネット接続が可能なテレビとして説明する。しかしながら、本発明に係るテレビは、インターネット接続が可能なテレビに限定されず、放送波を受信し、映像および音声を出力できるものであればよい。
 また、本発明は、上記テレビの他、エアコン、照明装置など、ユーザの入力操作に応じて機能するあらゆる機器に適用することが可能である。また、図面における長さ、大きさ、および幅などの寸法関係ならびに形状は、図面の明瞭化と簡略化のために適宜に変更されており、実際の寸法および形状を表してはいない。
 〔テレビ1の概要〕
 図2は、本実施形態のテレビ1の制御システム100の構成を示す概略図である。図2に示すように、本発明の一態様のテレビ1は、ユーザAが入力操作を行うための入力用画像40を、投影対象物体が有する投影面30におけるどの位置に投影するかを、ユーザAの投影位置を示す動作に伴って発生する物理的変化(振動)に基づいて決定する。
 具体的には、ユーザAが投影面30上で行った動作(投影面30を叩くなど)によって生じた振動を、複数の振動センサ10a・10b(図1参照)が検知し、振動を検知したことを示す検知信号をテレビ1に送信する。テレビ1は、振動センサ10a・10bからの検知信号を解析することにより、ユーザAが投影面30上で動作を行った位置を決定する。その後、テレビ1は当該位置に入力用画像40を投影する。入力用画像40は、例えば、リモコンまたはキーボードを模した画像である。
 本実施形態では、投影対象物体は、ローテーブルやダイニングテーブルなどのテーブルであり、当該テーブルの天板が投影面30としての役割を果たす。図2に示すように、複数の振動センサ10a・10bは、投影面30上の互いに異なる所定の位置に配置されている。図2では、振動センサ10aは、投影面30の左側端部に配置され、振動センサ10bは、投影面30の右側端部に配置されている。
 このため、例えばユーザが、投影面30を叩く動作を行うと、叩いた位置に応じて各振動センサ10a・10bに振動が伝送されるまでの所要時間が変わる。各振動センサ10a・10bは、振動を検知すると、その旨を示す検知信号をテレビ1に送信する。
 テレビ1の投影位置特定部151(図1参照)は、振動センサ10aから送信された検知信号を受信したタイミングと、振動センサ10bから送信された検知信号を受信したタイミングとの時間の差および検知信号を受信した順番に基づいて、投影面30においてユーザが叩いた位置を決定する。
 投影面30の面積、換言すれば、入力用画像を投影できる範囲の面積は、入力用画像40の面積に比べて十分に広い。つまり、テレビ1は、ローテーブルやダイニングテーブルの天板といった、投影される入力用画像の面積に比べて十分に広い投影面30の任意の位置で行われた、投影面30を叩くなどのユーザの動作を検出することで、当該動作が行われた位置を、入力用画像40を投影する位置とすることができる。
 さらに、テレビ1の処理決定部155(図1参照)は、投影された入力用画像40に対してユーザAが指示した位置を特定する。具体的には、処理決定部155は、入力用画像40に対するユーザAの動作(例えば、指で入力用画像40にタッチする動作)を撮像し、撮像した画像を解析することで、ユーザAが指示した位置を特定する。そしてテレビ1は、特定した位置に応じた処理を実行する。
 以上より、ユーザAは、投影される入力用画像より十分に広い投影面30の任意の位置に、入力用画像40を投影させることができる。さらにユーザAは、投影させた入力用画像40に対して位置を指定する動作を行うことで、指定した位置に対応する処理をテレビ1に実行させることができる。よって、ユーザAは、リモコンなどの移動可能な入力装置を用いる場合と同様に、所望の位置において入力用画像40を使用してテレビ1に処理を実行させることができる。
 また、ユーザAは、通常のキーボードやリモコンなどの入力装置のキーやボタンを押下するイメージで、入力用画像40にタッチする動作を行うことで、テレビ1に処理を実行させることができる。
 ここで、ユーザAと異なる位置にいるユーザBが、投影面30を叩くなどの動作を行った場合、テレビ1は、同様にユーザBが投影面30上で上記動作を行った位置を決定し、当該位置に入力用画像40を投影する。
 つまり、投影面30において、複数のユーザが異なる位置にいる場合でも、各ユーザは、現在の位置を移動することなく入力用画像40を望みの位置に投影し、投影された入力用画像40に対する入力操作を行うことができる。
 〔テレビ1の構成〕
 次に、本発明の一態様のテレビ1の要部構成について詳細に説明する。図1は、本実施形態のテレビ1の要部構成の一例を示すブロック図である。
 図1に示すように、テレビ1は、少なくとも、位置情報受信部11、画像投影部12、撮像部13、記憶部14、入力制御部15、テレビ制御部16、および表示部17を備えている。
 (位置情報受信部11)
 位置情報受信部11は、外部に設けられた複数の振動センサ10a・10bと有線通信あるいは無線通信が可能であり、振動センサ10a・10bからの信号を受信する通信デバイスである。また、振動センサ10a・10bは、上述のように投影面30に配置され、ユーザが投影面30に対して行った動作に伴う振動を検知し、当該振動を検知した旨を示す検知信号を位置情報受信部11に送信する。位置情報受信部11は、振動センサ10a・10bからの検知信号を受信すると、その検知信号を後述する投影位置特定部151に供給する。
 なお、位置情報受信部11に信号を送信するセンサは、振動センサ10に限定されない。例えば加速度センサであってもよく、また振動の代わりに音声を検知してもよい。音声を検知するセンサとしては、例えばマイクなどが挙げられる。ただし、マイクをセンサとして用いる場合、テレビ放送の音声による誤動作が発生する可能性がある。そのため、テレビ1に対する入力の信頼性を高めるという意味でも、位置情報受信部11に信号を送信するセンサには振動を検知するセンサを用いることがより好ましい。また、振動を検知するセンサを用いることで、ユーザは投影面30を叩くなどの最小限の動作で入力用画像40を表示させることができる。
 (入力制御部15)
 次に、入力制御部15の構成を詳細に説明する。入力制御部15は、図1に示すように、後述するテレビ制御部16から独立している。これにより、従来のリモコンなどの入力装置と同様に、テレビ1が待機状態であるときにも動作可能な入力装置を実現することができる。またユーザは、リモコンなどの入力装置を用いる場合と同様に、ユーザが視聴する位置から待機状態にあるテレビ1を起動すること、また起動しているテレビ1を待機状態にすることができる。
 また、入力制御部15は、図1に示すように、投影位置特定部151、投影制御部152、撮像制御部153、画像解析部154、および処理決定部155を含む。
 (投影位置特定部151)
 投影位置特定部(投影位置決定手段)151は、ユーザが入力操作を行うための入力用画像40を、投影対象物体が有する投影面30におけるどの位置に投影するかを、投影位置を示すユーザの動作に伴って発生する物理的変化に基づいて決定するブロックである。
 具体的には、投影位置特定部151は、振動センサ10aから送信された検知信号(第1検知信号)を受信したタイミングと、振動センサ10bから送信された検知信号(第2検知信号)を受信したタイミングとの時差および検知信号を受信した順番に基づいて、ユーザが叩いた投影面30における位置を入力用画像40の投影位置として決定する。投影位置を決定するための数式は、予め記憶部14に格納されている。投影位置特定部151は、例えば、当該数式に(i)上記時間差および(ii)第1検知信号と第2検知信号とのいずれを先に受信したかを示す情報を代入することにより投影位置を算出する。
 また、投影位置特定部151は、特定した投影位置を示す投影位置情報を、投影制御部152および撮像制御部153に供給する。
 (投影制御部152)
 投影制御部152は、画像投影部12を制御することにより、投影位置特定部151から供給された投影位置情報が示す位置に入力用画像40を投影する。具体的には、投影制御部152は、投影画像格納部141から入力用画像40を読み出し、画像投影部12に上記投影位置への入力用画像40の投影を実行させる。
 入力用画像40として、例えば図2に示すように、キーボードを模した画像が投影される。このキーボードを模した画像には、通常のキーボードが有するキーの他に、テレビ1の動作状態と待機状態とを切り替えるための起動ボタンを模したボタンが描画されている。動作状態とは、画像および音声が出力されている状態であり、待機状態とは、電源は供給されているが、画像および音声の出力が停止されている状態である。つまり、テレビ1が待機状態の場合、起動ボタンをユーザがタッチすることによりテレビ1が動作状態となる。
 テレビ1が動作状態となった後は、ユーザは、テレビ1の表示画面を見ながら、キーボードを模した入力用画像40をタッチすることで、従来のリモコンによる操作に比べて複雑な入力操作を行うことも可能である。また、入力用画像40は、通常のキーボードのように、複数のキーを同時押下する動作(例えば、Ctrlキーを押下しながらEnterキーを押下する動作)に対応する入力動作が可能であってもよい。
 入力用画像40として、予めユーザによって選択された画像が投影されてもよいし、テレビ1の使用状況に応じて、投影制御部152が投影する画像を決定してもよい。例えば、テレビ放送を視聴している場合は、投影制御部152はリモコンを模した入力用画像40を投影し、インターネットブラウザを利用している場合は、投影制御部152はキーボードを模した入力用画像40を投影してもよい。また、入力用画像は、図3に示すような、いわゆるスマートフォンのディスプレイの表示画面を模した入力用画像50でもよい。例えば、入力用画像50中には、テレビ1の各機能を示すアイコン51(51a~51d)が表示されており、アイコン51をユーザがタッチすることにより、タッチされたアイコン51に応じた処理をテレビ1が実行してもよい。
 また、投影制御部152はテレビ1の表示部17に矢印を表示させ、当該矢印を、マウスを用いて移動させる代わりに、ユーザが指先で上記矢印を移動させる構成にしてもよい。この場合、入力用画像40はタッチパッドを模した所定の領域を有しており、この領域内での指先の移動に応じて上記矢印を移動させればよい。
 また、スマートフォンのディスプレイ表面に対してユーザが指先でピンチインおよびピンチアウトの操作をするように、テレビ1の表示部17に表示された写真を拡大・縮小できる領域を入力用画像40が有していてもよい。例えば、ユーザが、入力用画像50に対してピンチイン・ピンチアウトの動作をしたときに、当該動作に基づいて、後述するテレビ制御部16が、表示部17に表示された特定の画像の大きさを変更してもよい。
 また、投影制御部152は、上述したキーボードを模した入力用画像40などと同時に、入力用画像50またはタッチパッドを模した領域を表示してもよい。
 (撮像制御部153)
 撮像制御部153は、投影位置特定部151から供給された投影位置情報が示す位置に投影されている入力用画像40に対するユーザの動作が撮像できるように、撮像部13の撮像方向(および撮像範囲)を制御し、撮像させる。撮像制御部153は、撮像部13によって撮像された、入力用画像40を含む領域を撮像した画像のデータ(撮像画像データ)を画像解析部154に供給する。
 なお、入力用画像40を含む領域とは、入力用画像40に対してユーザが指示した位置を特定可能な領域を指す。
 (画像解析部154)
 画像解析部(指示位置特定手段)154は、投影面30に投影された入力用画像40に対してユーザが指示した位置を特定するブロックである。具体的には、画像解析部154は、撮像制御部153から供給された撮像画像データを解析し、ユーザによって入力用画像40に対する動作(指でタッチする動作など)が行われたかどうかを判定する。
 さらに画像解析部154は、当該操作が行われたと判定した場合、ユーザが入力用画像40のどこにタッチしたかを特定し、特定した位置を示すタッチ位置情報を、処理決定部155に供給する。なお、タッチ位置は、撮像画像データに含まれる、入力用画像40の像に対して設定された座標系を用いて特定されればよい。
 (処理決定部155)
 処理決定部155は、ユーザが指示した入力用画像40における位置(タッチ位置)に応じて、テレビ1が実行する処理を決定するブロックである。記憶部14には、投影された入力用画像40におけるタッチ位置と、テレビ制御部16へ送信する制御信号の種類との対応関係を示す対応情報が格納されている。処理決定部155は、この対応情報を参照して、画像解析部154から供給されたタッチ位置情報が示すタッチ位置に対応する制御信号を特定する。処理決定部155は、特定した制御信号を、後述するテレビ制御部16に供給する。
 なお、入力制御部15をテレビ1とは別体の装置として実現する場合、上記制御信号に対応する、テレビ1が実行する処理を、処理決定部155ではなく、テレビ1において決定してもよい。
 (画像投影部12)
 画像投影部12は、投影位置特定部151によって特定された投影位置に、入力用画像40を投影するプロジェクタである。画像投影部12は、投影制御部152の制御下で、上記投影位置に応じてその投影方向を変化させることができる。これにより、画像投影部12は、上記投影位置に入力用画像40を投影することができる。
 (撮像部13)
 撮像部13は、ユーザの動作を撮像するためのカメラである。具体的には、撮像部13は、投影された入力用画像40を含む領域を撮像し、撮像した画像データを撮像制御部153に供給する。
 (記憶部14)
 記憶部14は、入力制御部15が実行する制御プログラムおよび制御プログラムを実行するときに読み出す各種データ(設定値、テーブルなど)を記憶する記憶領域である。記憶部14としては、従来から公知の種々の記憶手段、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(登録商標)(Electrically EPROM)、HDD(Hard Disk Drive)などを用いることができる。また、入力制御部15にて取り扱われている各種データや処理中のデータは、記憶部14のワーキングメモリに一時的に記憶される。
 本実施形態の記憶部14は、投影画像格納部141を含む。投影画像格納部141は、各種の入力用画像40のデータを格納する記憶領域である。また、記憶部14は、上述したように、投影された入力用画像40に対する指示位置とテレビ1にて実行される処理との対応関係を示す情報を記憶している(不図示)。
 (テレビ制御部16)
 テレビ制御部16は、テレビ1の各種機能を制御する制御デバイスである。テレビ制御部16は、処理決定部155から供給された制御信号が示す処理を実行する。例えば、制御信号がチャンネルの変更を示す情報であった場合、テレビ制御部16は、変更後のチャンネルに対応する放送波を受信し、後述する表示部17に画像を表示させる。また、制御信号がインターネット接続によるコンテンツの取得を示す情報であった場合、テレビ制御部16は、外部のサーバ(不図示)からコンテンツを取得し、表示部17にコンテンツの画像を表示させる。さらに、制御信号が、待機状態のテレビ1の起動、あるいは待機状態への移行を示す情報であった場合、テレビ制御部16は、画像および音声の出力を開始、あるいは停止する。
 テレビ制御部16が実行する処理は、上記のものに限定されない。つまり、テレビ制御部16は、テレビ1に予め設定されている機能を実現するための処理を実行する。例えば、音量の変更、番組表の表示、インターネットブラウザの起動などが、処理の一例として挙げられる。
 最後に、表示部17は、テレビ1にて処理される情報を画像として表示する表示デバイスである。表示部17には、テレビ制御部16にて処理された情報が表示される。表示部17は、例えばLCD(液晶ディスプレイ)等の表示装置で構成される。
 〔入力操作決定処理の流れ〕
 続いて、本実施形態に係るテレビ1における入力操作決定処理の流れを説明する。図4は、テレビ1における入力処理の流れの一例を示すフローチャートである。
 まず、位置情報受信部11は、複数の振動センサ10a・10bから、ユーザの動作に伴う振動を検知したことを示す第1および第2検知信号を受信すると(S1でYES)、受信した第1および第2検知信号を投影位置特定部151に供給する。
 次に、投影位置特定部151は、第1検知信号を受信したタイミングと、第2検知信号を受信したタイミングとの時間の差を算出する(S2)。さらに、投影位置特定部151は、算出した時間の差および検知信号を受信した順番に基づいて、投影面30における振動の発生した位置、すなわちユーザによって動作が行われた位置を特定する(S3:投影位置決定ステップ)。
 その後、投影位置特定部151は、特定した位置を示す投影位置情報を投影制御部152および撮像制御部153に供給する。
 次に、投影制御部152は、投影位置特定部151から供給された投影位置情報に応じて、画像投影部12の投影方向を変更する(S4)とともに、投影画像格納部141から入力用画像40を読み出し、画像投影部12に上記投影位置への入力用画像40の投影を実行させる。
 次に、撮像制御部153は、投影位置特定部151から供給された投影位置情報が示す投影位置に表示されている入力用画像40に対するユーザの動作が撮像できるように、撮像部13の撮像方向を変更し、撮像部13に撮像を実行させる(S5)。また、撮像制御部153は、撮像部13が撮像した画像を示す撮像画像データを画像解析部154に供給する。撮像部13による撮像は、入力用画像40が投影されてから、所定の時間間隔で行われればよい。
 次に、画像解析部154は、供給された撮像画像データを解析した結果、入力用画像40における位置を示すユーザの動作を検出したとき(S6でYES)、さらに当該撮像画像データを解析することで、入力用画像40上におけるユーザの指示位置の座標を検出する(S7:指示位置特定ステップ)。その後、画像解析部154は当該座標を示すタッチ位置情報を処理決定部155に供給する。
 最後に、処理決定部155は、記憶部14に格納されている対応情報を参照して、供給されたタッチ位置情報が示す座標に対応付けられた、テレビ1にて実行される処理の情報を読み出すことにより、テレビ1における処理を決定する(S8)。以上により、入力操作決定処理が終了する。
 その後、処理決定部155は、決定した処理に対応する制御信号をテレビ制御部16に供給し、テレビ制御部16は、供給された制御信号に対応する処理を実行する。例えば、受信した制御信号が、待機状態への移行処理を示す情報であった場合、テレビ制御部16は、映像および音声の出力を停止し、その結果、テレビ1が待機状態に移行する。
 <実施形態2>
 本発明の別の実施形態について、図5~図7に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 図6は、本実施形態のテレビ110の制御システム200の構成を示す概略図である。図6に示すように、本実施形態に係るテレビ110は、外部に振動センサ10を必要としない。すなわち、テレビ110は、ユーザAの位置を検出する人感センサ21(図5参照)と、ユーザAの動作を撮像する第2撮像部22(図5参照)とをさらに備え、人感センサ21によるユーザAの検出結果に基づいて第2撮像部22を動作させ、ユーザの動作を撮像した画像を解析することにより、ユーザAが入力操作を行うための入力用画像40を、投影対象物体が有する投影面30におけるどの位置に投影するかを決定する。
 〔テレビ110の構成〕
 図5は、本実施形態のテレビ110の要部構成の一例を示すブロック図である。図5に示すように、本実施形態に係るテレビ110は、実施形態1のテレビ1が備える位置情報受信部11に代えて、人感センサ21および第2撮像部22を含む。また、テレビ110は、投影位置特定部151に代えて、投影位置特定部156を含む。
 (人感センサ21)
 人感センサ21(ユーザ位置検出手段)は、検出範囲内のユーザの位置を検出するセンサである。この人感センサ21の検出範囲は、投影面30およびその近傍の空間領域に限定されてもよい。この場合、人感センサ21は、投影面30の近傍にユーザが存在するときに、当該ユーザの位置を検出する。
 本実施形態では、人感センサ21として赤外線センサを用いる例を説明する。なお、人感センサ21は、赤外線センサに限定されず、温度センサであってもよく、ユーザの位置を検出することができ、かつテレビ1に設けることができるセンサであれば、どのようなものであってもよい。
 人感センサ21は、パッシブセンサであり、テレビ1が待機状態であっても赤外線を受光しており、検出範囲内にユーザが入ると、ユーザから照射された赤外線を受光する。また、人感センサ21は、ユーザから照射された赤外線を受光することにより、ユーザが検出範囲内にいることを検出すると、ユーザの位置を示すユーザ位置情報を投影位置特定部156に供給する。なお、人感センサ21は、赤外線アクティブセンサであってもよい。
 (第2撮像部22)
 第2撮像部22は、入力用画像40を投影する位置を指示する、ユーザの動作を撮像するためのカメラである。具体的には、第2撮像部22は、人感センサ21が検出したユーザの位置を含む領域を撮像し、撮像した画像を示す撮像画像データを投影位置特定部156に供給する。ここで、「ユーザの位置を含む領域」は、ユーザ位置情報が示す位置を中心とした所定の範囲の領域である。第2撮像部22は、人感センサ21がユーザの位置を検出した後、所定の時間間隔で上記撮像を行い、各撮像画像データを投影位置特定部156に供給する。
 (投影位置特定部156)
 投影位置特定部(投影位置決定手段)156は、まず、人感センサ21がユーザの存在を検出したとき、第2撮像部22に撮像を実行させる。なお、検出されたユーザ位置が、その時点の第2撮像部22の撮像範囲外にある場合、投影位置特定部156は、ユーザ位置情報に応じて、第2撮像部22の撮像方向を制御した後に撮像を実行させる。
 また、投影位置特定部156は、ユーザが入力操作を行うための入力用画像40を、投影対象物体が有する投影面30におけるどの位置に投影するかを、投影位置を示すユーザの動作に基づいて決定する。すなわち、投影位置特定部156は、第2撮像部22が取得した撮像画像データを解析することにより、ユーザが投影面30のどの位置を投影位置として指示したかを決定する。投影位置特定部156は、特定した位置を示す投影位置情報を投影制御部152および撮像制御部153に供給する。
 投影位置を指示する動作とは、例えば、投影面30の表面を人差指でタッチする動作である。この場合、投影位置特定部156は、ユーザが人差指でタッチした位置を入力用画像40の投影位置として特定すればよい。
 〔入力操作決定処理の流れ〕
 続いて、本実施形態に係るテレビ110における入力操作決定処理の流れを説明する。図7は、テレビ110における入力操作決定処理の流れの一例を示すフローチャートである。
 まず、人感センサ21がユーザの存在を検出すると(S21でYES)、ユーザ位置情報が投影位置特定部156へ送信される。投影位置特定部156は、受信したユーザ位置情報に基づいて第2撮像部22の撮像方向を制御した後、第2撮像部22に撮像を実行させる(S22)。
 投影位置特定部156は、第2撮像部22によって取得された撮像画像データを解析する。撮像画像データを解析した結果、入力用画像40の投影位置を指示する動作を検出した場合(S23でYES)、投影位置特定部156は、撮像画像に含まれる入力用画像40の投影像に対するユーザの指示位置を特定する(S24:投影位置決定ステップ)。投影位置特定部156は、特定した位置を示す投影位置情報を投影制御部152および撮像制御部153に供給する。
 以降、ステップS25からステップS29の処理は、実施形態1と同様である。すなわち、ステップS25からステップS29の処理は、図4に示すステップS4からステップS8の処理と同様であるため、その説明を省略する。
 以上より、本実施形態に係るテレビ110は、人感センサ21および第2撮像部22を用いて、入力用画像40を投影する位置を特定する。これにより、投影面に振動センサ10を設ける必要がなくなる。よって、入力用画像40を投影する位置の自由度をさらに拡張することができる。例えば、不特定多数の振動が発生する可能性があるリビングの床などを投影面30とし、入力用画像40を投影することも可能となる。
 <実施形態3>
 本発明のさらに別の実施形態について、図8に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 図8は、本実施形態のテレビ120の要部構成の一例を示すブロック図である。図8に示すように、本実施形態に係るテレビ120は、実施形態2のテレビ110とは異なり、第2撮像部22を含まない。
 すなわち、投影位置特定部156は、人感センサ21がユーザの存在を検出したとき、撮像部13に、投影位置を特定するための撮像を実行させる。なお、撮像部13の撮像範囲が、人感センサ21の検出範囲よりも狭い場合、人感センサ21が検出したユーザの位置の情報に応じて、撮像部13の撮像方向を制御した後に撮像を実行させる。撮像部13が取得した撮像画像データは、撮像制御部153に供給され、入力用画像40の投影位置が特定される。その後の処理は、実施形態2と同様であるため詳細な説明は省略する。
 この構成により、テレビ120に撮像部、すなわちカメラを2台設ける必要がなくなるため、テレビ1の製造コストを低減させることができる。
 <実施形態4>
 本発明のさらに別の実施形態について、図9および図10に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 図9は本実施形態のテレビ130の要部構成の一例を示すブロック図である。図9に示すように、本実施形態に係るテレビ130は、撮像部13をその内部に含まず、テレビ130の外部に設けられた撮像装置20を制御することにより、ユーザ動作の撮像を行う。そのため、撮像制御部153は、通信部(不図示)を介して撮像装置20と有線通信あるいは無線通信を行う。
 撮像装置20は、ユーザの動作を撮像するためのカメラを備える装置である。なお、撮像装置20が備えるカメラの台数は特に限定されず、複数台備えていてもよい。
 撮像制御部153は、投影位置特定部151から供給された投影位置情報が示す位置に表示されている入力用画像40に対するユーザの動作が撮像できるように、撮像装置20が有するカメラの撮像方向を制御するための制御信号を、撮像装置20に送信する。また、撮像制御部153は、撮像装置20に、入力用画像40を含む領域の撮像を実行させるための撮像実行信号を送信し、撮像された画像を示す撮像画像データを撮像装置20から受信し、画像解析部154に供給する。
 撮像装置20は、受信した制御信号に応じて、カメラの撮像方向を変更する。撮像装置20はその後、撮像実行信号を受信すると、撮像を実行し、撮像画像データをテレビ120(撮像制御部153)に送信する。
 なお、本実施形態では、テレビ120は、実施形態1と同様に振動センサ10からの信号を受信することにより入力用画像40の投影位置を特定しているが、これに限定されず、実施形態2および3のように、人感センサおよび撮像部(あるいは第2撮像部)を用いて入力用画像40の投影位置を特定してもよい。
 〔テレビ制御システム300の構成〕
 図10は本実施形態に係るテレビ制御システム300の構成を示す概略図である。本実施形態に係るテレビ120によれば、ユーザの動作を撮像するためのカメラが内部に存在せず、撮像装置20として、テレビ120と有線通信または無線通信を行い、撮像画像データを取得する。そのため、ユーザは撮像装置20の設置場所を自在に変更することができる。
 つまり、図10に示すように、入力用画像40がテレビ120の設置位置に対して低い位置に設けられたローテーブルの天板上(投影面30)に投影される場合、aの位置にカメラが設けられているよりも、bの位置に設けられている方が、ユーザの手の甲や腕による死角が減少するので、より正確にユーザの動作を撮像することができる。
 以上より、死角を低減できる位置に自在に撮像装置20を設置できるので、ユーザの動作の検知において、信頼性の高い入力装置を実現することができる。
 〔実施形態1から4に共通の変形例〕
 上述のテレビ1からテレビ120において、投影された入力用画像40に対してユーザが行った指示動作に応じて、投影する入力用画像40の種類を変更してもよい。
 具体的には、画像解析部154が特定した入力用画像40上の座標に対応する処理が、入力用画像40の変更であった場合、処理決定部155は、変更後の入力用画像40を特定する情報および、変更の指示を投影制御部152に供給する。
 投影制御部152は、供給された指示および情報に応じて、投影画像格納部141から入力用画像40を読み出し、画像投影部12に投影させる。
 なお、入力用画像40の変更については、例えば、各入力用画像40に入力用画像を変更するためのボタンを模した領域があり、ユーザによって当該領域がタッチされたとき、投影制御部152は、入力用画像40を変更するための画像選択用画像を投影してもよい。
 これにより、テレビ1・110・120のユーザは、現在の位置から動くことなく、テレビ1・110・120の使用目的に応じて、例えばリモコンを模した入力用画像とキーボードを模した入力用画像とを変更することができる。
 <実施形態5>
 本発明のさらに別の実施形態について、図11および図12に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 〔入力制御装置2の構成〕
 本実施形態では、本発明の入力装置の一態様である入力制御装置2について説明する。図11は、本実施形態の入力制御装置2の要部構成の一例を示すブロック図である。入力制御装置2は、テレビ3、エアコン4、および照明装置5などの複数の機器(対象機器)に処理を実行させるためのユーザの入力を受け付ける装置である。なお、上記対象機器は上記のものに限定されず、外部からの信号を受信し処理を実行することができる機器であればよい。
 入力制御装置2では、対象機器が複数存在する場合に、入力用画像40に対するユーザの入力動作により、上記複数の対象機器のいずれかを選択可能であるとともに、選択された対象機器における処理を選択可能である。
 図11に示すように、入力制御装置2は、上述のテレビ1・110・120が備えていない構成として、入力情報決定部158、送信制御部159、投影制御部160、および送信部23を含む。
 投影制御部160は、投影位置特定部151から、入力用画像40の投影位置を示す投影位置情報を供給されると、まず、投影画像格納部141から、図12の(a)に示す機器選択用画像41を読み出し、画像投影部12に機器選択用画像41を上記投影位置に投影させる。
 さらに、投影制御部160は、機器選択部157から供給された対象機器の情報に応じて、投影画像格納部141から入力用画像40を読み出し、画像投影部12に投影を実行させる。例えば、図12の(b)に示すテレビリモコン画像42を投影させる。
 (入力情報決定部158)
 入力情報決定部158は、ユーザによる入力用画像40への入力に応じて、選択された機器および当該機器が実行する処理を決定するブロックである。この入力情報決定部158は、処理決定部155および機器選択部157を含む。
 処理決定部155は、上述した各実施形態の処理決定部155と同様であるため、説明を省略する。
 機器選択部157は、ユーザによる入力用画像40への入力に応じて、選択された機器を決定するブロックである。具体的には、機器選択部157は、画像解析部154から供給されたタッチ位置情報が示す位置(例えば、機器選択用画像41上の座標)と対応付けられた対象機器の情報を、記憶部14を参照することで読み出し、選択された対象機器(特定機器と称する)として決定する。また、機器選択部157は、特定機器の情報を投影制御部160に供給する。
 さらに、入力情報決定部158は、特定機器および当該特定機器が実行する処理の情報を、送信制御部159に供給する。
 (送信制御部159)
 送信制御部159は、送信部23を制御するブロックである。具体的には、送信制御部159は、送信部23を制御することにより、機器選択部157が決定した特定機器へ、処理決定部155が決定した処理に対応する制御信号を送信する。
 (送信部23)
 送信部23(送信手段)は、各対象機器が実行すべき処理に対応する制御信号を送信する通信デバイスである。なお、送信部23から各対象機器へ制御信号の送信は、無線による送信が好ましいが、有線による送信であってもよい。
 なお、図11に示すように、本実施形態では、実施形態2と同様に人感センサ21および第2撮像部22を用いることで入力用画像40の投影位置を特定しているが、これに限定されず、実施形態3と同様に、第2撮像部22に代えて撮像部13を用いてもよいし、実施形態1と同様に、振動センサ10からの信号を受信することにより入力用画像40の投影位置を特定してもよい。
 以上より、ユーザは投影面30の望みの位置に、複数の機器を操作できる入力用画像40を投影させ、複数の機器を入力用画像40のみで操作することができる。よって、ユーザはそれぞれの機器を操作するためのリモコンなどの入力装置を設置する必要がない。その結果、ユーザが入力装置を紛失するおそれがなくなる。
 〔入力用画像の例〕
 図12は、本実施形態の入力制御装置2が投影する入力用画像の一例を示す模式図である。図12の(a)は、上述した機器選択用画像41の一例を示す模式図である。機器選択用画像41は、入力の対象となる対象機器を選択するための画像であり、図12の(a)では、テレビ3、エアコン4、および照明装置5が選択できるボタンを模した領域がそれぞれ描画されている。なお、描画される領域は上述の例に限定されず、上記対象機器の種類に応じて変更される。
 機器選択用画像41に対して対象機器を選択する動作が行われると、機器選択用画像41に代わり、選択された対象機器への入力を行うための入力用画像が特定した位置に投影される。例えば、機器選択用画像41におけるユーザのタッチによってテレビ3が選択された場合、図12の(b)に示す、テレビ用のリモコンを模したテレビリモコン画像42が投影される。
 テレビリモコン画像42には、通常のテレビ用のリモコンと同じように、テレビの動作状態と待機状態とを切り替えるための電源ボタン、チャンネルを切り替えるためのチャンネルボタン、音量を変更するための音量ボタン、および番組表を表示するための番組表ボタンを模した領域が描画されている。なお、テレビリモコン画像42は一例であって、上述したボタンの他にも、テレビ用のリモコンが有するボタンを模した領域が描画されていてもよい。
 これにより、ユーザは、機器選択用画像41において対象機器を選択するだけで、選択した対象機器への入力を実行するための入力用画像40を表示させることができる。ここで、例えばテレビリモコン画像42が表示された場合、ユーザは、通常のテレビ用のリモコンを操作するように、テレビリモコン画像42に対する動作を行うことで、テレビ3に表示された放送を視聴することができる。
 〔ソフトウェアによる実現例〕
 テレビ1および入力制御装置2の制御ブロック(特に投影位置特定部151、投影制御部152、撮像制御部153、画像解析部154、処理決定部155、投影位置特定部156、入力情報決定部158、送信制御部159、および投影制御部160)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
 後者の場合、テレビ1および入力制御装置2は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係る入力装置(テレビ1、入力制御装置2)は、対象機器に対する入力をユーザから受け付ける入力装置であって、ユーザが入力操作を行うための入力用画像40を、投影対象物体が有する投影面30におけるどの位置に投影するかを、当該位置を示す上記ユーザの動作または当該動作に伴って発生する物理的変化に基づいて決定する投影位置決定手段(投影位置特定部151、156)と、上記投影面に投影された入力用画像に対してユーザが指示した位置を特定する指示位置特定手段(画像解析部154)と、を備える。
 また、本発明の態様1に係る入力装置の制御方法は、対象機器に対する入力をユーザから受け付ける入力装置の制御方法であって、ユーザが入力操作を行うための入力用画像を、投影対象物体が有する投影面におけるどの位置に投影するかを、当該位置を示す上記ユーザの動作または当該動作に伴って発生する物理的変化に基づいて決定する投影位置決定ステップ(S3、S24)と、上記投影面に投影された入力用画像に対してユーザが指示した位置を特定する指示位置特定ステップ(S7、S28)と、を含む。
 上記の構成によれば、入力用画像を、投影面におけるどの位置に投影するかを、当該位置を示すユーザの動作または当該動作に伴って発生する物理的変化に基づいて決定し、投影面に投影された入力用画像に対してユーザが指示した位置を特定する。
 これにより、ユーザは、入力用画像を投影する位置を示すための動作を行うことにより、投影面の所望する位置に入力用画像を投影させることができ、所望する位置において、対象機器に対する入力を行うことができる。
 本発明の態様2に係る入力装置は、上記態様1において、上記投影位置決定手段は、上記動作を撮像した画像を解析することにより、上記入力用画像の投影位置を決定してもよい。
 上記の構成によれば、入力用画像を投影面におけるどの位置に投影するかを、ユーザの動作を撮像した画像を解析することにより決定する。
 これにより、上記態様2に係る入力装置は、振動センサを投影面に配置せずとも、入力用画像を投影する位置を決定することができるので、不特定多数の振動が発生するなどの理由で振動センサが使用できない投影対象物体に対して入力用画像を投影する場合でも、入力用画像の投影位置を特定することができる。
 本発明の態様3に係る入力装置は、上記態様2において、上記動作を撮像する撮像部(撮像部13、第2撮像部22)と、上記ユーザの位置を検出するユーザ位置検出手段(人感センサ21)とをさらに備え、上記撮像部は、上記ユーザ位置検出手段によるユーザの検出結果に基づいて動作してもよい。
 上記の構成によれば、ユーザの位置を検出した結果に基づいて、撮像部が動作することにより、ユーザの動作を撮像する。そして、撮像した画像を解析することにより、入力用画像を投影面におけるどの位置に投影するかを決定する。
 これにより、上記態様3に係る入力装置は、入力用画像の投影位置を示すユーザの動作をより確実に撮像することができる。
 本発明の態様4に係る入力装置は、上記態様1から3のいずれかにおいて、上記対象機器が待機状態にあるときにも動作可能であってもよい。
 上記の構成によれば、対象機器が待機状態であっても、入力用画像を投影面に投影することができる。
 これにより、ユーザは、入力用画像上の位置を指定する動作で、対象機器を待機状態から復帰させる、換言すれば、対象機器を動作させることができる。よって、上記態様4に係る入力装置は、リモコンなどの入力装置と同様に利用できる入力用画像を提供することができる。
 本発明の態様5に係る入力装置(入力制御装置2)は、上記態様1から4のいずれかにおいて、上記対象機器が複数存在する場合に、上記入力用画像に対するユーザの入力動作により、上記複数の対象機器のいずれかを選択可能であるとともに、選択された対象機器における処理を選択可能であり、上記入力動作によって選択された対象機器に対して、上記入力動作によって選択された処理を実行させるための信号を送信する送信手段(送信部23)をさらに備えてもよい。
 上記の構成によれば、複数の対象機器のうち、入力用画像に対する入力動作によって選択された対象機器に対して、入力用画像に対する入力動作によって選択された処理を実行させるための信号を送信することができる。
 これにより、ユーザは投影された入力用画像に対する動作で、複数の対象機器に処理を実行させることができる。そのため、ユーザは、各対象機器に対してリモコンなどの入力装置を設置する必要がなくなる。よって、上記態様5に係る入力装置は、各対象機器の入力装置の紛失により、対象機器に処理を実行させることができないといった状況を防ぐことができる。
 本発明の態様6に係る入力装置は、上記態様1において、上記投影位置決定手段は、上記動作によって生じた振動を検出する複数の振動センサ10からそれぞれ出力された信号を解析することにより、上記入力用画像の投影位置を決定し、上記複数の振動センサは、上記投影面に配置されてもよい。
 上記の構成によれば、入力用画像を投影面におけるどの位置に投影するかを、投影面に配置された複数の振動センサからそれぞれ出力された信号を解析することにより決定する。
 これにより、ユーザは投影面を叩くなどの最小限の動作で入力用画像を望みの位置に表示することができるので、より利便性の高い入力装置を提供することができる。
 本発明の各態様に係る入力装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記入力装置が備える各手段として動作させることにより上記入力装置をコンピュータにて実現させる入力装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 なお、本発明の実施形態は、以下のようにも表現できる。
 すなわち、本発明の制御システムは、装置を操作するための制御を行う制御システムであって、装置の各部を制御すると共に、自システムを制御するシステム制御部と、装置を操作するための入力を行うための入力映像を、所定の領域に自在に投影する入力映像投影手段と、上記入力映像の投影と、投影場所を指示するための入力映像投影場所指示手段と上記入力映像に対して、ユーザが操作した状況を情報化し、上記情報を上記制御部に入力する操作状況入力手段と、を有する。
 上記の制御システムによれば、装置を操作するための入力を行うための入力映像を、所定の領域に自在に投影することができる。また、投影された入力映像に対して、ユーザが操作した状況を情報化し、制御部に入力することができる。よって、ユーザは、投影面の所望する位置に入力映像を投影させることができ、所望する位置において、対象機器に対する入力を行うことができる。
 また、本発明の装置は、上記制御システムにより、自身が制御される装置であって、待機状態においても、上記制御システム稼働する手段を有することが好ましい。
 上記の装置によれば、装置が待機状態であっても、上記制御システムを稼働することができる。よって、リモコンなどの入力装置と同様に、装置を待機状態から動作させることができる入力映像を提供することができる。
 また、本発明の制御システムは、一乃至複数の装置を操作するための制御を行う制御システムであって、各装置の各部を制御する制御部各々に対して制御信号を発信し、自システムを制御する制御情報発信システム制御部と、各装置を装置毎に操作するための入力を行うための入力映像を、所定の領域に自在に投影する入力映像投影手段と、上記入力映像の投影と、投影場所を指示するための入力映像投影場所指示手段と、上記入力映像に対して、ユーザが操作した状況を情報化し、上記情報を上記制御部に入力する操作状況入力手段と、を有する。
 また、本発明の装置は、上記制御システムからの信号を受信する手段を有していることが好ましい。
 上記の制御システムによれば、各装置を装置毎に操作するための入力を行うための入力映像を、所定の領域に自在に投影することができる。また、ユーザが操作した状況に基づいて、各装置の各部を制御する制御部各々に対して制御信号を発信することで、各装置を制御することができる。そのため、ユーザは各対象機器に対してリモコンなどの入力装置を設置する必要がなくなる。よって、上記の制御システムは、各対象機器の入力装置の紛失により、対象機器に処理を実行させることができないといった状況を防ぐことができる。
 また、上記制御システムにおいて、上記入力映像投影手段は、複数の入力映像を切り替える手段を有することが好ましい。
 上記の制御システムによれば、複数の入力映像を切り替えることができるので、ユーザは、所望する位置に所望する形式の入力映像を投影させることができる。
 本発明は、例えばテレビ、エアコン、照明装置など、離れた位置からの入力を受け付け、動作する機器に好適に利用できる。
   1 テレビ(入力装置)
   2 入力制御装置(入力装置)
  10 振動センサ
  13 撮像部
  21 人感センサ(ユーザ位置検出手段)
  22 第2撮像部(撮像部)
  23 送信部(送信手段)
  30 投影面
  40 入力用画像
 151、156 投影位置特定部(投影位置決定手段)
 154 画像解析部(指示位置特定手段)

Claims (5)

  1.  対象機器に対する入力をユーザから受け付ける入力装置であって、
     ユーザが入力操作を行うための入力用画像を、投影対象物体が有する投影面におけるどの位置に投影するかを、当該位置を示す上記ユーザの動作または当該動作に伴って発生する物理的変化に基づいて決定する投影位置決定手段と、
     上記投影面に投影された入力用画像に対してユーザが指示した位置を特定する指示位置特定手段と、を備えることを特徴とする入力装置。
  2.  上記投影位置決定手段は、上記動作を撮像した画像を解析することにより、上記入力用画像の投影位置を決定することを特徴とする請求項1に記載の入力装置。
  3.  上記動作を撮像する撮像部と、
     上記ユーザの位置を検出するユーザ位置検出手段とをさらに備え、
     上記撮像部は、上記ユーザ位置検出手段によるユーザの検出結果に基づいて動作することを特徴とする請求項2に記載の入力装置。
  4.  上記対象機器が待機状態にあるときにも動作可能であることを特徴とする請求項1~3のいずれか1項に記載の入力装置。
  5.  上記対象機器が複数存在する場合に、上記入力用画像に対するユーザの入力動作により、上記複数の対象機器のいずれかを選択可能であるとともに、選択された対象機器における処理を選択可能であり、
     上記入力動作によって選択された対象機器に対して、上記入力動作によって選択された処理を実行させるための信号を送信する送信手段をさらに備えることを特徴とする請求項1~4のいずれか1項に記載の入力装置。
PCT/JP2013/084894 2013-03-27 2013-12-26 入力装置 WO2014155885A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015507968A JPWO2014155885A1 (ja) 2013-03-27 2013-12-26 入力装置
CN201380075096.1A CN105122186A (zh) 2013-03-27 2013-12-26 输入装置
US14/779,033 US20160054860A1 (en) 2013-03-27 2013-12-26 Input device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-067607 2013-03-27
JP2013067607 2013-03-27

Publications (1)

Publication Number Publication Date
WO2014155885A1 true WO2014155885A1 (ja) 2014-10-02

Family

ID=51622916

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/084894 WO2014155885A1 (ja) 2013-03-27 2013-12-26 入力装置

Country Status (4)

Country Link
US (1) US20160054860A1 (ja)
JP (1) JPWO2014155885A1 (ja)
CN (1) CN105122186A (ja)
WO (1) WO2014155885A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015105044A1 (ja) * 2014-01-10 2017-03-23 日本電気株式会社 インターフェース装置、可搬装置、制御装置、モジュール、制御方法およびコンピュータプログラム
JPWO2018008218A1 (ja) * 2016-07-05 2019-04-18 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2019087138A (ja) * 2017-11-09 2019-06-06 株式会社バンダイナムコエンターテインメント 表示制御システム及びプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106484100A (zh) * 2016-09-12 2017-03-08 珠海格力电器股份有限公司 空调器及其控制方法和装置、空调器的线控器
CN110012329B (zh) * 2019-03-19 2021-06-04 海信视像科技股份有限公司 一种显示设备中触控事件的响应方法及显示设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06153017A (ja) * 1992-11-02 1994-05-31 Sanyo Electric Co Ltd 機器の遠隔制御装置
JP2010067062A (ja) * 2008-09-11 2010-03-25 Ntt Docomo Inc 入力システム及び入力方法
JP2010134629A (ja) * 2008-12-03 2010-06-17 Sony Corp 情報処理装置および情報処理方法
JP2012191568A (ja) * 2011-03-14 2012-10-04 Ricoh Co Ltd 画像投影装置、機能設定方法、および機能設定プログラム
WO2012173001A1 (ja) * 2011-06-13 2012-12-20 シチズンホールディングス株式会社 情報入力装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050259322A1 (en) * 2004-05-20 2005-11-24 Boecker James A Touch-enabled projection screen incorporating vibration sensors
JP5408175B2 (ja) * 2011-03-31 2014-02-05 カシオ計算機株式会社 投影装置、投影方法及びプログラム
CN104981757B (zh) * 2013-02-14 2017-08-22 苹果公司 灵活的房间控制器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06153017A (ja) * 1992-11-02 1994-05-31 Sanyo Electric Co Ltd 機器の遠隔制御装置
JP2010067062A (ja) * 2008-09-11 2010-03-25 Ntt Docomo Inc 入力システム及び入力方法
JP2010134629A (ja) * 2008-12-03 2010-06-17 Sony Corp 情報処理装置および情報処理方法
JP2012191568A (ja) * 2011-03-14 2012-10-04 Ricoh Co Ltd 画像投影装置、機能設定方法、および機能設定プログラム
WO2012173001A1 (ja) * 2011-06-13 2012-12-20 シチズンホールディングス株式会社 情報入力装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015105044A1 (ja) * 2014-01-10 2017-03-23 日本電気株式会社 インターフェース装置、可搬装置、制御装置、モジュール、制御方法およびコンピュータプログラム
JPWO2018008218A1 (ja) * 2016-07-05 2019-04-18 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2019087138A (ja) * 2017-11-09 2019-06-06 株式会社バンダイナムコエンターテインメント 表示制御システム及びプログラム

Also Published As

Publication number Publication date
CN105122186A (zh) 2015-12-02
US20160054860A1 (en) 2016-02-25
JPWO2014155885A1 (ja) 2017-02-16

Similar Documents

Publication Publication Date Title
US9357134B2 (en) Electronic apparatus, image sensing apparatus, control method and storage medium
KR101287497B1 (ko) 홈-네트워크 시스템의 제어 명령 전달 장치 및 그 방법
US20130077831A1 (en) Motion recognition apparatus, motion recognition method, operation apparatus, electronic apparatus, and program
WO2014155885A1 (ja) 入力装置
TWI491224B (zh) 電視介面操作控制裝置、遙控裝置及方法
US20120140117A1 (en) Two-Sided Remote Control
JP2010134629A (ja) 情報処理装置および情報処理方法
CN106406710A (zh) 一种录制屏幕的方法及移动终端
WO2016191938A1 (zh) 通过触控板调节移动终端拍照焦距的方法和移动终端
CN108476339B (zh) 一种遥控方法和终端
CN108260013B (zh) 一种视频播放控制方法及终端
JP2009223490A (ja) 仮想スイッチならびにそれを用いた家電制御システムおよび家電制御方法
US9438842B2 (en) Reproduction control apparatus, reproduction control method, and storage medium
JP2010079332A (ja) 遠隔操作装置及び遠隔操作方法
KR20170107987A (ko) 정보 처리 장치, 정보 처리 방법, 프로그램 및 시스템
JP6211199B2 (ja) 表示制御装置、表示制御方法、制御プログラムおよび記録媒体
JP2014130590A (ja) ディスプレイ装置及びその制御方法
KR20150019766A (ko) 영상 통화 방법 및 이를 지원하는 전자 장치
TW201426404A (zh) 電子裝置及手勢控制方法
KR101134245B1 (ko) 3차원 가상 리모콘을 포함한 전자기기 및 그의 구동 방법
JP2015126457A (ja) サーバ装置のプログラム、サーバ装置及び遠隔会議方法
KR20220130171A (ko) 촬영 방법 및 전자 장치
US20140152545A1 (en) Display device and notification method
KR101361691B1 (ko) 터치 스크린을 갖는 휴대 단말기의 부분 이미지 획득 방법
US20160086608A1 (en) Electronic device, method and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13880130

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015507968

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14779033

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13880130

Country of ref document: EP

Kind code of ref document: A1