WO2016139902A1 - 表示装置及び表示制御方法 - Google Patents

表示装置及び表示制御方法 Download PDF

Info

Publication number
WO2016139902A1
WO2016139902A1 PCT/JP2016/000785 JP2016000785W WO2016139902A1 WO 2016139902 A1 WO2016139902 A1 WO 2016139902A1 JP 2016000785 W JP2016000785 W JP 2016000785W WO 2016139902 A1 WO2016139902 A1 WO 2016139902A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
screen
area
image
video
Prior art date
Application number
PCT/JP2016/000785
Other languages
English (en)
French (fr)
Inventor
壱星 横山
Original Assignee
セイコーエプソン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by セイコーエプソン株式会社 filed Critical セイコーエプソン株式会社
Priority to US15/555,032 priority Critical patent/US20180039407A1/en
Priority to CN201680012712.2A priority patent/CN107430838A/zh
Publication of WO2016139902A1 publication Critical patent/WO2016139902A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0308Detection arrangements using opto-electronic means comprising a plurality of distinctive and separately oriented light emitters or reflectors associated to the pointing device, e.g. remote cursor controller with distinct and separately oriented LEDs at the tip whose radiations are captured by a photo-detector associated to the screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Definitions

  • the present invention relates to a technology for dividing a screen into a plurality of areas and displaying an image in each area.
  • Patent Document 1 discloses a technique for changing the projection ratio of a main image and a sub image in a projection device that projects the main image and the sub image.
  • This projection device projects the pointer, moves the position of the pointer by operating the cursor key, varies the size of the rectangular frame corresponding to the main image, and interlocks the main rectangular size corresponding to the sub image By changing in the opposite direction to the image, the projection ratio of the main image and the sub image is changed.
  • the user when using a projector for presentation, etc., the user gives a presentation near the projected image.
  • the user moves to a place where the projector is installed and operates the projector or operates the projector with the remote control, It is necessary to project the main image and the sub image and to change the projection ratio of the projected image.
  • the distance between the projector and the projection plane of the image is long, it takes time to move to the installation place of the projector.
  • it is possible to change the projection ratio even by operating the keys on the remote control it is necessary to carry the remote control or to keep it close, which takes time and effort.
  • the present invention provides a technique for dividing a displayed screen into a plurality of areas by a simple operation.
  • the present invention is directed to a video acquisition unit for acquiring a plurality of video signals, a display unit for displaying a video represented by the video signal acquired by the video acquisition unit, and an indicator instructed on a screen displayed on the display unit.
  • a position detection unit for detecting a position; a drawing unit for drawing on the screen according to the position detected by the position detection unit; and an operation detection unit for detecting an operation performed by the pointer on the screen
  • the screen displayed by the display unit is divided into a plurality of areas according to the position detected by the position detection unit, and the plurality of areas display different images from one another.
  • the present invention provides a display device comprising: a screen division unit that allocates a video represented by the video signal acquired by the video acquisition unit to each area.
  • the screen can be easily divided into a plurality of areas by the operation by the indicator.
  • the screen division unit may change the position after the change.
  • the size of the plurality of areas may be changed in accordance with the above. According to this configuration, the size of the divided area can be changed by a specific operation.
  • At least one of the first operation and the second operation may be an operation of bringing the indicator into contact with the screen a plurality of times.
  • the screen can be divided into a plurality of areas by a simple operation.
  • the screen division unit may be configured to determine the number of the plurality of areas in accordance with the position detected by the position detection unit. According to this configuration, the number of the plurality of areas can be changed according to the position of the indicator.
  • the screen division unit may be configured to determine the number of the plurality of areas in accordance with the number of video signals acquired by the video acquisition unit. According to this configuration, the number of the plurality of areas can be changed according to the presence or absence of the video signal.
  • the screen division unit is an image displayed at the first position indicated by the indicator. And the image displayed at the second position indicated by the indicator may be interchanged. According to this configuration, the positions of the images displayed in the plurality of areas can be interchanged.
  • the drawing unit may be configured not to perform drawing according to the position of the pointer for the operation detected by the operation detection unit. According to this configuration, it is possible to prevent drawing by an operation of dividing the screen into a plurality of areas.
  • the present invention also includes a position detection step of detecting a position indicated by an indicator on a screen displayed by the display unit, and a drawing step of drawing in the screen according to the position detected in the position detection step.
  • Display control step including the steps of: dividing into a plurality of areas according to the position; and allocating an image represented by the plurality of video signals acquired by the image acquisition unit to each area so that the plurality of areas display different images. I will provide a.
  • the screen can be easily divided into a plurality of areas by the operation by the indicator.
  • FIG. 1 is a diagram showing an apparatus that configures a display system 1;
  • FIG. 2 is a diagram showing a hardware configuration of a projector 10 and a pointer 20. The figure which showed the information stored in the 1st table.
  • FIG. 2 is a functional block diagram of a control unit 110 and a control unit 210. The figure which showed an example of the time chart which detects an indicator.
  • FIG. 1 is a view showing an apparatus constituting a display system 1 according to an embodiment of the present invention.
  • the display system 1 includes a projector 10 that projects an image on a screen SC (projection plane), an indicator 20, and a light emitting device 30.
  • the projector 10 which is an example of a display device, is connected to an external device that supplies a video signal, and projects a video represented by the video signal supplied from the external device onto the screen SC.
  • the projector 10 also has an interactive function of writing a projected image with a finger or a pointer 20.
  • the projector 10 according to the present embodiment is installed obliquely above the screen SC, and projects an image toward the screen SC.
  • the projector 10 projects an image on the screen SC, but instead of the screen SC, the projector 10 may project an image on a wall surface (projection plane).
  • the projector 10 is configured to be installed on a wall surface by a fitting, but may be installed on a ceiling.
  • the projector 10 is not limited to the structure installed in a wall surface or a ceiling, and may be a stationary type installed on a table.
  • the pen-type indicator 20 functions as a pointing device for operating the projector 10, and when the user operates a GUI (Graphical User Interface) projected by the projector 10 or when the user writes in a projected image It is used when.
  • GUI Graphic User Interface
  • the light emitting device 30 has a light emitting unit that emits light (in the present modification, infrared light).
  • the light emitting device 30 is disposed above the upper end of the screen SC, and diffuses light downward in the range of the angle ⁇ and emits the light.
  • the light emitted from the light emitting device 30 forms a layer of light along the screen SC.
  • the angle ⁇ reaches approximately 180 degrees, and a light layer is formed on almost the entire screen SC. It is preferable that the surface of the screen SC and the light layer formed by the light emitting device 30 be close to each other.
  • the emission of light from the light emitting device 30 is controlled by the projector 10.
  • FIG. 2 is a diagram showing a hardware configuration of the projector 10 and the pointer 20.
  • the indicator 20 includes a control unit 210, a communication unit 220, a light emitting unit 230, an operation unit 240, and a power supply 250.
  • the power supply 250 is, for example, a dry battery or a secondary battery, and supplies power to the control unit 210, the communication unit 220, the light emitting unit 230, and the operation unit 240.
  • the operation unit 240 includes a switch (not shown) that controls power supply from the power supply 250 to each unit.
  • the light emitting unit 230 includes a light emitting diode that emits infrared light, and is provided at the tip of the pointer 20. Lighting and extinguishing of the light emitting unit 230 are controlled by the control unit 210.
  • the light emitting unit 230 is a point light source, and light emitted by the light emitting unit 230 spreads on the spherical surface from the tip of the indicator 20.
  • the communication unit 220 includes a light receiving element that receives infrared light.
  • the communication unit 220 receives various signals transmitted from the projector 10 as infrared light.
  • the communication unit 220 converts the received various signals into electric signals and supplies the electric signals to the control unit 210.
  • the control unit 210 is connected to the light emitting unit 230 and the communication unit 220.
  • the control unit 210 starts control of the light emitting unit 230 according to a signal supplied from the communication unit 220, and controls lighting and extinguishing of the light emitting diode of the light emitting unit 230.
  • the control unit 210 and the light emitting unit 230 function as a light emitting device that causes the indicator 20 to emit light.
  • the projector 10 includes a control unit 110, a storage unit 120, an operation unit 130, and a projection unit 140.
  • the projector 10 also includes a video processing unit 150, a video interface 160, an imaging unit 170, and a communication unit 180.
  • the control unit 110 is a microcomputer including a central processing unit (CPU), a read only memory (ROM), and a random access memory (RAM).
  • CPU central processing unit
  • ROM read only memory
  • RAM random access memory
  • the control unit 110 controls each unit to project an image on the screen SC or an interactive function, and use the finger or the pointer 20 as a pointing device. Function etc. are realized.
  • the function of controlling the emission of infrared light from the light emitting device 30 connected to the control unit 110, and the rectangular projection area for displaying an image are divided into a plurality of areas, and supplied from an external device.
  • a variety of functions are realized such as a screen division function of projecting an image of a video signal into divided areas, a function of changing the number and area of the divided areas, and a function of exchanging an image projected onto the divided areas.
  • the video interface 160 has a plurality of connectors to which video signals are supplied, such as RCA, D-Sub, HDMI (registered trademark), USB, etc., and supplies video signals supplied from the external device to the connectors to the video processing unit 150 .
  • the video interface 160 is an example of a video acquisition unit that acquires a plurality of video signals.
  • the video interface 160 has an interface for wireless communication such as a wireless LAN or Bluetooth (registered trademark), and may obtain a video signal by wireless communication.
  • the storage unit 120 stores setting values related to the image quality of an image to be projected and information related to settings of various functions.
  • the storage unit 120 stores a first table that stores the correspondence between each area of the projection area divided by the screen division function and the video signal of the video to be projected to each area.
  • the projection area is divided into four areas from the first area to the fourth area at the maximum. Therefore, in the first table in the initial state, for the first to fourth regions, as shown in FIG. 3, the first video source S1 supplied to the video interface 160 is associated with the first region, The second video source S2 is associated with the second area, the third video source S3 is associated with the third area, and the fourth video source S4 is associated with the fourth area.
  • the operation unit 130 includes a plurality of buttons for operating the projector 10.
  • the control unit 110 controls the respective units in accordance with the operated button to adjust an image projected on the screen SC, set various functions of the projector 10, and the like.
  • the operation unit 130 includes a light receiving unit (not shown) that receives infrared light signals from a remote controller (not shown).
  • the operation unit 130 converts the signal transmitted from the remote controller into an electric signal and supplies the signal to the control unit 110, and the control unit 110 controls each unit according to the supplied signal.
  • the projection unit 140 and the video processing unit 150 cooperate with each other to function as a display unit for displaying an image.
  • the video processing unit 150 acquires a video signal supplied from the video interface 160. Further, the video processing unit 150 acquires, from the control unit 110, a signal for an on-screen image such as a GUI for operating the projector 10 or a cursor indicating a position pointed by the indicator 20 and an image drawn by the interactive function.
  • the video processing unit 150 has various image processing functions, performs image processing on the video signal supplied from the video interface 160, and adjusts the image quality of the video to be projected.
  • the video processing unit 150 supplies, to the projection unit 140, a video signal on which the signal of the on-screen image is superimposed.
  • the video processing unit 150 divides the projection area into a plurality of video signals and arranges the video of the video signal supplied from the external device into the divided areas. And supplies the generated video signal to the projection unit 140.
  • the projection unit 140 that projects an image includes a light source 141, a light valve 142, a drive circuit 144, and a projection optical system 143.
  • the light source 141 is a lamp that emits light, and the light emitted from the light source 141 is split into red, green, and blue lights by a plurality of dichroic mirrors and mirrors (not shown), and red, green, and blue respectively split. Light is directed to the light valve 142.
  • the light source 141 may not be a lamp, but may be a light emitting diode or a semiconductor laser device that emits laser light.
  • the drive circuit 144 acquires the video signal supplied from the video processing unit 150.
  • the image signal supplied to the drive circuit 144 is gradation data representing the gradation of the red component in the image to be projected, gradation data representing the gradation of the green component in the image to be projected, and blue components in the image to be projected It has gradation data representing the gradation of.
  • the drive circuit 144 extracts gradation data of each color of red, green and blue, and drives the light valve 142 based on the extracted gradation data of each color.
  • the light valve 142 has a liquid crystal light valve on which the above-mentioned red light is incident, a liquid crystal light valve on which the above-mentioned green light is incident, and a liquid crystal light valve on which the above-mentioned blue light is incident.
  • the liquid crystal light valve is a transmissive liquid crystal panel, and includes pixels arranged in a matrix in a plurality of rows and a plurality of columns. A liquid crystal light valve that receives red light is driven based on red tone data, a liquid crystal light valve that receives green light is driven based on green tone data, and a liquid crystal light that receives blue light enters The valve is driven based on the blue gradation data.
  • each pixel is controlled by the drive circuit 144 to change the transmittance of the pixel.
  • the light of each color transmitted through the liquid crystal light valve becomes an image corresponding to each gradation data.
  • Images of red, green and blue lights transmitted through the liquid crystal light valve are synthesized by a dichroic prism (not shown) and are incident on the projection optical system 143.
  • the projection optical system 143 is an optical system that magnifies the incident image, and magnifies the incident image by a lens or a mirror and projects the image on the screen SC.
  • the imaging unit 170 is an imaging device (CMOS, CCD, etc.) that receives infrared light emitted by the light emitting unit 230 or infrared light emitted from the light emitting device 30 and reflected by the finger, and optical that forms an image on the imaging device
  • the system is provided with a stop that limits light incident on the imaging device.
  • the imaging unit 170 sets an area including the screen SC as an imaging area, generates an image of the imaged area, and outputs an image signal representing the generated image.
  • the imaging unit 170 picks up an area including the screen SC from obliquely above.
  • the communication unit 180 includes a light emitting diode that emits infrared light.
  • the communication unit 180 is controlled by the control unit 110 to turn on and off the light emitting diode, and transmits an infrared light signal to control turning on and off of the light emitting unit 230.
  • FIG. 4 is a functional block diagram showing a configuration realized by the control unit 110 executing a program and a function realized by the control unit 210. First, functions implemented in the control unit 110 of the projector 10 will be described.
  • the distance acquisition unit 111 acquires the distance from the imaging unit 170 to the projection plane. Specifically, the distance acquisition unit 111 controls the video processing unit 150 to project a pattern image for measuring the distance from the imaging unit 170 to the projection plane on the screen SC. When the pattern image is projected on the screen SC, the imaging unit 170 causes the imaging unit 170 to capture the projected pattern image, and the distance to the projection plane is acquired based on the size of the captured pattern image. Note that the distance acquisition unit 111 may acquire information related to the distance input by the user operating the remote controller or the operation unit 130. Here, the information to be acquired by the distance acquisition unit 111 is not limited to the distance itself, and may be information related to the distance (information corresponding to the distance).
  • the screen size is determined according to the distance from the imaging unit 170 to the projection surface, and thus the user may be allowed to input the screen size as information related to the distance.
  • a distance sensor may be provided in the projector 10, and the distance from the imaging unit 170 to the projection plane may be obtained from the measurement result of the distance sensor.
  • the position detection unit 112 specifies, for example, with the time chart illustrated in FIG. 5, a position indicated by a finger as an example of the indicator 20 on the projected screen.
  • a period for specifying the position indicated by the finger and the position indicated by the indicator 20 has four phases from phase P11 to phase P14 as shown in FIG.
  • the phases P11 to P14 are repeated.
  • the phase P11 is a phase for synchronizing the timing at which the projector 10 performs imaging with the imaging unit 170 and the timing at which the indicator 20 emits light.
  • the position detection unit 112 controls the communication unit 180 so that the synchronization signal of infrared light is output in the predetermined period te1.
  • control unit 210 controls the light emitting unit so that the light emitting unit 230 lights up in the set period te2 when a predetermined time has elapsed since the communication unit 220 receives the synchronization signal and receives the synchronization signal.
  • the position detection unit 112 controls the light emitting device 30 such that the light emitting device 30 emits infrared light in a period te2 from the start time of the phase P12 and the phase P14.
  • the position detection unit 112 controls the imaging unit 170 in phases P12 to P14, and images a predetermined range including the screen SC at the set shutter speed.
  • the exposure period in which exposure is performed by the electronic shutter function in the imaging unit 170 starts from the start point of the phase P12 and the phase P14, and the end point of the exposure is determined by the set shutter speed.
  • the image signal of the image captured by the imaging unit 170 in the exposure period of phase P12 to phase P14 is supplied to the position detection unit 112.
  • the position detection unit 112 specifies the position indicated by the finger or the pointer 20 on the projected image using the image indicated by the supplied image signal and the distance obtained by the distance acquisition unit 111.
  • the image obtained by the imaging unit 170 is emitted from the light emitting device 30 and reflected by the finger The light is reflected.
  • the infrared light emitted from the indicator 20 is also reflected in the image obtained by the imaging unit 170.
  • the third phase P13 since the light emitting device 30 does not emit light, infrared light emitted by the pointer 20 appears in the image obtained by the imaging unit 170.
  • the position detection unit 112 is an infrared light reflected in an image obtained by the imaging unit 170 in the third phase P13 among infrared light reflected in the image obtained by the imaging unit 170 in the second phase P12 and the fourth phase P14.
  • the infrared light at a position close to the position of is identified, and the position of the identified infrared light is taken as the position of the indicator 20.
  • the position detection unit 112 is a portion of the infrared light reflected in the image obtained by the imaging unit 170 in the second phase P12 and the fourth phase P14, which is reflected in the image obtained by the imaging unit 170 in the third phase P13.
  • the infrared light at a position far from the position of the external light is specified, and the specified position of the infrared light is taken as the position of the finger.
  • the specified position is used when using the indicator 20 as a pointing device or when performing various functions.
  • the operation detection unit 113 analyzes the image signal supplied from the imaging unit 170, and detects a specific operation performed by the user on the projection plane based on the infrared light shown in the image represented by the image signal.
  • the screen division unit 114 divides the projection area into a plurality of areas according to the position detected by the position detection unit 112, and different images are displayed in each of the plurality of areas. Control the video processing unit 150.
  • the drawing unit 115 performs drawing in accordance with the position detected by the position detection unit 112 in the image to be projected. However, the drawing unit 115 does not perform drawing according to the position detected by the position detection unit 112 at the position at which the specific operation detected by the operation detection unit 113 is performed.
  • the signal acquisition unit 211 acquires the synchronization signal received by the communication unit 220.
  • the light emission control unit 212 acquires the synchronization signal from the signal acquisition unit 211, and when a predetermined time passes after acquiring the synchronization signal, the light emission unit 230 is turned on so that the light emission unit 230 lights up in the period te2 in phase P12 and phase P14. Control 230;
  • the video signal supplied to the D-Sub connector of the video interface 160 is supplied to the first video source S1, and the video signal supplied to the HDMI connector is supplied to the second video source S2 and USB connector.
  • the video signal is described as the third video source S3 and the video signal supplied to the RCA connector as the fourth video source S4.
  • FIG. 6 is a flowchart showing a flow of processing of dividing the projection area into a plurality of areas and projecting the image of the image source supplied from the external device to the divided areas.
  • the control unit 110 performs a process of dividing the projection area when a predetermined specific operation is performed.
  • the predetermined specific operation is “touch the projection surface with two fingers ⁇ separate two fingers from the projection surface ⁇ two fingers again on the projection surface. Contacting is the operation of keeping the two fingers in contact with the projection surface for more than a predetermined time.
  • the control unit 110 analyzes the image signal supplied from the imaging unit 170, and determines whether a predetermined specific operation has been performed by the user.
  • the control unit 110 analyzes the image signal supplied from the imaging unit 170, and in the image imaged by the imaging unit 170, when two infrared light reflected by the finger is shown, two fingers are on the screen SC It is determined that they are in contact and the process shown in FIG. 6 is started.
  • an image signal in which infrared light reflected by the finger is not reflected may be supplied from the imaging unit 170 within a predetermined time. That is, it is determined whether or not two fingers are separated from the projection surface within a predetermined time after the two fingers touch the projection surface (step SA1).
  • an image signal in which infrared light reflected by the finger is not captured is supplied from the imaging unit 170 within a predetermined time. (YES in step SA1), it is determined that the two fingers are separated from the projection plane within a predetermined time.
  • the control unit 110 determines whether an image signal in which two infrared lights reflected by the finger are shown is supplied from the imaging unit 170 within a predetermined time after judging YES in step SA1, ie, within a predetermined time It is determined again whether two fingers are in contact with the projection plane (step SA2).
  • the image is captured within the predetermined time It is determined that two fingers touch the projection plane again.
  • control unit 110 determines YES in step SA2, the control unit 110 specifies the positions of the two fingers on the projection surface, and determines the division position when dividing the projection area into a plurality of areas based on the specified positions. (Step SA3). Here, the control unit 110 specifies the position of the midpoint of the line segment connecting the positions of the two fingers, and sets the specified position as the division position Pos.
  • the width and height of the rectangular projection area in the undivided state are w and h, respectively, and the coordinates of the upper left vertex of the projection area are (0, 0), The coordinates of the upper right vertex are (w, 0), the coordinates of the lower left vertex are (0, h), and the coordinates of the lower right vertex are (w, h).
  • the control unit 110 divides the projection area, for example, as shown in FIG. 8 according to the coordinates of the specified division position Pos (step SA4).
  • the control unit 110 controls the video processing unit 150 so that the video of the video source corresponding to each area is projected in each of the divided areas according to the information stored in the first table ( Step SA5).
  • the control unit 110 divides the projection area into four, and the upper left area is a first area A1, the upper right area is a second area A2, and the lower left A region is referred to as a third region A3, and a lower right region is referred to as a fourth region A4.
  • the control unit 110 projects the video of the first video source S1 in the first area A1 according to the first table, and the second video in the second area A2.
  • the video processing unit 150 is controlled so that the video of the source S2 is projected, the video of the third video source S3 is projected to the third area A3, and the video of the fourth video source S4 is projected to the fourth area A4. .
  • the control unit 110 determines whether two infrared light reflected by the finger are shown in the image captured by the imaging unit 170, that is, whether two fingers are in contact with the screen SC (Step SA6).
  • the control unit 110 performs the process shown in FIG. 6 in the case where the infrared light reflected by the finger does not appear in the captured image, that is, when the user's finger separates from the projection area after dividing the projection area. finish.
  • control unit 110 determines that the two fingers are in contact with screen SC. .
  • the control unit 110 determines YES in step SA6
  • the position of the two fingers on the projection surface is specified, and the latest division position Pos when dividing the projection area into a plurality of areas based on the specified position. Are determined (step SA7).
  • the control unit 110 divides the projection area according to the newly identified division position Pos ((1) Step SA8). Then, in accordance with the information stored in the first table, the control unit 110 controls the video processing unit 150 so that the video is projected in each of the divided areas (step SA9), and returns the process flow to step SA6.
  • the control unit 110 is shown in the first row and second column of FIG.
  • the projection area is divided into two areas in the horizontal direction, the left area is the third area A3, the right area is the fourth area A4, and the image of the third image source S3 is in the third area A3.
  • the image processing unit 150 is controlled so that the image of the fourth image source S4 is projected and projected to the fourth area A4.
  • the control unit 110 displays the third row and second column in FIG. As shown, the projection area is divided into two areas in the horizontal direction, the left area is the first area A1, the right area is the second area A2, and the image of the first image source S1 is in the first area A1.
  • the image processing unit 150 is controlled so that the image of the second image source S2 is projected to the second area A2 by
  • the control unit 110 sets 2nd row and 1st column in FIG. As shown, the projection area is divided into two areas in the vertical direction, the upper area is the second area A2, the lower area is the fourth area A4, and the second area A2 is the second image source S2.
  • the video processing unit 150 is controlled so that the video is projected and the video of the fourth video source S4 is projected to the fourth area A4.
  • the control unit 110 displays 2nd row and 3rd column in FIG. As shown, the projection area is divided into two areas in the vertical direction, the upper area being the first area A1, the lower area being the third area A3, and the first area A1 being the first image source S1.
  • the video processing unit 150 is controlled so that the video is projected and the video of the third video source S3 is projected to the third area A3.
  • the control unit 110 selects the image to be projected according to the first table and the coordinates of the division position Pos, and projects the selected image .
  • the control unit 110 sets the projection area as the fourth area A4, and the 1st row and 1st column in FIG.
  • the video processing unit 150 is controlled so that the video of the fourth video source S4 is projected to the projection area.
  • the control unit 110 sets the projection area as the third area A3.
  • the video processing unit 150 is controlled so that the video of the video of the third video source S3 is projected to the projection area.
  • the control unit 110 sets the projection area as the second area A2 and sets three rows and one column in FIG.
  • the video processing unit 150 is controlled so that the video of the video of the second video source S2 is projected to the projection area.
  • the control unit 110 sets the projection area as the first area A1.
  • the video processing unit 150 is controlled so that the video of the video of the first video source S1 is projected to the projection area.
  • the projection area can be divided into a plurality of areas and a plurality of images can be projected without operating the operation unit 130 or the remote controller.
  • FIG. 9 is a flow chart showing the flow of processing for exchanging the image projected in the divided area.
  • the control unit 110 performs a process of exchanging the images projected in the two areas when a predetermined specific operation is performed in a state where the projection area is divided.
  • the specific operation (third operation) that is the trigger for starting the process of replacing the image projected in the divided area is “touch the projection surface with three fingers ⁇ three The finger is released from the projection surface ⁇ the three fingers are again brought into contact with the projection surface ⁇ the three fingers are kept in contact with the projection surface for a predetermined time.
  • the control unit 110 analyzes the image signal supplied from the imaging unit 170, and determines whether a predetermined specific operation has been performed by the user's finger.
  • the infrared light emitted from the light emitting device 30 touches the projection surface.
  • the light reflected by the finger and the light reflected by the three fingers enter the imaging unit 170.
  • the control unit 110 analyzes the image signal supplied from the imaging unit 170, and in the image imaged by the imaging unit 170, when three infrared light reflected by the finger are shown, three fingers are on the screen SC It is determined that they are in contact and the process shown in FIG. 9 is started.
  • the control unit 110 detects an image signal in which infrared light reflected by a finger is not captured within a predetermined time after determining that three fingers are in contact with the screen SC. It is determined whether or not the three fingers are supplied from the projection surface, that is, the three fingers are separated from the projection surface within a predetermined time after the three fingers are in contact with the projection surface (step SB1).
  • the control unit 110 determines that three fingers are in contact with the screen SC, an image signal in which the infrared light reflected by the finger is not captured is supplied from the imaging unit 170 within a predetermined time. (YES in step SB1), it is determined that the three fingers are separated from the projection plane within a predetermined time.
  • the control unit 110 determines whether an image signal in which three infrared lights reflected by the finger are captured is supplied from the imaging unit 170 within a predetermined time after the determination in step SB1 is YES, that is, within a predetermined time It is determined again whether three fingers are in contact with the projection plane (step SB2).
  • the control section 110 determines within the predetermined time It is determined that three fingers touch the projection plane again.
  • the control unit 110 specifies the positions of the three fingers on the projection surface, and stores one of the specified three positions in the RAM as the first coordinate (step SB3).
  • the coordinates of the position of the uppermost finger are taken as the first coordinates, but the coordinates of the positions of the lowermost finger may be taken as the first coordinates.
  • the position of the finger closest to the origin in the left-right direction may be used as the first coordinate, and the position of the finger furthest to the origin in the left-right direction among the positions of the three fingers. May be taken as the first coordinates.
  • the control unit 110 analyzes the image signal supplied from the imaging unit 170 and determines whether the three fingers are in contact with the projection surface (step SB4).
  • the control unit 110 controls the control unit 110.
  • the positions of the three fingers are specified, and the coordinates of one of the specified three positions are stored in the RAM as the second coordinates (step SB5).
  • the control unit 110 returns the flow of processing to step SB4, and while the user's three fingers are in contact, specifies the position of the uppermost finger of the three fingers, and the specified position Update the second coordinate in coordinates.
  • the control unit 110 In the case where the infrared light is not reflected in the image represented by the image signal supplied from the imaging unit 170, that is, when the user's three fingers are separated from the projection surface (NO in step SB4), the control unit 110 The image projected on the divided area is exchanged based on the first coordinate and the second coordinate stored in the RAM (step SB6).
  • control unit 110 specifies a first exchange area including the stored first coordinates and a second exchange area including the stored second coordinates. For example, assuming that the coordinates of the division position when the projection area is divided into four are (a, b) and the first coordinates are (c, d), the control unit 110 satisfies c ⁇ a, d If ⁇ b, the first area A1 is identified as the first exchange area, cca, and if d ⁇ b, the second area A2 is identified as the first exchange area, c ⁇ a If d ⁇ b, the third area A3 is identified as the first exchange area, and if c ⁇ a and d ⁇ b, the fourth area A4 is identified as the first exchange area .
  • the control unit 110 satisfies e ⁇ a, and f If ⁇ b, the first area A1 is identified as the second exchange area, and e ⁇ a and if f ⁇ b, the second area A2 is identified as the second exchange area, e ⁇ a If ffb, the third area A3 is identified as the second exchange area, and if e ⁇ a and f ⁇ b, the fourth area A4 is identified as the second exchange area .
  • the control unit 110 is 0 ⁇ a ⁇ w. If c ⁇ a, the third area A3 is specified as the first exchange area, and if cca, the fourth area A4 is specified as the first exchange area. Do. Further, assuming that the coordinates of the division position when the projection area is divided into two are (a, b) and the second coordinates are (e, f), the control unit 110 is 0 ⁇ e ⁇ w. If e ⁇ a, the third area A3 is identified as the second exchange area, and if e ⁇ a, the fourth area A4 is identified as the second exchange area. Do.
  • the control unit 110 is 0 ⁇ b ⁇ h. And if d ⁇ b, the second area A2 is specified as the first exchange area, and if d ⁇ b, the fourth area A4 is specified as the first exchange area. Do. Further, assuming that the coordinates of the division position when the projection area is divided into two are (a, b) and the second coordinates are (e, f), the control unit 110 is 0 ⁇ f ⁇ h. And if f ⁇ b, the second area A2 is specified as the second exchange area, and if f ⁇ b, the fourth area A4 is specified as the second exchange area. Do.
  • the control unit 110 is 0 ⁇ b ⁇ h. If d ⁇ b, the first area A1 is identified as the first exchange area, and if d ⁇ b, the third area A3 is identified as the first exchange area. Further, assuming that the coordinates of the division position when the projection area is divided into two are (a, b) and the second coordinates are (e, f), the control unit 110 is 0 ⁇ f ⁇ h. If f ⁇ b, the first area A1 is identified as the second exchange area, and if f ⁇ b, the third area A3 is identified as the second exchange area. Do.
  • the control unit 110 ends the process shown in FIG. 9 without exchanging the image projected on the divided areas.
  • the control unit 110 controls the image source of the image projected in the first exchange area and the image of the image projected in the second exchange area. Swap with the source.
  • the control unit 110 sets the first table in the first table.
  • the video source associated with one area and the video source associated with the fourth area in the first table are exchanged.
  • the fourth image source S4 is associated with the first area
  • the first image source S1 is associated with the fourth area.
  • the control unit 110 projects the fourth video source S4 in the upper left first area A1 and projects the second video source S2 in the upper right second area.
  • the video processing unit 150 is controlled such that the third video source S3 is projected to the lower left third area and the first video source S1 is projected to the lower right fourth area A4.
  • the presence or absence of the video source supplied to the connector of the video interface 160 may be detected, and the number of divisions of the screen may be a number according to the presence or absence of the video source supplied to the connector of the video interface 160.
  • the horizontal coordinate of the division position Pos is 0 ⁇ a ⁇ w
  • the projection area is divided into two parts, upper and lower or left and right, and the image of the image source supplied to the connector is divided in the divided area. It may be projected.
  • the coordinate in the horizontal direction of the division position Pos is 0 ⁇ a ⁇ w
  • the vertical coordinate of division position Pos is 0 ⁇ b ⁇ h
  • the projection area is divided into three, and the image of the image source supplied to the connector is projected to the divided area. Good.
  • the projection area is divided into three, for example, it may be divided into any of the states (a) to (d) in FIG.
  • the control unit 110 may shift the process flow to step SA6 in the flowchart of FIG. According to this configuration, in a state where the projection surface is divided, the operation of "touch the projection surface with two fingers ⁇ separate two fingers from the projection surface ⁇ bring two fingers again to the projection surface". When the two fingers are moved in contact with the projection surface, the division position Pos is changed.
  • the first operation, the second operation, and the third operation may be operations other than the operations exemplified in the embodiment.
  • the operation serving as a trigger for dividing the projection area is an operation with a finger, but the operation serving as a trigger for dividing the projection area is not limited to the operation with a finger, for example
  • the operation by the indicator 20 may be used.
  • Control unit 110 divides the projection area on the basis of the position where the indicator 20 is in contact. You may do it.
  • the indicator 20 In a state where the function of drawing on the screen according to the position on the indicator 20 is not executed, if the indicator 20 is moved in a spiral while the indicator 20 is in contact with the projection surface, the indicator 20 contacts
  • the projection area may be divided on the basis of the position at which the projection is performed, and the invention is not limited to the spiral shape, and when the indicator 20 is moved to write a specific character or symbol on the projection surface, the indicator 20 The projection area may be divided based on the contact position.
  • a button is provided on the indicator 20, and when the button is pressed, a signal indicating that the button is pressed from the indicator 20 to the projector 10 is transmitted by wireless communication, and the projector 10 receives this signal Then, the position of the indicator 20 on the projection surface may be detected, and the projection area may be divided based on the detected position.
  • the operation serving as a trigger for executing the process of exchanging the image projected in the divided area is not limited to the operation by the finger, and may be the operation by the indicator 20.
  • the device for displaying an image is the projector 10 for projecting an image, but it may be a direct view type display device such as a liquid crystal television or a liquid crystal monitor.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Digital Computer Display Output (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

 表示装置は、複数の映像信号を取得する映像取得部と、前記映像取得部が取得した映像信号が表す映像を表示する表示部と、前記表示部で表示された画面上で指示体が指示した位置を検知する位置検知部と、前記位置検知部が検知した位置に応じて前記画面内に描画を行う描画部と、前記画面上で前記指示体によって行われた操作を検知する操作検知部と、前記操作検知部により第1操作が検知された場合、前記表示部が表示する画面を前記位置検知部が検出した位置に応じて複数領域に分割し、当該複数領域が互いに異なる映像を表示するように、各領域へ前記映像取得部が取得した映像信号が表す映像を割り振る画面分割部と、を備える。

Description

表示装置及び表示制御方法
 本発明は、画面を複数領域に分割し、各領域に映像を表示する技術に関する。
 特許文献1には、メイン画像とサブ画像を投影する投影装置において、メイン画像とサブ画像の投影比率を変更する技術が開示されている。この投影装置は、ポインタを投影し、カーソルキーの操作によりポインタの位置を移動させ、メイン画像に相当する矩形枠の大きさを可変し、連動してサブ画像に相当する矩形の大きさをメイン画像とは反対の方向に可変することで、メイン画像とサブ画像の投影比率を変更する。
特開2009-133985号公報
 例えば、プレゼンテーションなどでプロジェクターを使用する場合、ユーザーは、投写された画像の近くでプレゼンテーションを行う。この状態で、例えば、複数の映像ソースを投写してプレゼンテーションを行う場合には、ユーザーは、プロジェクターが設置されている場所まで移動してプロジェクターを操作するか又はリモコンでプロジェクターを操作することにより、メイン画像とサブ画像を投写し、投写した画像の投影比率を変更する必要がある。しかしながら、プロジェクターの設置場所まで移動してプロジェクター本体を操作する場合、プロジェクターと映像の投写面までの距離が遠いと、プロジェクターの設置場所まで移動するのに手間がかかる。また、リモコンのキーの操作でも投影比率を変更が可能ではあるが、リモコンを携帯するか近くに置いておく必要があり、手間がかかる。
 本発明は、表示されている画面を簡単の操作で複数領域に分割する技術を提供する。
 本発明は、複数の映像信号を取得する映像取得部と、前記映像取得部が取得した映像信号が表す映像を表示する表示部と、前記表示部で表示された画面上で指示体が指示した位置を検知する位置検知部と、前記位置検知部が検知した位置に応じて前記画面内に描画を行う描画部と、前記画面上で前記指示体によって行われた操作を検知する操作検知部と、前記操作検知部により第1操作が検知された場合、前記表示部が表示する画面を前記位置検知部が検出した位置に応じて複数領域に分割し、当該複数領域が互いに異なる映像を表示するように、各領域へ前記映像取得部が取得した映像信号が表す映像を割り振る画面分割部とを備える表示装置を提供する。
 この表示装置によれば、指示体による操作で簡単に画面を複数領域に分割することができる。
 本発明においては、前記画面分割部は、前記画面が分割されている状態において前記操作検知部が第2操作を検知した後に、前記位置検知部が検知した位置が変化した場合、変化後の位置に追従して前記複数領域の大きさを変更する構成としてもよい。
 この構成によれば、分割された領域の大きさを特定の操作により変更することができる。
 また、本発明においては、前記第1操作及び前記第2操作の少なくとも一方は、前記指示体を前記画面へ複数回接触させる操作である構成としてもよい。
 この構成によれば、簡単な操作で画面を複数領域に分割することができる。
 また、本発明においては、前記画面分割部は、前記位置検知部が検知した位置に応じて前記複数領域の数を決定する構成としてもよい。
 この構成によれば、指示体の位置に応じて複数領域の数を変更することができる。
 また、本発明においては、前記画面分割部は、前記映像取得部が取得した映像信号の数に応じて、前記複数領域の数を決定する構成としてもよい。
 この構成によれば、映像信号の有無に応じて複数領域の数を変更することができる。
 また、本発明においては、前記画面が分割されている状態において前記操作検知部が第3操作を検知した場合、前記画面分割部は、前記指示体が指示した第1位置に表示されている映像と、前記指示体が指示した第2位置に表示されている映像とを入れ替える構成としてもよい。
 この構成によれば、複数領域に表示されている映像の位置を入れ替えることができる。
 また、本発明においては、前記描画部は、前記操作検知部により検知された操作については、前記指示体の位置に応じた描画を行わない構成としてもよい。
 この構成によれば、画面を複数領域に分割する操作で描画を行わないようにすることができる。
 また、本発明は、表示部で表示された画面上で指示体が指示した位置を検知する位置検知ステップと、前記位置検知ステップで検知した位置に応じて前記画面内に描画を行う描画ステップと、前記画面上で前記指示体によって行われた操作を検知する操作検知ステップと、前記操作検知ステップで第1操作が検知された場合、前記表示部が表示する画面を前記位置検知ステップで検出した位置に応じて複数領域に分割し、当該複数領域が互いに異なる映像を表示するように、各領域へ映像取得部が取得した複数の映像信号が表す映像を割り振る画面分割ステップとを備える表示制御方法を提供する。
 この方法によれば、指示体による操作で簡単に画面を複数領域に分割することができる。
表示システム1を構成する装置を示した図。 プロジェクター10と指示体20のハードウェア構成を示した図。 第1テーブルに格納される情報を示した図。 制御部110と制御部210の機能ブロック図。 指示体を検出するタイムチャートの一例を示した図。 制御部110が行う処理の流れを示したフローチャート。 投写領域の座標を示した図。 分割位置Posと分割された投写領域との関係を示した図。 制御部110が行う処理の流れを示したフローチャート。 分割位置Posと分割された投写領域との関係を示した図。
[実施形態]
 図1は、本発明の一実施形態に係る表示システム1を構成する装置を示した図である。表示システム1は、スクリーンSC(投写面)に映像を投写するプロジェクター10、指示体20、発光装置30を備える。
 表示装置の一例であるプロジェクター10は、映像信号を供給する外部装置に接続され、外部装置から供給された映像信号が表す映像をスクリーンSCへ投写する。また、プロジェクター10は、投写された映像に対して指や指示体20で書き込みを行うインタラクティブ機能を備えている。本実施形態に係るプロジェクター10は、スクリーンSCの斜め上方に設置され、スクリーンSCに向けて映像を投写する。本実施形態においては、プロジェクター10は、スクリーンSCへ映像を投写するが、スクリーンSCの替わりに壁面(投写面)に映像を投写してもよい。また、本実施形態においては、プロジェクター10は、金具によって壁面に設置される構成となっているが、天井に設置してもよい。また、プロジェクター10は、壁面や天井に設置する構成に限定されず、テーブルの上に設置する据え置き型のものであってもよい。
 ペン型の指示体20は、プロジェクター10を操作するためのポインティングデバイスとして機能し、プロジェクター10が投写するGUI(Graphical User Interface)をユーザーが操作するときや、投写された画像へユーザーが書き込みを行うときなどに使用される。
 発光装置30は、光(本変形例では赤外光)を発する発光部を有する。発光装置30はスクリーンSCの上端より上に設置され、下向きに角度θの範囲に光を拡散させて出射する。発光装置30から出射された光は、スクリーンSCに沿う光の層を形成する。本実施形態では、角度θは、ほぼ180度に達し、スクリーンSCのほぼ全体に、光の層が形成される。スクリーンSCの表面と、発光装置30により形成される光の層とは近接していることが好ましい。発光装置30からの光の出射は、プロジェクター10により制御される。
 図2は、プロジェクター10及び指示体20のハードウェア構成を示した図である。指示体20は、制御部210、通信部220、発光部230、操作部240、電源250を有する。電源250は、例えば乾電池又は二次電池であり、制御部210、通信部220、発光部230及び操作部240へ電力を供給する。操作部240は、電源250から各部への電力供給を制御するスイッチ(図示略)を備えている。操作部240のスイッチがオンとなると、電源250から各部へ電力が供給され、操作部240のスイッチがオフとなると、電源250から各部へ電力の供給が停止される。発光部230は、赤外光を発する発光ダイオードを有しており、指示体20の先端に設けられている。発光部230の点灯及び消灯は、制御部210により制御される。発光部230は、点光源であり、発光部230が発する光は、指示体20の先端から球面上に広がる。通信部220は、赤外光を受光する受光素子を備えている。通信部220は、プロジェクター10から赤外光で送られる各種信号を受信する。通信部220は、受信した各種信号を電気信号に変換して制御部210へ供給する。制御部210は、発光部230及び通信部220に接続されている。制御部210は、通信部220から供給される信号に応じて発光部230の制御を開始し、発光部230の発光ダイオードの点灯及び消灯を制御する。制御部210及び発光部230は、指示体20を光らせる発光装置として機能する。
 プロジェクター10は、制御部110、記憶部120、操作部130、投写部140を備える。また、プロジェクター10は、映像処理部150、映像インターフェース160、撮像部170、通信部180を備える。制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備えたマイクロコンピューターである。ROMに記憶されているプログラムをCPUが実行すると、プロジェクター10においては、制御部110が各部を制御し、映像をスクリーンSCに投写する機能やインタラクティブ機能、指や指示体20をポインティングデバイスとして利用する機能などが実現する。
 また、プロジェクター10においては、制御部110に接続された発光装置30からの赤外光の出射を制御する機能や、映像を表示する矩形の投写領域を複数領域に分割し、外部装置から供給された映像信号の映像を分割された領域へ投写する画面分割機能、分割された領域の数や面積を変更する機能、分割された領域に投写する映像を交換する機能などの各種機能が実現する。
 映像インターフェース160は、RCA、D-Sub、HDMI(登録商標)、USBなど、映像信号が供給されるコネクターを複数有し、外部装置からコネクターに供給された映像信号を映像処理部150へ供給する。映像インターフェース160は、複数の映像信号を取得する映像取得部の一例である。映像インターフェース160は、無線LANやBluetooth(登録商標)などの無線通信のインターフェースを有し、無線通信により映像信号を取得してもよい。
 記憶部120は、投写する映像の画質に係る設定値や、各種機能の設定に係る情報を記憶する。また、記憶部120は、画面分割機能で分割された投写領域のそれぞれの領域と、各領域に投写する映像の映像信号との対応関係を格納した第1テーブルを記憶する。
 本実施形態では、画面分割機能を実行した場合、投写領域は、最大で第1領域から第4領域までの4つに分割される。このため、初期状態の第1テーブルにおいては、第1領域から第4領域について、図3に示したように、映像インターフェース160に供給される第1映像ソースS1が第1領域に対応付けられ、第2映像ソースS2が第2領域に対応付けられ、第3映像ソースS3が第3領域に対応付けられ、第4映像ソースS4が第4領域に対応付けられている。
 操作部130は、プロジェクター10を操作するための複数のボタンを備えている。操作されたボタンに応じて制御部110が各部を制御することにより、スクリーンSCに投写される映像の調整や、プロジェクター10が有する各種機能の設定などが行われる。また、操作部130は、リモートコントローラー(図示略)からの赤外光の信号を受光する受光部(図示略)を備えている。操作部130は、リモートコントローラーから送信された信号を電気信号に変換して制御部110へ供給し、制御部110は、供給される信号に応じて各部を制御する。
 投写部140と映像処理部150は協働し、画像を表示する表示部として機能する。
 映像処理部150は、映像インターフェース160から供給される映像信号を取得する。また、映像処理部150は、プロジェクター10を操作するためのGUIや指示体20が指し示す位置を表すカーソル、インタラクティブ機能で描画する画像などのオンスクリーン画像の信号を制御部110から取得する。映像処理部150は、各種の画像処理機能を備えており、映像インターフェース160から供給された映像信号に画像処理を施し、投写する映像の画質を調整する。映像処理部150は、制御部110からオンスクリーン画像の信号が供給された場合には、オンスクリーン画像の信号を重畳した映像信号を投写部140へ供給する。
 また、映像処理部150は、制御部110が画面分割機能を実行していると、投写領域を複数に分割し、外部装置から供給された映像信号の映像を分割された領域へ配置した映像信号を生成し、生成した映像信号を投写部140へ供給する。
 映像を投写する投写部140は、光源141、ライトバルブ142、駆動回路144及び投写光学系143を有している。光源141は、光を発するランプであり、光源141が発した光は、図示省略した複数のダイクロイックミラーやミラーによって赤、緑、青の光に分光され、分光された赤、緑、青のそれぞれの光はライトバルブ142に導かれる。なお、光源141は、ランプではなく、発光ダイオード又はレーザ光を発する半導体レーザ装置であってもよい。
 駆動回路144は、映像処理部150から供給される映像信号を取得する。駆動回路144に供給される映像信号は、投写する映像における赤の成分の階調を表す階調データ、投写する映像における緑の成分の階調を表す階調データ及び投写する映像における青の成分の階調を表す階調データを有する。駆動回路144は、赤、緑、青の各色の階調データを抽出し、抽出した各色の階調データに基づいてライトバルブ142を駆動する。
 ライトバルブ142は、前述の赤の光が入射する液晶ライトバルブ、前述の緑の光が入射する液晶ライトバルブ、及び前述の青の光が入射する液晶ライトバルブを有している。液晶ライトバルブは、透過型の液晶パネルであり、複数行複数列でマトリクス状に配置された画素を備えている。赤の光が入射する液晶ライトバルブは赤の階調データに基づいて駆動され、緑の光が入射する液晶ライトバルブは緑の階調データに基づいて駆動され、青の光が入射する液晶ライトバルブは青の階調データに基づいて駆動される。各液晶ライトバルブは、駆動回路144によって各画素が制御されて画素の透過率が変化する。画素の透過率が制御されることにより、液晶ライトバルブを透過した各色の光は、各階調データに対応した映像となる。液晶ライトバルブを透過した赤、緑、青の光の映像は、図示省略したダイクロイックプリズムにより合成されて投写光学系143に入射する。投写光学系143は、入射した映像を拡大する光学系であり、入射した映像をレンズやミラーによって拡大してスクリーンSCに投写する。
 撮像部170は、発光部230が発する赤外光や、発光装置30から出射されて指で反射した赤外光を受光する撮像素子(CMOSやCCDなど)、撮像素子に像を結像する光学系、撮像素子へ入射する光を制限する絞りなどを備えている。撮像部170は、スクリーンSCを含む範囲を撮像範囲とし、撮像した範囲の画像を生成し、生成した画像を表す画像信号を出力する。なお、本実施形態においては、プロジェクター10がスクリーンSCの斜め上方に設置されるため、撮像部170は、スクリーンSCを含む範囲を斜め上方から撮像することになる。通信部180は、赤外光を発する発光ダイオードを備えている。通信部180は、制御部110により、発光ダイオードの点灯及び消灯が制御され、発光部230の点灯及び消灯を制御する赤外光の信号を送信する。
 図4は、制御部110がプログラムを実行することにより実現する機能と、制御部210において実現する機能の構成を示した機能ブロック図である。まず、プロジェクター10の制御部110において実現する機能について説明する。
 距離取得部111は、撮像部170から投写面までの距離を取得する。具体的には、距離取得部111は、撮像部170から投写面までの距離を測定するためのパターン画像を映像処理部150を制御してスクリーンSCに投写する。パターン画像がスクリーンSCに投写されると、投写されたパターン画像を撮像部170に撮像させ、撮像されたパターン画像の大きさに基づいて投写面までの距離を取得する。なお、距離取得部111は、ユーザーがリモートコントローラーや操作部130を操作することによって入力した距離に係る情報を取得するようにしてもよい。ここで、距離取得部111が取得すべき情報は、距離そのものに限定されず、距離に係る情報(距離に対応する情報)であればよい。例えば、プロジェクター10がズーム機能を有しない場合には、撮像部170から投写面までの距離に応じて画面サイズが定まるため、距離に係る情報として、ユーザーに画面サイズを入力させるようにしてもよい。また、撮像部170から投写面までの距離については、距離センサーをプロジェクター10に設け、距離センサーの測定結果から、撮像部170から投写面までの距離を得てもよい。
 位置検知部112は、例えば図5に示したタイムチャートで、投写された画面上において指示体20や指示体の一例である指が指示した位置を特定する。指が指示した位置や指示体20が指示した位置を特定する期間は、図5に示したようにフェーズP11からフェーズP14までの4つのフェーズを有する。指が指示した位置や指示体20が指示した位置を検出する際には、フェーズP11からフェーズP14までが繰り返される。フェーズP11は、プロジェクター10が撮像部170で撮像を行うタイミングと、指示体20が発光するタイミングとを同期させるためのフェーズである。フェーズP11においては、位置検知部112は、所定期間te1で赤外光の同期信号が出力されるように通信部180を制御する。
 指示体20においては、通信部220が同期信号を受光し、同期信号を受光してから所定時間が経過すると、設定された期間te2で発光部230が点灯するように、制御部210が発光部230を制御する。本実施形態においては、フェーズP12、フェーズP13及びフェーズP14の開始時点から発光部230が点灯するように制御される。
 また、位置検知部112は、フェーズP12及びフェーズP14の開始時間から期間te2で発光装置30が赤外光を出射するように、発光装置30を制御する。
 位置検知部112は、フェーズP12~フェーズP14において、撮像部170を制御し、設定されているシャッタースピードでスクリーンSCを含む所定範囲を撮像する。撮像部170において電子シャッター機能により露光が行われる露光期間は、フェーズP12とフェーズP14の開始時点から始まり、露光が終了する時点は、設定されているシャッタースピードにより定まる。撮像部170がフェーズP12~フェーズP14の露光期間で撮像した画像の画像信号は、位置検知部112へ供給される。
 位置検知部112は、供給された画像信号が示す画像と、距離取得部111が得た距離を用いて、投写された画像上において指や指示体20が指示した位置を特定する。具体的には、第2フェーズP12と第4フェーズP14において、指がスクリーンSCに接している場合には、撮像部170で得られた画像に発光装置30から出射されて指で反射した赤外光が映る。また、第2フェーズP12と第4フェーズP14において、指示体20がスクリーンSCに接していると、撮像部170で得られた画像に指示体20が発した赤外光も映る。第3フェーズP13においては、発光装置30は光を出射しないため、撮像部170で得られた画像には、指示体20が発した赤外光が映る。
 位置検知部112は、第2フェーズP12と第4フェーズP14において撮像部170で得られた画像に映る赤外光のうち、第3フェーズP13において撮像部170で得られた画像に映る赤外光の位置に近い位置の赤外光を特定し、特定した赤外光の位置を指示体20の位置とする。また、位置検知部112は、第2フェーズP12と第4フェーズP14において撮像部170で得られた画像に映る赤外光のうち、第3フェーズP13において撮像部170で得られた画像に映る赤外光の位置から遠い位置の赤外光を特定し、特定した赤外光の位置を指の位置とする。この特定した位置は、指示体20をポインティングデバイスとして用いるときや各種機能を実行するときに使用される。
 操作検知部113は、撮像部170から供給される画像信号を解析し、画像信号が表す画像に映る赤外光に基づいて、ユーザーが投写面上で行った特定の操作を検知する。
 画面分割部114は、操作検知部113が特定の操作を検知した場合、位置検知部112が検知した位置に応じて投写領域を複数領域に分割し、複数領域のそれぞれに互いに異なる映像が表示されるように、映像処理部150を制御する。
 描画部115は、投写する映像内に位置検知部112が検知した位置に応じて描画を行う。但し、操作検知部113が検知した特定の操作が行われた位置については、描画部115は、位置検知部112が検知した位置に応じた描画を行わない。
 次に、指示体20の制御部210において実現する機能について説明する。信号取得部211は、通信部220が受信した同期信号を取得する。発光制御部212は、信号取得部211から同期信号を取得し、同期信号を取得してから所定時間が経過すると、フェーズP12及びフェーズP14において期間te2で発光部230が点灯するように、発光部230を制御する。
(実施形態の動作例)
 次に、本実施形態の動作例について、図6~図9を用いて説明する。なお、以下の説明においては、映像インターフェース160のD-Subコネクターに供給される映像信号を第1映像ソースS1、HDMIコネクターに供給される映像信号を第2映像ソースS2、USBコネクターに供給される映像信号を第3映像ソースS3、RCAコネクターに供給される映像信号を第4映像ソースS4として説明を行う。
(投写する画面を複数領域に分割し、外部装置から供給された映像信号の映像を分割された領域へ投写するときの動作例)
 図6は、投写領域を複数の領域に分割し、外部装置から供給された映像ソースの映像を、分割された領域へ投写する処理の流れを示したフローチャートである。制御部110は、予め定められた特定の操作が行われると、投写領域を分割する処理を行う。本実施形態においては、予め定められた特定の操作(第1操作)は、「投写面に二本の指で触れる→二本の指を投写面から離す→二本の指を再度投写面に接触させる→所定時間を超えて二本の指を投写面に接触させたままにする」という操作である。制御部110は、撮像部170から供給される画像信号を解析し、予め定められた特定の操作がユーザーにより行われたか判断する。
 具体的には、まず、プロジェクター10のユーザーが、投写面に二本の指(例えば親指と人差し指)で触れると、発光装置30から出射した赤外光が投写面に触れている二本の指で反射し、反射した光は撮像部170に入射する。制御部110は、撮像部170から供給される画像信号を解析し、撮像部170が撮像した画像において、指で反射した赤外光が二つ映っている場合、二本の指がスクリーンSCに接していると判断し、図6に示した処理を開始する。
 まず、制御部110は、二本の指がスクリーンSCに接していると判断してから所定時間内に、指で反射した赤外光が映っていない画像信号が撮像部170から供給されたか、即ち、二本の指が投写面に接してから所定時間内に二本の指が投写面から離れたか判断する(ステップSA1)。ここで制御部110は、二本の指がスクリーンSCに接していると判断してから所定時間内に、指で反射した赤外光が映っていない画像信号が撮像部170から供給された場合(ステップSA1でYES)、所定時間内に投写面から二本の指が離れたと判断する。
 次に制御部110は、ステップSA1でYESと判断してから所定時間内に、指で反射した赤外光が二つ映っている画像信号が撮像部170から供給されたか、即ち、所定時間内に再度投写面に二本の指が接したか判断する(ステップSA2)。ここで制御部110は、ステップSA1でYESと判断してから所定時間内撮影された画像において、指で反射した赤外光が二つ映っている場合(ステップSA2でYES)、所定時間内に再度投写面に二本の指が接したと判断する。
 制御部110は、ステップSA2でYESと判断した場合、投写面上における二本の指の位置を特定し、特定した位置に基づいて、投写領域を複数領域に分割するときの分割位置を決定する(ステップSA3)。ここで、制御部110は、二本の指の位置を結ぶ線分の中点の位置を特定し、特定した位置を分割位置Posとする。
 本実施形態においては、図7に示したように、分割しない状態の矩形の投写領域の幅をw、高さをhとし、投写領域の左上の頂点の座標を(0,0)とすると、右上の頂点の座標は(w,0)、左下の頂点の座標は(0,h)、右下の頂点の座標は(w,h)となる。制御部110は、特定した分割位置Posの座標に応じて、例えば、図8に示したように投写領域を分割する(ステップSA4)。
 本実施形態においては、分割位置Posの座標を(a、b)とした場合、例えば、分割位置Posの左右方向の座標が0<a<wであり、分割位置Posの上下方向の座標が0<b<hであると、図8の2行2列目に示したように、制御部110は、投写領域を4つに分割する。また、制御部110は、分割位置Posの左右方向の座標が0<a<wであり、分割位置Posの上下方向の座標がb=0又はb=hであると、図8の1行2列目や3行2列目に示したように、制御部110は、投写領域を2つに分割する。また、制御部110は、分割位置Posの上下方向の座標が0<b<hであり、分割位置Posの左右方向の座標がa=0又はa=wであると、図8の2行1列目や2行3列目に示したように、制御部110は、投写領域を2つに分割する。
 次に制御部110は、第1テーブルに格納されている情報に従って、分割された各領域内に、各領域に対応した映像ソースの映像が投写されるように、映像処理部150を制御する(ステップSA5)。例えば、制御部110は、図8の2行2列目に示したように、投写領域を4つに分割し、左上の領域を第1領域A1、右上の領域を第2領域A2、左下の領域を第3領域A3、右下の領域を第4領域A4とする。そして、制御部110は、第1テーブルが図3に示した状態である場合、第1テーブルに従って、第1領域A1に第1映像ソースS1の映像が投写され、第2領域A2に第2映像ソースS2の映像が投写され、第3領域A3に第3映像ソースS3の映像が投写され、第4領域A4に第4映像ソースS4の映像が投写されるように、映像処理部150を制御する。
 制御部110は、投写領域を分割した後、撮像部170が撮像した画像において、指で反射した赤外光が二つ映っているか、即ち、二本の指がスクリーンSCに接しているか判断する(ステップSA6)。制御部110は、撮影された画像において、指で反射した赤外光が映っていない場合、即ち、ユーザーの指が投写領域を分割した後に投写面から離れた場合、図6に示した処理を終了する。
 また、制御部110は、撮影された画像において、二本の指で反射された赤外光が映っている場合(ステップSA6でYES)、二本の指がスクリーンSCに接していると判断する。制御部110は、ステップSA6でYESと判断した場合、投写面上における二本の指の位置を特定し、特定した位置に基づいて、投写領域を複数領域に分割するときの最新の分割位置Posを決定する(ステップSA7)。ここで、制御部110は、二本の指が移動しており、新たに特定した分割位置Posが前回特定した位置と異なる場合、新たに特定した分割位置Posに応じて投写領域を分割する(ステップSA8)。そして制御部110は、第1テーブルに格納した情報に従って、分割した各領域内に映像が投写されるように映像処理部150を制御し(ステップSA9)、処理の流れをステップSA6へ戻す。
 例えば、制御部110は、分割位置Posの左右方向の座標が0<a<wであり、分割位置の上下方向の座標がb=0となった場合、図8の1行2列目に示したように、投写領域を左右方向で2つの領域に分割し、左側の領域を第3領域A3とし、右側の領域を第4領域A4とし、第3領域A3に第3映像ソースS3の映像が投写され、第4領域A4に第4映像ソースS4の映像が投写されるように、映像処理部150を制御する。
 また、制御部110は、分割位置Posの左右方向の座標が0<a<wであり、分割位置Posの上下方向の座標がb=hとなった場合、図8の3行2列目に示したように、投写領域を左右方向で2つの領域に分割し、左側の領域を第1領域A1とし、右側の領域を第2領域A2とし、第1領域A1に第1映像ソースS1の映像が投写され、第2領域A2に第2映像ソースS2の映像が投写されるように、映像処理部150を制御する。
 また、制御部110は、分割位置Posの左右方向の座標がa=0であり、分割位置Posの上下方向の座標が0<b<hとなった場合、図8の2行1列目に示したように、投写領域を上下方向で2つの領域に分割し、上側の領域を第2領域A2とし、下側の領域を第4領域A4とし、第2領域A2に第2映像ソースS2の映像が投写され、第4領域A4に第4映像ソースS4の映像が投写されるように、映像処理部150を制御する。
 また、制御部110は、分割位置Posの左右方向の座標がa=wであり、分割位置Posの上下方向の座標が0<b<hとなった場合、図8の2行3列目に示したように、投写領域を上下方向で2つの領域に分割し、上側の領域を第1領域A1とし、下側の領域を第3領域A3とし、第1領域A1に第1映像ソースS1の映像が投写され、第3領域A3に第3映像ソースS3の映像が投写されるように、映像処理部150を制御する。
 また、制御部110は、分割位置Posの座標が投写領域の頂点の座標となった場合、投写する映像を、第1テーブルと分割位置Posの座標に応じて選択し、選択した映像を投写する。例えば、制御部110は、分割位置Posの左右方向の座標がa=0であり、上下方向の座標がb=0である場合、投写領域を第4領域A4とし、図8の1行1列目に示したように、投写領域に第4映像ソースS4の映像が投写されるように、映像処理部150を制御する。また、制御部110は、分割位置Posの左右方向の座標がa=wであり、上下方向の座標がb=0である場合、投写領域を第3領域A3とし、図8の1行3列目に示したように、投写領域に第3映像ソースS3の映像の映像が投写されるように、映像処理部150を制御する。また、制御部110は、分割位置Posの左右方向の座標がa=0であり、上下方向の座標がb=hである場合、投写領域を第2領域A2とし、図8の3行1列目に示したように、投写領域に第2映像ソースS2の映像の映像が投写されるように、映像処理部150を制御する。また、制御部110は、分割位置Posの左右方向の座標がa=wであり、上下方向の座標がb=hである場合、投写領域を第1領域A1とし、図8の3行3列目に示したように、投写領域に第1映像ソースS1の映像の映像が投写されるように、映像処理部150を制御する。
 以上説明したように本実施形態によれば、操作部130やリモートコントローラーを操作しなくとも、投写領域を複数領域に分割し、複数の映像を投写することができる。
(分割された領域に投写されている映像を交換するときの動作例)
 図9は、分割された領域に投写されている映像を交換する処理の流れを示したフローチャートである。制御部110は、投写領域が分割されている状態において、予め定められた特定の操作が行われると、2つの領域に投写されている映像を交換する処理を行う。本実施形態においては、分割された領域に投写されている映像を交換する処理を開始する契機となる特定の操作(第3操作)は、「投写面に三本の指で触れる→三本の指を投写面から離す→三本の指を再度投写面に接触させる→所定時間を超えて三本の指を投写面に接触させたままにする」という操作である。制御部110は、撮像部170から供給される画像信号を解析し、予め定められた特定の操作がユーザーの指により行われたか判断する。
 具体的には、まず、プロジェクター10のユーザーが、投写面に三本の指(例えば親指、人差し指及び中指)で触れると、発光装置30から出射した赤外光が投写面に触れている三本の指で反射し、三本の指で反射した光は、撮像部170に入射する。制御部110は、撮像部170から供給される画像信号を解析し、撮像部170が撮像した画像において、指で反射した赤外光が三つ映っている場合、三本の指がスクリーンSCに接していると判断し、図9に示した処理を開始する。
 まず、制御部110は、撮影された画像において、三本の指がスクリーンSCに接していると判断してから所定時間内に、指で反射した赤外光が映っていない画像信号が撮像部170から供給されたか、即ち、三本の指が投写面に接してから所定時間内に三本の指が投写面から離れたか判断する(ステップSB1)。ここで制御部110は、三本の指がスクリーンSCに接していると判断してから所定時間内に、指で反射した赤外光が映っていない画像信号が撮像部170から供給された場合(ステップSB1でYES)、所定時間内に投写面から三本の指が離れたと判断する。
 次に制御部110は、ステップSB1でYESと判断してから所定時間内に、指で反射した赤外光が三つ映っている画像信号が撮像部170から供給されたか、即ち、所定時間内に再度投写面に三本の指が接したか判断する(ステップSB2)。ここで制御部110は、ステップSB1でYESと判断してから所定時間内撮影された画像において、指で反射した赤外光が三つ映っている場合(ステップSB2でYES)、所定時間内に再度投写面に三本の指が接したと判断する。
 制御部110は、ステップSB2でYESと判断した場合、投写面上における三本の指の位置を特定し、特定した三つの位置のうちの一つの座標を第1座標としてRAMに記憶させる(ステップSB3)。なお、本実施形態では、三本の指の位置のうち、最も上にある指の位置の座標を第1座標とするが、最も下にある指の位置の座標を第1座標としてもよい。また、三本の指の位置のうち、左右方向で原点に最も近い指の位置を第1座標としてもよく、また、三本の指の位置のうち、左右方向で原点に最も遠い指の位置を第1座標としてもよい。
 制御部110は、第1座標を記憶した後、撮像部170から供給される画像信号を解析し、三本の指が投写面に接しているか判断する(ステップSB4)。制御部110は、撮像部170から供給された画像信号が表す画像において、三か所に赤外光が映っている場合、即ち、ユーザーの指が投写面から離れていない場合、制御部110は、三本の指の位置を特定し、特定した三つの位置のうちの一つの座標を第2座標としてRAMに記憶させる(ステップSB5)。次に制御部110は、処理の流れをステップSB4へ戻し、ユーザーの三本の指が接している間は、三本の指のうち最も上にある指の位置を特定し、特定した位置の座標で第2座標を更新する。
 制御部110は、撮像部170から供給された画像信号が表す画像において、赤外光が映っていない場合、即ち、ユーザーの三本の指が投写面から離れた場合(ステップSB4でNO)、RAMに記憶されている第1座標と第2座標に基づいて、分割されている領域に投写されている映像を交換する(ステップSB6)。
 具体的には、制御部110は、記憶した第1座標を含む第1の交換領域と記憶した第2座標を含む第2の交換領域を特定する。
 例えば、投写領域が4つに分割されているときの分割位置の座標を(a、b)とし、第1座標を(c、d)とすると、制御部110は、c<aであり、d<bである場合、第1領域A1を第1の交換領域として特定し、c≧aであり、d<bである場合、第2領域A2を第1の交換領域として特定し、c<aであり、d≧bである場合、第3領域A3を第1の交換領域として特定し、c≧aであり、d≧bである場合、第4領域A4を第1の交換領域として特定する。
 また、投写領域が4つに分割されているときの分割位置の座標を(a、b)とし、第2座標を(e、f)とすると、制御部110は、e<aであり、f<bである場合、第1領域A1を第2の交換領域として特定し、e≧aであり、f<bである場合、第2領域A2を第2の交換領域として特定し、e<aであり、f≧bである場合、第3領域A3を第2の交換領域として特定し、e≧aであり、f≧bである場合、第4領域A4を第2の交換領域として特定する。
 また、制御部110は、投写領域が2つに分割されているときの分割位置の座標を(a、b)とし、第1座標を(c、d)とすると、0<a<wであってb=0であると、c<aの場合には、第3領域A3を第1の交換領域として特定し、c≧aの場合には、第4領域A4を第1の交換領域として特定する。また、制御部110は、投写領域が2つに分割されているときの分割位置の座標を(a、b)とし、第2座標を(e、f)とすると、0<e<wであってb=0であると、e<aの場合には、第3領域A3を第2の交換領域として特定し、e≧aの場合には、第4領域A4を第2の交換領域として特定する。
 また、制御部110は、投写領域が2つに分割されているときの分割位置の座標を(a、b)とし、第1座標を(c、d)とすると、0<a<wであってb=hであると、c<aである場合、第1領域A1を第1の交換領域として特定し、c≧aである場合、第2領域A2を第1の交換領域として特定する。また、制御部110は、投写領域が2つに分割されているときの分割位置の座標を(a、b)とし、第2座標を(e、f)とすると、0<e<wであってb=hであると、e<aの場合には、第1領域A1を第2の交換領域として特定し、e≧aの場合には、第2領域A2を第2の交換領域として特定する。
 また、制御部110は、投写領域が2つに分割されているときの分割位置の座標を(a、b)とし、第1座標を(c、d)とすると、0<b<hであってa=0であると、d<bの場合には、第2領域A2を第1の交換領域として特定し、d≧bの場合には、第4領域A4を第1の交換領域として特定する。また、制御部110は、投写領域が2つに分割されているときの分割位置の座標を(a、b)とし、第2座標を(e、f)とすると、0<f<hであってa=0であると、f<bの場合には、第2領域A2を第2の交換領域として特定し、f≧bの場合には、第4領域A4を第2の交換領域として特定する。
 また、制御部110は、投写領域が2つに分割されているときの分割位置の座標を(a、b)とし、第1座標を(c、d)とすると、0<b<hであってa=wであると、d<bである場合、第1領域A1を第1の交換領域として特定し、d≧bである場合、第3領域A3を第1の交換領域として特定する。また、制御部110は、投写領域が2つに分割されているときの分割位置の座標を(a、b)とし、第2座標を(e、f)とすると、0<f<hであってa=wであると、f<bの場合には、第1領域A1を第2の交換領域として特定し、f≧bの場合には、第3領域A3を第2の交換領域として特定する。
 制御部110は、第1の交換領域と第2の交換領域が同じである場合、分割された領域に投写されている映像を交換せず、図9に示した処理を終了する。制御部110は、第1の交換領域と第2の交換領域とが異なる場合、第1の交換領域に投写されている映像の映像ソースと、第2の交換領域に投写されている映像の映像ソースとを交換する。
 例えば、投写領域が4つに分割されており、第1の交換領域が第1領域A1であり、第2の交換領域が第4領域A4である場合、制御部110は、第1テーブルにおいて第1領域に対応付けられている映像ソースと、第1テーブルにおいて第4領域に対応付けられている映像ソースとを交換する。これにより、第1テーブルにおいては、第1領域に第4映像ソースS4が対応付けられ、第4領域に第1映像ソースS1が対応付けられる。制御部110は、更新された第1テーブルに格納されている情報に従って、左上の第1領域A1に第4映像ソースS4が投写され、右上の第2領域に第2映像ソースS2が投写され、左下の第3領域に第3映像ソースS3が投写され、右下の第4領域A4に第1映像ソースS1が投写されるように、映像処理部150を制御する。
 以上説明したように、本実施形態によれば、操作部130やリモートコントローラーを操作しなくとも、複数の投写領域に投写されている映像を交換することができる。
[変形例]
 以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した各実施形態及び以下の変形例は、一つ又は複数を適宜組み合わせて実施してもよい。
 上述した実施形態においては、映像インターフェース160のコネクターに供給される映像ソースの有無を検知し、画面の分割数を映像インターフェース160のコネクターに供給される映像ソースの有無に応じた数としてもよい。
 例えば、4つのコネクターのうち映像ソースが供給されているコネクターが2つあり、映像ソースが供給されていないコネクターが2つある場合、分割位置Posの左右方向の座標が0<a<wであり、分割位置Posの上下方向の座標が0<b<hであっても、投写領域を上下又は左右の2つに分割し、分割された領域に、コネクターに供給されている映像ソースの映像を投写するようにしてもよい。
 また、4つのコネクターのうち映像ソースが供給されているコネクターが3つあり、映像ソースが供給されていないコネクターが1つある場合、分割位置Posの左右方向の座標が0<a<wであり、分割位置Posの上下方向の座標が0<b<hの場合、投写領域を3つに分割し、分割された領域に、コネクターに供給されている映像ソースの映像を投写するようにしてもよい。投写領域を3つに分割する場合、例えば、図10の(a)~(d)のいずれかの状態に分割するようにしてもよい。
 上述した実施形態においては、投写領域が分割されており、投写面から指が離れている状態において、「投写面に二本の指で触れる→二本の指を投写面から離す→二本の指を再度投写面に接触させる」という操作(第2操作)が行われると、制御部110は、図6のフローチャートのステップSA6へ処理の流れを移すようにしてもよい。この構成によれば、投写面が分割されている状態で「投写面に二本の指で触れる→二本の指を投写面から離す→二本の指を再度投写面に接触させる」という操作が行われ、二本の指を投写面に接触させたまま移動させると、分割位置Posが変更される。
 上述した実施形態において、第1操作、第2操作及び第3操作は、実施形態に例示した操作以外の操作であっても良い。
 上述した実施形態においては、投写領域を分割する契機となる操作は、指による操作となっているが、投写領域を分割する契機となる操作は、指による操作に限定されるものではなく、例えば、指示体20による操作であってもよい。
 例えば、指示体20の位置に応じて画面に描画を行う機能を実行していない状態において、「投写面に指示体20で触れる→指示体20を投写面から離す→指示体20を再度投写面に接触させる→所定時間を超えて指示体20を投写面に接触させたままにする」という操作が行われると、制御部110は、指示体20が接している位置に基づいて投写領域を分割するようにしてもよい。
 また、指示体20に位置に応じて画面に描画を行う機能を実行していない状態において、指示体20を投写面に接触させたまま螺旋状に指示体20を動かすと、指示体20が接している位置に基づいて投写領域を分割するようにしてもよく、また、螺旋状に限定されず、投写面上において特定の文字や記号を書くように指示体20を動かすと、指示体20が接している位置に基づいて投写領域を分割するようにしてもよい。
 また、指示体20にボタンを設け、ボタンが押されていると、指示体20からプロジェクター10へボタンが押されていることを表す信号を無線通信で送信し、プロジェクター10は、この信号を受信すると、投写面上における指示体20の位置を検知し、検知した位置に基づいて投写領域を分割してもよい。
 また、分割された領域に投写されている映像を交換する処理を実行する契機となる動作についても、指による操作に限定されるものではなく、指示体20による操作であってもよい。
 上述した実施形態では、映像を表示する装置は、画像を投写するプロジェクター10となっているが、液晶テレビや液晶モニターなど、直視型の表示装置であってもよい。
 1…表示システム、10…プロジェクター、20…指示体、30…発光装置、110…制御部、111…距離取得部、112…位置検知部、113…操作検知部、114…画面分割部、115…描画部、120…記憶部、130…操作部、140…投写部、150…映像処理部、160…映像インターフェース、170…撮像部、180…通信部、210…制御部、211…信号取得部、212…発光制御部、220…通信部、230…発光部、240…操作部、250…電源、SC…スクリーン、Pos…分割位置、S1…第1映像ソース、S2…第2映像ソース、S3…第3映像ソース、S4…第4映像ソース。

Claims (8)

  1.  複数の映像信号を取得する映像取得部と、
     前記映像取得部が取得した映像信号が表す映像を表示する表示部と、
     前記表示部で表示された画面上で指示体が指示した位置を検知する位置検知部と、
     前記位置検知部が検知した位置に応じて前記画面内に描画を行う描画部と、
     前記画面上で前記指示体によって行われた操作を検知する操作検知部と、
     前記操作検知部により第1操作が検知された場合、前記表示部が表示する画面を前記位置検知部が検出した位置に応じて複数領域に分割し、当該複数領域が互いに異なる映像を表示するように、各領域へ前記映像取得部が取得した映像信号が表す映像を割り振る画面分割部と
     を備える表示装置。
  2.  前記画面分割部は、前記画面が分割されている状態において前記操作検知部が第2操作を検知した後に、前記位置検知部が検知した位置が変化した場合、変化後の位置に追従して前記複数領域の大きさを変更する
     請求項1に記載の表示装置。
  3.  前記第1操作及び前記第2操作の少なくとも一方は、前記指示体を前記画面へ複数回接触させる操作である
     請求項2に記載の表示装置。
  4.  前記画面分割部は、前記位置検知部が検知した位置に応じて前記複数領域の数を決定する
     請求項1から請求項3のいずれか一項に記載の表示装置。
  5.  前記画面分割部は、前記映像取得部が取得した映像信号の数に応じて、前記複数領域の数を決定する
     請求項1から請求項4のいずれか一項に記載の表示装置。
  6.  前記画面が分割されている状態において前記操作検知部が第3操作を検知した場合、前記画面分割部は、前記指示体が指示した第1位置に表示されている映像と、前記指示体が指示した第2位置に表示されている映像とを入れ替える
     請求項1から請求項5のいずれか一項に記載の表示装置。
  7.  前記描画部は、前記操作検知部により検知された操作については、前記指示体の位置に応じた描画を行わない
     請求項1から請求項6のいずれか一項に記載の表示装置。
  8.  表示部で表示された画面上で指示体が指示した位置を検知する位置検知ステップと、
     前記位置検知ステップで検知した位置に応じて前記画面内に描画を行う描画ステップと、
     前記画面上で前記指示体によって行われた操作を検知する操作検知ステップと、
     前記操作検知ステップで第1操作が検知された場合、前記表示部が表示する画面を前記位置検知ステップで検出した位置に応じて複数領域に分割し、当該複数領域が互いに異なる映像を表示するように、各領域へ映像取得部が取得した複数の映像信号が表す映像を割り振る画面分割ステップと
     を備える表示制御方法。
PCT/JP2016/000785 2015-03-04 2016-02-16 表示装置及び表示制御方法 WO2016139902A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/555,032 US20180039407A1 (en) 2015-03-04 2016-02-16 Display device and display control method
CN201680012712.2A CN107430838A (zh) 2015-03-04 2016-02-16 显示装置和显示控制方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015042684A JP2016161869A (ja) 2015-03-04 2015-03-04 表示装置及び表示制御方法
JP2015-042684 2015-03-04

Publications (1)

Publication Number Publication Date
WO2016139902A1 true WO2016139902A1 (ja) 2016-09-09

Family

ID=56845152

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/000785 WO2016139902A1 (ja) 2015-03-04 2016-02-16 表示装置及び表示制御方法

Country Status (4)

Country Link
US (1) US20180039407A1 (ja)
JP (1) JP2016161869A (ja)
CN (1) CN107430838A (ja)
WO (1) WO2016139902A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110780799B (zh) * 2019-10-21 2021-04-30 湖南新云网科技有限公司 一种信息显示控制方法、装置及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250465A (ja) * 2009-04-14 2010-11-04 Sony Corp 情報処理装置、情報処理方法及びプログラム
WO2011013400A1 (ja) * 2009-07-30 2011-02-03 シャープ株式会社 携帯型表示装置およびその制御方法、プログラム、記録媒体
JP2012194915A (ja) * 2011-03-17 2012-10-11 Seiko Epson Corp 画像表示システム
WO2013051052A1 (ja) * 2011-10-03 2013-04-11 古野電気株式会社 情報表示装置、情報表示方法及び情報表示プログラム
JP2013535724A (ja) * 2010-07-16 2013-09-12 クアルコム,インコーポレイテッド 投影されたユーザインターフェースと対話するための方法およびシステム
JP2013257686A (ja) * 2012-06-12 2013-12-26 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム
JP2014132427A (ja) * 2013-01-07 2014-07-17 Sony Corp 情報処理装置及び情報処理方法、並びにコンピューター・プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100939501B1 (ko) * 2007-02-20 2010-01-29 재단법인대구경북과학기술원 2개의 투사형 영상을 제공하는 멀티미디어 재생 장치
US8750439B2 (en) * 2008-12-31 2014-06-10 St-Ericsson Sa Process and receiver for interference cancellation of interfering base stations in a synchronized OFDM system
JP5673191B2 (ja) * 2011-02-21 2015-02-18 セイコーエプソン株式会社 インタラクティブシステム、位置情報変換方法、およびプロジェクター
US9315479B2 (en) * 2012-07-13 2016-04-19 Basf Se Process for preparing pyrrolidine
JP2014127184A (ja) * 2012-12-27 2014-07-07 Toshiba Corp 情報処理装置および表示制御方法
CN105493020B (zh) * 2013-12-05 2020-02-21 华为终端有限公司 触摸屏显示控制的方法及移动设备
KR102297330B1 (ko) * 2015-01-16 2021-09-02 삼성전자주식회사 화면 제어 방법 및 그 방법을 처리하는 전자 장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250465A (ja) * 2009-04-14 2010-11-04 Sony Corp 情報処理装置、情報処理方法及びプログラム
WO2011013400A1 (ja) * 2009-07-30 2011-02-03 シャープ株式会社 携帯型表示装置およびその制御方法、プログラム、記録媒体
JP2013535724A (ja) * 2010-07-16 2013-09-12 クアルコム,インコーポレイテッド 投影されたユーザインターフェースと対話するための方法およびシステム
JP2012194915A (ja) * 2011-03-17 2012-10-11 Seiko Epson Corp 画像表示システム
WO2013051052A1 (ja) * 2011-10-03 2013-04-11 古野電気株式会社 情報表示装置、情報表示方法及び情報表示プログラム
JP2013257686A (ja) * 2012-06-12 2013-12-26 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム
JP2014132427A (ja) * 2013-01-07 2014-07-17 Sony Corp 情報処理装置及び情報処理方法、並びにコンピューター・プログラム

Also Published As

Publication number Publication date
JP2016161869A (ja) 2016-09-05
US20180039407A1 (en) 2018-02-08
CN107430838A (zh) 2017-12-01

Similar Documents

Publication Publication Date Title
US10416813B2 (en) Display system, display device, information processing device, and information processing method
US9753580B2 (en) Position detecting device, position detecting system, and controlling method of position detecting device
CN103197778A (zh) 显示装置、投影仪、显示系统以及设备的切换方法
CN103279313A (zh) 显示装置以及显示控制方法
CN103870233A (zh) 显示装置及其控制方法
US20190124309A1 (en) Projector and method for controlling projector
EP2916201B1 (en) Position detecting device and position detecting method
US20150279336A1 (en) Bidirectional display method and bidirectional display device
WO2016139902A1 (ja) 表示装置及び表示制御方法
JP6665415B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP2017169086A (ja) 表示装置、表示装置の制御方法及びプログラム
JP6750268B2 (ja) 表示装置及び表示装置の制御方法
JP6728849B2 (ja) 表示装置及び表示装置の制御方法
JP2016105541A (ja) プロジェクター及びプロジェクターの制御方法
US11276372B2 (en) Method of operation of display device and display device
CN107018393B (zh) 投影仪和投影仪的控制方法
JP6415176B2 (ja) 投射型表示装置
US9787961B2 (en) Projector and method for controlling projector
JP2017068001A (ja) 表示装置及び表示装置の制御方法
JP2016105222A (ja) プロジェクターシステム、発光装置及びプロジェクターシステムの制御方法
US11016629B2 (en) Display device, method for controlling display device, and display system
JP2016151924A (ja) プロジェクター及びプロジェクターの制御方法
JP6707945B2 (ja) 表示装置及び表示装置の制御方法
JP2017152765A (ja) プロジェクター及びプロジェクターの制御方法
US20200145628A1 (en) Projection apparatus and correcting method of display image

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16758602

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15555032

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16758602

Country of ref document: EP

Kind code of ref document: A1