WO2010047256A1 - 撮像装置、表示撮像装置および電子機器 - Google Patents

撮像装置、表示撮像装置および電子機器 Download PDF

Info

Publication number
WO2010047256A1
WO2010047256A1 PCT/JP2009/067784 JP2009067784W WO2010047256A1 WO 2010047256 A1 WO2010047256 A1 WO 2010047256A1 JP 2009067784 W JP2009067784 W JP 2009067784W WO 2010047256 A1 WO2010047256 A1 WO 2010047256A1
Authority
WO
WIPO (PCT)
Prior art keywords
light receiving
image
light
receiving element
display
Prior art date
Application number
PCT/JP2009/067784
Other languages
English (en)
French (fr)
Inventor
勉 原田
靖幸 松井
高間 大輔
山中 剛
仲島 義晴
水橋 比呂志
大森 英幸
津崎 亮一
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US12/809,810 priority Critical patent/US8514201B2/en
Priority to CN2009801014386A priority patent/CN101903853B/zh
Priority to BRPI0906069-3A priority patent/BRPI0906069A2/pt
Priority to JP2010534775A priority patent/JP5300859B2/ja
Priority to EP09821953.8A priority patent/EP2343633A4/en
Publication of WO2010047256A1 publication Critical patent/WO2010047256A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means

Definitions

  • the present invention relates to an imaging device and a display imaging device that acquire information such as the position of an object in contact with or close to a panel, and an electronic apparatus equipped with such a display imaging device.
  • touch panels Although there are various types of touch panels, ones that are widely used include those that detect capacitance. This type is adapted to detect a change in surface charge of the panel by touching the touch panel with a finger to detect the position of an object or the like. Therefore, the user can operate intuitively by using such a touch panel.
  • the present applicant also has a display unit (display imaging panel) having a display function for displaying an image and an imaging function (detection function) for imaging (detecting) an object in, for example, Patent Document 1 and Patent Document 2.
  • a display device is proposed.
  • Patent Document 1 When the display device described in Patent Document 1 is used, for example, when an object such as a finger is brought into contact with or in proximity to a display and imaging panel, reflected light by the irradiation light from the display and imaging panel reflected by the object It is also possible to detect the position or the like of an object based on a captured image by using Therefore, by using this display device, it is possible to detect the position or the like of the object with a simple configuration without separately providing a component such as a touch panel on the display imaging panel.
  • Patent Document 2 the difference between the image obtained in the light emission state (image obtained using the reflected light by the irradiation light) and the image obtained in the light off state is the above-described outside It is made to remove the influence by light and fixed noise. It is considered that this makes it possible to detect the position of an object or the like without being affected by external light or fixed noise.
  • the present invention has been made in view of such problems, and an object thereof is an imaging device capable of stably detecting an object regardless of the use situation, a display-imaging device, a method of detecting an object, and the like It is an object of the present invention to provide an electronic device provided with a display and imaging apparatus.
  • An imaging device includes an imaging panel including a plurality of first and second light receiving elements, and an irradiation light source emitting light including detection light of a predetermined wavelength range for detecting a proximity object. And an image processing unit that performs image processing on a signal obtained by capturing an adjacent object by the imaging panel and acquires object information including at least one of the position, shape, or size of the adjacent object.
  • the first light receiving element includes the wavelength range of the detection light in the light receiving wavelength range.
  • the light receiving sensitivity in the wavelength region of the detection light is lower than that of the first light receiving element.
  • the image processing unit processes the signals obtained from the first and second light receiving elements to acquire object information.
  • a display and imaging device includes a plurality of display elements and a plurality of first and second light receiving elements, and includes detection light of a predetermined wavelength range for detecting a proximity object.
  • a display imaging panel that emits light; and an image processing unit that performs image processing on a signal obtained by imaging a proximity object by the display imaging panel, and acquires object information including at least one of position, shape, or size of the proximity object.
  • the first light receiving element includes the wavelength range of the detection light in the light receiving wavelength range.
  • the light receiving sensitivity in the wavelength region of the detection light is lower than that of the first light receiving element.
  • the image processing unit processes the signals obtained from the first and second light receiving elements to acquire object information.
  • An electric device includes the display and imaging device having an image display function and an imaging function.
  • the signal obtained by imaging the proximity object by the imaging panel is subjected to image processing to obtain object information of the proximity object.
  • object information is obtained using a composite image based on a captured image obtained by the first light receiving element and a captured image obtained by the second light receiving element.
  • the first light receiving element includes the wavelength region of the detection light as the light receiving wavelength region, for example, when the proximity object is moving on the imaging panel (or the display imaging panel), the first light reception is performed.
  • a false signal may occur in addition to the detection signal of the close object.
  • the light receiving sensitivity in the wavelength region of the detection light is lower than that of the first light receiving element. Therefore, in the captured image obtained by the second light receiving element, the first light receiving element As in the case of the light receiving element, a false signal may be generated while the generation of a detection signal of a close object is suppressed. Therefore, the object information is acquired using the composite image based on the captured image obtained by the first light receiving element and the captured image obtained by the second light receiving element, whereby the close object is the image pickup panel (or display image pickup) Even when moving on the panel), the generation of false signals in the composite image is suppressed.
  • the light receiving wavelength region of the detection light for detecting a close object is included in the imaging panel (or display imaging panel).
  • a plurality of first light receiving elements, and a plurality of second light receiving elements whose light receiving sensitivity in the wavelength region of the detection light is lower than that of the first light receiving element are provided. Since the signal obtained from the element is processed to acquire the object information of the close object, for example, even if the close object is moving on the imaging panel (or the display imaging panel), the false signal The occurrence can be suppressed. Therefore, it becomes possible to detect an object stably irrespective of a use condition.
  • FIG. 6 is a timing chart for explaining the relationship between the on / off state of the backlight and the display state. It is a flow chart showing difference image fingertip extraction processing.
  • FIG. 9 is a timing chart for explaining the differential image extraction process shown in FIG. 8;
  • FIG. 6 is a photograph configuration diagram for describing differential image fingertip extraction processing. It is a figure for demonstrating the difference image fingertip extraction process in case external light is bright. It is a figure for demonstrating the difference image fingertip extraction process in case external light is dark. It is a figure for demonstrating the dynamic range of the light reception signal by the difference image finger tip extraction process. It is a photograph block diagram for explaining a difference image fingertip extraction process in a case where a plurality of fingertips to be detected are simultaneously present.
  • FIG. 21 is a perspective view illustrating an appearance of application example 3; 21 is a perspective view illustrating an appearance of application example 4.
  • FIG. (A) is a front view of the open state of application example 5, (B) is a side view thereof, (C) is a front view of a closed state, (D) is a left side view, (E) is a right side view, (F) is a top view, (G) is a bottom view.
  • FIG. 37 is a circuit diagram illustrating a configuration example of each pixel in the display and imaging device illustrated in FIG. 36. It is a figure for demonstrating the difference image fingertip extraction process in the display imaging device shown to FIG. 36 and FIG.
  • FIG. 1 shows the entire configuration of a display-and-image-pickup apparatus according to an embodiment of the present invention.
  • the display and imaging apparatus includes an I / O display panel 20, a backlight 15, a display drive circuit 12, a light reception drive circuit 13, an image processing unit 14, and an application program execution unit 11.
  • the I / O display panel 20 is configured of a liquid crystal panel (LCD; Liquid Crystal Display) in which a plurality of pixels are arranged in a matrix over the entire surface.
  • the I / O display panel 20 has a function (display function) for displaying an image such as a predetermined figure or character based on display data, and an object which contacts or approaches the I / O display panel 20 as described later It has a function (imaging function) for imaging a proximity object).
  • the backlight 15 is, for example, a light source for displaying and detecting the I / O display panel 20, in which a plurality of light emitting diodes are disposed. The backlight 15 performs on / off operation at high speed at predetermined timing synchronized with the operation timing of the I / O display panel 20 as described later.
  • the display drive circuit 12 drives the I / O display panel 20 so that an image based on display data is displayed on the I / O display panel 20 (to perform a display operation) (line sequential display operation). Drive) circuit.
  • the light reception drive circuit 13 (image generation unit) drives the I / O display panel 20 so that a light reception signal (imaging signal) can be obtained from each pixel of the I / O display panel 20 (so as to pick up an object). (A line-sequential imaging operation is driven).
  • the light receiving drive circuit 13 is configured to generate a composite image to be described later by performing predetermined image processing (image generation processing) on the light receiving signal from each pixel.
  • the generated composite image is stored, for example, in frame units in the frame memory 13A, and is output to the image processing unit 14 as a captured image. The details of such image generation processing will be described later.
  • the image processing unit 14 performs predetermined image processing (arithmetic processing) based on the captured image (composite image) output from the light receiving drive circuit 13, and detects object information (position coordinate data, shape and size of the object) related to the proximity object. Data, etc.) is detected and acquired. The details of the processing to be detected will be described later.
  • the application program execution unit 11 executes processing according to predetermined application software based on the detection result of the image processing unit 14. As such processing, for example, there is one in which position coordinates of a detected object are included in display data and displayed on the I / O display panel 20. The display data generated by the application program execution unit 11 is supplied to the display drive circuit 12.
  • the I / O display panel 20 has a display area (sensor area) 21, a display H driver 22, a display V driver 23, a sensor readout H driver 25, and a sensor V driver 24. There is.
  • the display area 21 is an area for modulating light from the backlight 15 to emit irradiation light and for imaging an object near this area.
  • the irradiation light includes display light and detection light (infrared light or the like) for detecting a proximity object by, for example, an infrared light source or the like (not shown) (the same applies to the following).
  • liquid crystal elements as light emitting elements (display elements) and light receiving sensors (main sensors 32 and auxiliary sensors 33 described later) as light receiving elements (imaging elements) are arranged in a matrix. .
  • the display H driver 22 sequentially drives the liquid crystal elements of the respective pixels in the display area 21 together with the display V driver 23 on the basis of the display drive signal and control clock supplied from the display drive circuit 12. It is.
  • the sensor readout H driver 25 line-sequentially drives the light receiving elements of the respective pixels in the sensor area 21 together with the sensor V driver 24 to acquire a light reception signal.
  • the pixel 31 is configured of a display pixel (display unit) 31 RGB including a liquid crystal element, and an imaging pixel (light receiving unit).
  • the display pixel 31RGB is configured of a display pixel 31R for red (R), a display pixel 31G for green (G), and a display pixel 31B for blue (B).
  • two types of light receiving sensors that is, a main sensor 32 (first light receiving element) and an auxiliary sensor 33 (second light receiving element) are disposed.
  • one light receiving sensor is arranged for one display pixel 31RGB in FIG. 3, one light receiving sensor may be arranged for a plurality of display pixels 31RGB.
  • the main sensor 32 and the auxiliary sensor 33 be alternately arranged at a ratio of one to one on the display area 21.
  • the number of auxiliary sensors 33 may be smaller than the number of main sensors 32. In this case, since it is necessary to perform interpolation processing on the light reception signal by the auxiliary sensor 33, the processing becomes complicated, and it is necessary to take into consideration whether the omission of detection causes a problem depending on the type of signal and application.
  • the display pixel 31RGB is not shown for convenience of description.
  • FIG. 6 shows an example of the relationship between the light emission wavelength region of the light source for detection (FIG. 6A) and the detection wavelength regions of the main sensor 32 and the auxiliary sensor 33 (FIGS. 6B and 6C). It is a thing.
  • the light reception wavelength region is a wavelength region on the long wavelength side of the wavelength ⁇ 1 or more. Therefore, the main sensor 32 includes, as a light receiving wavelength region, a wavelength region ⁇ 23 (wavelength region of wavelength ⁇ 2 to wavelength ⁇ 3) of the detection light for detecting a near object, which is indicated by reference symbol G1 in FIG. 6A. And function as a light receiving sensor for detecting a near object. Further, in the main sensor 32, the light reception sensitivity in the wavelength region ⁇ 23 of the detection light is higher than the light reception sensitivity in a predetermined wavelength region different from this wavelength region (here, a wavelength region less than the wavelength ⁇ 2).
  • the light reception wavelength region is a wavelength region on the short wavelength side of the wavelength ⁇ 2 or less. That is, the auxiliary sensor 33 has a light receiving sensitivity characteristic different from that of the main sensor 32 with respect to the light receiving wavelength. Therefore, in the auxiliary sensor 33, the light reception sensitivity in the wavelength region ⁇ 23 of the detection light is lower than that of the main sensor 32 (here, the light reception sensitivity in the wavelength region ⁇ 23 of the detection light is 0 (zero) ). Thereby, the auxiliary sensor 33 functions as a light receiving sensor for detecting a false signal described later.
  • the light reception sensitivity in the wavelength region ⁇ 23 of the detection light is lower than the light reception sensitivity in the predetermined wavelength region (here, a wavelength region less than the wavelength ⁇ 2).
  • the wavelength region ⁇ 12 (the wavelength region of the wavelengths ⁇ 1 to ⁇ 2) is a light reception wavelength region by both the main sensor 32 and the auxiliary sensor 33.
  • the main sensor 32 when infrared light is used as the detection light, the main sensor 32 includes the wavelength region of the infrared light as a light reception wavelength region, and the auxiliary sensor 33 detects, for example, the wavelength region of visible light May be included as the light receiving wavelength region.
  • the relationship between the wavelength region of the detection light and the light reception wavelength regions of the main sensor 32 and the auxiliary sensor 33 is not limited to this.
  • green light may be used as the detection light
  • the light reception wavelength region of the auxiliary sensor 33 may be set only to the wavelength region of red light.
  • the wavelength region of the detection light as the light reception wavelength region of the auxiliary sensor 33
  • the wavelength of the external light that can be received by the main sensor 32 make it possible to receive light. This is because, as described later, it is the role of the auxiliary sensor 33 to detect a false signal caused by external light incident on the main sensor 32.
  • the relationship between the wavelength region of such detection light and the light reception wavelength regions of the main sensor 32 and the auxiliary sensor 33 can be realized by, for example, a combination of existing color filters or design of the spectral sensitivity of the light reception sensor. .
  • the light reception wavelength region of the main sensor 32 may be one indicated by the reference G22 in FIG. 6B, and the light reception wavelength region of the auxiliary sensor 33 is similarly the reference G32 in FIG. 6C. It may be indicated by.
  • the wavelength range ⁇ 12 (the wavelength range of wavelength ⁇ 1 to wavelength ⁇ 2)
  • the wavelength range ⁇ 34 (the wavelength range of wavelength ⁇ 3 to wavelength ⁇ 4) are light reception wavelength ranges of both the main sensor 32 and the auxiliary sensor 33.
  • the display drive circuit 12 In this display-and-image-pickup device, the display drive circuit 12 generates a drive signal for display based on the display data supplied from the application program execution unit 11. Then, the I / O display panel 20 is driven line-sequentially by this drive signal, and an image is displayed. Further, at this time, the backlight 15 is also driven by the display drive circuit 12, and the on / off operation synchronized with the I / O display panel 20 is performed.
  • the backlight 15 is turned off (is turned off) in the first half period (1/120 seconds) of each frame period, and display is not performed.
  • the backlight 15 is turned on (turned on), a display signal is supplied to each pixel, and an image of the frame period is displayed.
  • the first half period of each frame period is a non-light period during which no irradiation light is emitted from the I / O display panel 20, while the second half period of each frame period emits irradiation light from the I / O display panel 20.
  • Period is
  • the light receiving element of each pixel in the I / O display panel 20 is driven by line sequential light receiving drive by the light receiving drive circuit 13. A close object is imaged.
  • the light reception signal from each light reception element is supplied to the light reception drive circuit 13.
  • the light reception drive circuit 13 accumulates light reception signals of pixels for one frame, and outputs the light reception signals to the image processing unit 14 as a captured image.
  • the image processing unit 14 performs predetermined image processing (arithmetic processing) to be described below based on the captured image to obtain information (positional coordinate data, shape of the object) on the proximity object to the I / O display panel 20. And data on size, etc.).
  • FIG. 8 is a flowchart showing the fingertip extraction process (differential image fingertip extraction process described later) performed by the image processing unit 14
  • FIG. 9 is a timing diagram showing a part of the differential image fingertip extraction process. It is a thing.
  • an I / O display panel 20 performs imaging processing of a close object. Thereby, the image A (shadow image) is acquired (step S11 of FIG. 8, a period of timing t1 to t2 of FIG. 9).
  • the I / O display panel 20 performs an imaging process of a close object.
  • an image B (a reflected light utilization image utilizing the reflected light by the irradiation light) is acquired (step S12 of FIG. 8, a period of timing t3 to t4 of FIG. 9).
  • the image processing unit 14 generates a difference image C between the image B and the image A (shadow image) obtained by imaging in a period in which the backlight 15 is off (no light period) (see FIG. 8).
  • Step S13 a period of timing t3 to t4 in FIG.
  • the image processing unit 14 performs arithmetic processing to determine the center of gravity based on the generated difference image C (step S14), and specifies the center of contact (proximity) (step S15). Then, the detection result of the proximity object is output from the image processing unit 14 to the application program execution unit 11, and the differential image fingertip extraction processing by the image processing unit 14 is completed.
  • the fingertip B is extracted based on the differential image C between the image B using the reflected light by the irradiation light and the image A using the external light (environmental light) without using the irradiation light. Extraction processing is performed.
  • the influence of the brightness of the external light is removed, and the proximity object is detected without being affected by the brightness of the external light.
  • the light reception output voltage Von1 in the state in which the backlight 15 is lit is as shown in FIG. As shown in). That is, except for the part touched by the finger, the voltage value Va corresponds to the brightness of the external light, while at the part touched by the finger, the surface of the object (finger) touched at that time, from the backlight 15 The voltage drops to the voltage value Vb corresponding to the reflectance for reflecting light.
  • the light reception output voltage Voff1 in the state in which the backlight 15 is turned off is the same as the voltage value Va corresponding to the brightness of the external light except for the part touched by the finger. At the point touched, the external light is blocked and the voltage value Vc becomes very low.
  • the light reception output voltage Von2 in the state where the backlight 15 is lit is as shown in FIG.
  • the voltage value Vc is very low because there is no external light, while the portion touched by the finger is a backlight on the surface of the object (finger) touched at that time.
  • the voltage rises to a voltage value Vb corresponding to the reflectance for reflecting the light from 15.
  • the light reception output voltage Voff2 in the state in which the backlight 15 is turned off remains unchanged at the very low level of the voltage value Vc at the place touched with the finger and at the other places.
  • the light reception output voltage is largely different between the case where there is external light and the case where there is no external light at a portion which is not in contact with the display area 21 of the panel.
  • the voltage value Vb when the backlight 15 is on and the voltage value Vc when the backlight 15 is off are substantially the same regardless of the presence of external light. Become.
  • the difference between the voltage at the time of lighting of the backlight 15 and the voltage at the time of extinguishing is detected, and a place where there is a certain difference or more like the difference between the voltage value Vb and the voltage value Vc It can be determined that the location is close. As a result, even in the case where external light entering the panel is strong or in the case where there is little external light, contact or proximity is detected well under uniform conditions.
  • FIG. 13A shows a contact state of the display area 21 of the panel, in which the panel surface is touched with the finger f, and a circular object m having a reflectance of almost 100% is displayed. It is in the state of being placed on the area 21. In this state, the light reception output voltage in the line which scans both the finger f and the object m is in the state shown in FIG. 13 (B). Further, in FIG. 13B, a voltage Von3 is a light reception output voltage in a state in which the backlight 15 is lit, and a voltage Voff3 is a light reception output voltage in a state in which the backlight 15 is extinguished.
  • a voltage higher than the voltage Vd detected when the backlight 15 is lit is a level Vy which is not necessary to be observed, and its level
  • the following range Vx is a dynamic range required for detection. Therefore, it can be understood that the signal of the level Vy which is not necessary to be observed may be overflowed to be regarded as the same intensity.
  • the image processing unit 14 acquires object information of a proximity object by using a composite image based on a captured image obtained by the main sensor 32 and a captured image obtained by the auxiliary sensor 33.
  • the difference image HC is generated. That is, in the auxiliary sensor 33, the light receiving sensitivity in the wavelength region of the detection light is lower than that of the first light receiving element (here, it is 0). Similarly, while the false signal F101 is generated, the generation of the detection signal of the close object is suppressed (here, avoided).
  • V (HC) Von (HB)-Voff (HA)
  • the light reception drive circuit 13 generates a predetermined mask image E based on the difference image HC obtained by the auxiliary sensor 33. Further, the light reception drive circuit 13 generates a composite image F of these by taking a logical product of the difference image MC obtained by the main sensor 32 and the generated mask image E. Then, using the composite image F, the image processing unit 14 acquires object information of the proximity object. At this time, the light reception drive circuit 13 can generate a mask image E by performing, for example, a binarization process and an image inversion process on the difference image HC.
  • the binarization processing it is preferable to regard a light reception signal having a certain value (threshold value) or more in the difference image HC as a false signal and convert the false signal into an image that masks a portion of the false signal. .
  • the detection signal is slightly This is because it may also appear in the difference image HC on the auxiliary sensor 33 side.
  • Minimizing the leakage of the detection signal to the auxiliary sensor 33 improves the performance of the present system.
  • the wavelength range ⁇ 23 of the detection light is limited, and in the auxiliary sensor 33, the sensitivity to the wavelength range ⁇ 23 of the detection light is designed as low as possible.
  • the auxiliary sensor 33 detects a false signal generated by the external light, it is possible to improve the performance by relatively increasing the sensitivity to the external light than the wavelength sensitivity of the detection light.
  • object information is obtained using the composite image F based on the difference image MC obtained by the main sensor 32 and the difference image HC obtained by the auxiliary sensor 33.
  • generation of false signals in the composite image F can be suppressed (or avoided).
  • the plurality of main sensors 32 including the wavelength region ⁇ 23 of the detection light for detecting the proximity object as the light reception wavelength region are provided in the display area 21 of the I / O display panel 20.
  • a plurality of auxiliary sensors 33 are provided in which the light reception sensitivity in the wavelength region of the detection light is lower than that of the main sensor 32. Then, using the composite image F based on the difference image MC obtained by the main sensor 32 and the difference image HC obtained by the auxiliary sensor 33, the object information of the proximity object is obtained.
  • FIG. 22 and FIG. 23 show a differential image fingertip extraction process according to the first modification.
  • FIG. 24 shows a differential image fingertip extraction process according to the second modification.
  • the image processing unit 14 is configured to perform generation processing of the difference image MC and generation processing of the difference image HC by sequential processing in units of the main sensor 32 and the auxiliary sensor 33.
  • the main sensors 32 and the auxiliary sensors 33 are alternately arranged at a ratio of one to one on the display area 21.
  • the difference image MC and the difference image HC are respectively constituted by a plurality of difference pixel values m0, h1, m2, h3, m4, h5,.
  • the light reception drive circuit 13 performs the above-described sequential processing, when the difference pixel value obtained by the auxiliary sensor 33 adjacent to each main sensor 32 is equal to or more than the predetermined threshold value Vth (H), the main sensor 32.
  • the difference pixel value in is regarded as 0 (zero) and output.
  • FIG. 25 shows a differential image fingertip extraction process according to the third modification.
  • the processing of modification 2 is performed by combining interpolation processing on both the auxiliary sensor 33 and the main sensor 32 side.
  • the light reception drive circuit 13 interpolates and generates the difference pixel value of the main sensor 32 at the position corresponding to each auxiliary sensor 33 when performing the above-described sequential processing. Further, the difference pixel value of the auxiliary sensor 33 at the position corresponding to each main sensor 32 is generated by interpolation. Then, in consideration of these differentially generated differential pixel values, sequential processing is performed according to the comparison result with the threshold value.
  • the auxiliary sensor and the main sensor can be accurately associated with each other, and ideal processing results can be obtained. Also in this method, it is not necessary to prepare a special frame memory only by holding processing results for one or two sensors. In addition, the processing delay is extremely fast because it is processed with a delay of several sensors because of the processing for each sensor.
  • the main sensor 32 and the auxiliary sensor 33 are alternately arranged at a ratio of 1: 1 on the display area 21 as shown in, for example, FIGS. 4A and 4B. Is preferred.
  • FIG. 26A is an example in which the surface of the I / O display panel 20 is touched with a fingertip 61, and the locus of the touched portion is displayed on the screen as a drawing line 611.
  • the example shown in FIG. 26B is for gesture recognition using a hand shape. Specifically, the shape of the hand 62 touching (or in proximity to) the I / O display panel 20 is recognized, the recognized hand shape is displayed as an image, and some processing is performed by moving the display object 621. It is intended to
  • the hand 63A in the closed state is changed to the hand 63B in the open state, and the I / O display panel 20 recognizes the touch or proximity of the hand in each state.
  • processing based on the image recognition For example, an instruction such as zooming in can be given.
  • an instruction such as zooming in can be given.
  • the operation of switching the command on the computer device by connecting the I / O display panel 20 to the personal computer device can be more naturally formed by these image recognitions. You can enter
  • a plurality of I / O display panels 20 may be prepared, and the plurality of I / O display panels 20 may be connected by any transmission means. Then, an image in which contact or proximity is detected may be transmitted and displayed on the other party's I / O display panel 20 so that users who operate both display panels communicate. That is, the two I / O display panels 20 are prepared, and the handprinted hand of the hand recognized by one panel is sent to the other hand, the handprint 642 is displayed on the other panel, or the other panel is handed 64 Processing such as sending the locus 641 displayed by touching to the other party's panel for display is possible.
  • the state of drawing is transmitted as a moving image, and there is the possibility of a new communication tool by sending handwritten characters and figures to the other party.
  • application of the I / O display panel 20 to a display panel of a mobile phone terminal is assumed.
  • the writing 66 is used to write characters on the surface of the I / O display panel 20 using the writing 66, and the portion touched by the writing 66 is attached to the I / O display panel 20.
  • the image 661 By displaying as the image 661, handwriting input by a brush can be performed. In this case, it is possible to recognize and realize even a fine touch of the brush.
  • a special pen tilt has been realized by electric field detection, but in this example, it is more realistic by detecting the contact surface of the real brush itself. Information can be input in an intuitive way.
  • the display-and-image-pickup device according to the above-described embodiment and the like can be applied to electronic devices in various fields such as television devices, digital cameras, notebook personal computers, portable terminal devices such as mobile phones, and video cameras.
  • the display-and-image-pickup device according to the above-described embodiment and the like can be applied to electronic devices in any field that displays an externally input video signal or an internally generated video signal as an image or video.
  • an application such as a surveillance camera may be considered by taking advantage of the feature of the present invention that only the reflection component by the detection light is extracted.
  • FIG. 30 illustrates the appearance of a television set to which the display-and-image-pickup device of the above-described embodiment and the like is applied.
  • the television apparatus includes, for example, a video display screen unit 510 including a front panel 511 and a filter glass 512.
  • the video display screen unit 510 is configured by the display and imaging device according to the above-described embodiment and the like. There is.
  • FIG. 31 illustrates an appearance of a digital camera to which the display-and-image-pickup device of the above-described embodiment and the like is applied.
  • the digital camera has, for example, a light emitting unit 521 for flash, a display unit 522, a menu switch 523 and a shutter button 524.
  • the display unit 522 is configured by the display and imaging device according to the above-described embodiment and the like. ing.
  • FIG. 32 illustrates the appearance of a notebook personal computer to which the display-and-image-pickup device of the above-described embodiment and the like is applied.
  • the notebook personal computer includes, for example, a main body 531, a keyboard 532 for input operation of characters and the like, and a display unit 533 for displaying an image.
  • the display unit 533 is a display according to the above-described embodiment and the like. It comprises an imaging device.
  • FIG. 33 illustrates the appearance of a video camera to which the display-and-image-pickup device of the above-described embodiment and the like is applied.
  • the video camera has, for example, a main body 541, a lens 542 for photographing an object provided on the front side of the main body 541, a start / stop switch 543 at the time of photographing, and a display 544.
  • the display unit 544 is configured by the display and imaging device according to the above-described embodiment and the like.
  • FIG. 34 illustrates an appearance of a mobile phone to which the display-and-image-pickup device of the above-described embodiment and the like is applied.
  • This mobile phone is, for example, one in which an upper housing 710 and a lower housing 720 are connected by a connecting portion (hinge portion) 730, and has a display 740, a sub display 750, a picture light 760 and a camera 770. There is.
  • the display 740 or the sub display 750 is configured by the display and imaging device according to the above-described embodiment and the like.
  • the wavelength range ⁇ 12 (wavelength range from wavelength ⁇ 1 to wavelength ⁇ 2) and wavelength range ⁇ 34 (wavelength range from wavelength ⁇ 3 to wavelength ⁇ 4) are It is a light reception wavelength region by both the main sensor 32 and the auxiliary sensor 33.
  • application of the invention is not limited to this. That is, for example, as shown in FIG. 35 (B), the light reception wavelength region of the main sensor 32 and the light reception wavelength region of the auxiliary sensor 33 may be separated from each other. It can be said that it is preferable.
  • the light reception sensitivity of the main sensor 32 is 0 (zero) in wavelength regions other than the light reception wavelength region of the main sensor 32 indicated by solid arrows.
  • the light reception sensitivity of the auxiliary sensor 33 is 0 (zero). That is, in FIG. 35B, the light reception sensitivity of the auxiliary sensor 33 is 0 (zero) in the light reception wavelength region of the main sensor 32, and the light reception sensitivity of the main sensor 32 is 0 in the light reception wavelength region of the auxiliary sensor 33. (Zero), and as a result, the light reception wavelength regions in these two sensors are separated (different) from each other as described above.
  • the backlight for display may double as detection light, or detection only An illumination light source may be provided.
  • the irradiation light source only for a detection it is more preferable to use the light (for example, infrared light) of wavelength ranges other than a visible light range.
  • the display element is a liquid crystal element and the light receiving element is separately provided in the I / O display panel 20 has been described, but the application of the present invention is limited to this. Absent. Specifically, for example, as in the display and imaging device according to another modification shown in FIGS. 36 to 38, it is possible to perform light emission operation and light reception operation of an organic EL (ElectroLuminescence) element or the like in time division.
  • the I / O display panel (I / O display panel 60) may be configured by the light emitting and receiving element (display image pickup element).
  • FIG. 36 is a block diagram showing a configuration example of a display-and-image-pickup apparatus according to the present modification.
  • the display and imaging apparatus includes an I / O display panel 60, a display drive circuit 82, a light receiving drive circuit 83 having a frame memory 83A, an image processing unit 84, and an application program execution unit 81.
  • the display drive circuit 82, the frame memory 83A, the light reception drive circuit 83, the image processing unit 84 and the application program execution unit 81 are the display drive circuit 12, the frame memory 13A and the light reception drive circuit described in the above embodiment. 13, the same operations as the image processing unit 14 and the application program execution unit 11 are performed, so the description will be omitted.
  • the I / O display panel 60 is configured as an organic EL display using an organic EL element, and a plurality of pixels (display image pickup elements) are formed in a matrix in a display area (sensor area) ing.
  • the pixels including an organic EL element functioning as a sensor are arranged, for example, in a matrix.
  • the signal charge accumulated corresponding to the received light amount in the light receiving period is read out by the light receiving drive by the light receiving drive circuit 83.
  • FIG. 37 shows a circuit configuration example (a configuration example of a pixel circuit) of each pixel in the display and imaging device shown in FIG.
  • This pixel circuit comprises an organic EL element 91, parasitic capacitance 91A of the organic EL element 91, switches SW1 to SW3, a display data signal line 92, a readout line selection line 93, and a reception data signal line 94. It is done.
  • the switch SW1 when the switch SW1 is set to the on state in the display period (light emission period), display data for image display is supplied from the display data signal line 92 to the organic EL element 91 via the switch SW1.
  • the organic EL element 91 performs a light emitting operation.
  • FIG. 38 is for explaining the differential image fingertip extraction process in the display-and-image-pickup device shown in FIG. 36 and FIG. Specifically, in the I / O display panel 60 using the above-described organic EL element, while displaying an image or the like, detection processing of an object (finger f) in contact with or in proximity to the I / O display panel 60 is performed. An example of the case is shown.
  • the light emitting area is constituted by a plurality of specific horizontal lines in one screen. Then, by moving such a light emitting area in the scanning direction indicated by an arrow in the figure, for example, within one field period, it is viewed as being displayed on the whole of one screen due to the afterimage effect.
  • the reading operation by the reading line positioned in the light emitting area and the reading line positioned away from the light emitting area to some extent vertically is sequentially performed in conjunction with the movement of the light emitting area.
  • the reading operation can detect the reflected light of the light from the light emitting area, as shown in FIG. 38, the read data in the self light emitting ON state (image B4: reflection It corresponds to the light utilization image B).
  • image B4 reflection It corresponds to the light utilization image B.
  • the read operation is not affected by the light emission from the light emission area in the read line positioned apart from the light emission area to some extent vertically, as shown in FIG.
  • the display and imaging device having the display and imaging panel (I / O display panel 20) including the plurality of display elements and the plurality of imaging elements has been described. Not limited to this. Specifically, the present invention can also be applied to, for example, an imaging apparatus having an imaging panel including a plurality of imaging elements without providing a display element.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Liquid Crystal (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Image Input (AREA)

Abstract

 使用状況によらず、物体を安定して検出することが可能な撮像装置を提供する。I/Oディスプレイパネル20の表示エリア21内に、近接物体を検出するための検出光の波長領域Δλ23を受光波長領域として含む複数のメインセンサ32と、この検出光の波長領域における受光感度がメインセンサ32よりも低くなっている複数の補助センサ33とを設ける。また、メインセンサ32により得られる差分画像MCと補助センサ33により得られる差分画像HCとに基づく合成画像Fを用いて、近接物体の物体情報を取得する。これにより、例えば近接物体がI/Oディスプレイパネル20の表示エリア21上で動いているような場合であっても、合成画像Fにおける偽信号の発生が抑えられる。

Description

撮像装置、表示撮像装置および電子機器
 本発明は、パネルに接触または近接する物体の位置などの情報を取得する撮像装置および表示撮像装置、ならびにそのような表示撮像装置を備えた電子機器に関する。
 従来より、表示装置の表示面に接触あるいは近接する物体の位置などを検出する技術が知られている。その中でも代表的で一般に広く普及している技術として、タッチパネルを備えた表示装置が挙げられる。 
 このタッチパネルも種々のタイプのものが存在するが、一般に普及しているものとして、静電容量を検知するタイプのものが挙げられる。このタイプのものは、指でタッチパネルに接触することでパネルの表面電荷の変化を捕らえ、物体の位置などを検出するようになっている。したがってこのようなタッチパネルを用いることで、ユーザは直感的に操作することが可能である。 
 また、本出願人は例えば特許文献1および特許文献2において、画像を表示する表示機能と、物体を撮像(検出)する撮像機能(検出機能)とを有する表示部(表示撮像パネル)を備えた表示装置を提案している。 
特開2004-127272号公報 特開2006-276223号公報
 上記特許文献1に記載されている表示装置を利用すれば、例えば表示撮像パネル上に指などの物体を接触または近接させた場合、この物体で反射された表示撮像パネルからの照射光による反射光を利用することで、撮像した画像に基づいて物体の位置などを検出することも可能である。したがって、この表示装置を利用することで、表示撮像パネル上にタッチパネルなどの部品を別途設けることなく、簡易な構成で物体の位置などを検出することが可能となる。 
 しかしながら、上記のように物体で反射された反射光を利用する場合、外光や、受光素子の特性ばらつきなどが問題となることがあった。具体的には、受光する光の輝度が外光の明るさに応じて変化することから、撮像した画像に基づいて物体の位置などを検出するのが困難となってしまうことがあった。また、受光素子の特性ばらつきなどが固定ノイズとなり、やはり撮像した画像に基づいて物体の位置などを検出するのが困難となってしまうことがあった。 
 そこで、上記特許文献2では、発光状態で得られた画像(照射光による反射光を利用して得られた画像)と、消灯状態で得られた画像との差分を取ることにより、上記した外光や固定ノイズによる影響が除去されるようにしている。これにより、外光や固定ノイズの影響を受けずに、物体の位置などを検出することが可能となると考えられる。 
 ところが、実際の使用状況下では、上記の発光状態で得られた画像と消灯状態で得られた画像との間には、時間差が存在する。したがって、例えば表示撮像パネル上で物体が高速に移動している場合などには、この時間差のため、発光状態で得られた画像と消灯状態で得られた画像との間で位置ずれが生じることになる。そしてこのような位置ずれが生じると、これら2つの画像の差分を取ったときに、物体の位置に対応する本来の信号の他に、別の位置に偽信号が生じてしまう。よって、このような偽信号の存在により、安定した物体の検出が困難となってしまう場合があった。なお、この偽信号は、物体の動きが速いときに発生する面積が大きくなり、また外光が強いほど、偽信号も強くなる傾向がある。 
 このように従来の技術では、そのときの使用状況によらずにパネルに接触または近接する物体を安定して検出するのは困難であり、改善の余地があった。 
 本発明はかかる問題点に鑑みてなされたもので、その目的は、使用状況によらず、物体を安定して検出することが可能な撮像装置、表示撮像装置および物体の検出方法、ならびにそのような表示撮像装置を備えた電子機器を提供することにある。
 本発明の一実施の形態による撮像装置は、複数の第1および第2の受光素子と、近接物体を検出するための所定の波長領域の検出光を含む光を発する照射光源とを有する撮像パネルと、この撮像パネルによって近接物体を撮像した信号を画像処理し、その近接物体の位置、形状または大きさの少なくとも1つを含む物体情報を取得する画像処理部とを備えたものである。ここで、上記第1の受光素子は、その受光波長領域に上記検出光の波長領域を含んでいる。また、上記第2の受光素子は、上記検出光の波長領域における受光感度が、第1の受光素子よりも低くなっている。また、上記画像処理部は、第1および第2の受光素子から得られる信号を処理して物体情報を取得するようになっている。 
 本発明の一実施の形態による表示撮像装置は、複数の表示素子と、複数の第1および第2の受光素子とを有し、近接物体を検出するための所定の波長領域の検出光を含む光を発する表示撮像パネルと、この表示撮像パネルによって近接物体を撮像した信号を画像処理し、その近接物体の位置、形状または大きさの少なくとも1つを含む物体情報を取得する画像処理部とを備えたものである。ここで、上記第1の受光素子は、その受光波長領域に上記検出光の波長領域を含んでいる。また、上記第2の受光素子は、上記検出光の波長領域における受光感度が、第1の受光素子よりも低くなっている。また、上記画像処理部は、第1および第2の受光素子から得られる信号を処理して物体情報を取得するようになっている。 
 本発明の一実施の形態による電気機器は、画像表示機能および撮像機能を有する上記表示撮像装置を備えたものである。 
 本発明の一実施の形態による撮像装置、表示撮像装置および電子機器では、撮像パネル(または表示撮像パネル)によって近接物体を撮像した信号を画像処理してその近接物体の物体情報得られる。具体的には、例えば、第1の受光素子により得られる撮像画像と、第2の受光素子により得られる撮像画像とに基づく合成画像を用いて、物体情報が得られる。ここで、上記第1の受光素子は、上記検出光の波長領域を受光波長領域として含んでいるため、例えば近接物体が撮像パネル(または表示撮像パネル)上で動いている場合、第1の受光素子により得られる撮像画像では、近接物体の検出信号の他に、偽信号が発生し得る。これに対し、上記第2の受光素子では、上記検出光の波長領域における受光感度が第1の受光素子よりも低くなっているため、第2の受光素子により得られる撮像画像では、第1の受光素子の場合と同様に偽信号が発生し得る一方、近接物体の検出信号の発生が抑えられる。したがって、これら第1の受光素子により得られる撮像画像と第2の受光素子により得られる撮像画像とに基づく合成画像を用いて物体情報が取得されることにより、近接物体が撮像パネル(または表示撮像パネル)上で動いているような場合であっても、合成画像における偽信号の発生が抑えられる。
 本発明の一実施の形態による撮像装置、表示撮像装置または電子機器によれば、撮像パネル(または表示撮像パネル)内に、近接物体を検出するための検出光の波長領域を受光波長領域に含む複数の第1の受光素子と、上記検出光の波長領域における受光感度が第1の受光素子よりも低くなっている複数の第2の受光素子とを設けると共に、これら第1および第2の受光素子から得られる信号を処理して近接物体の物体情報を取得するようにしたので、例えば近接物体が撮像パネル(または表示撮像パネル)上で動いているような場合であっても、偽信号の発生を抑えることができる。よって、使用状況によらず、物体を安定して検出することが可能となる。
本発明の一実施の形態に係る表示撮像装置の構成を表すブロック図である。 図1に示したI/Oディスプレイパネルの構成例を表すブロック図である。 図2に示した表示エリア(センサエリア)内の画素配置例を表す平面図である。 図2に示した表示エリア(センサエリア)内のメインセンサおよび補助センサの配置例を表す平面模式図である。 図2に示した表示エリア(センサエリア)内のメインセンサおよび補助センサの配置例を表す平面模式図である。 検出用光源の発光波長領域と、メインセンサおよび補助センサの検出波長領域との関係の一例を表す特性図である。 バックライトのオン・オフ状態と表示状態との関係について説明するためのタイミング図である。 差分画像指先抽出処理を表す流れ図である。 図8に示した差分画像抽出処理について説明するためのタイミング図である。 差分画像指先抽出処理について説明するための写真構成図である。 外光が明るい場合の差分画像指先抽出処理について説明するための図である。 外光が暗い場合の差分画像指先抽出処理について説明するための図である。 差分画像指先抽出処理による受光信号のダイナミックレンジについて説明するための図である。 検出対象の指先が同時に複数存在する場合の差分画像指先抽出処理について説明するための写真構成図である。 比較例に係る差分画像抽出処理について説明するための特性図である。 比較例に係る差分画像抽出処理について説明するための模式図である。 実施の形態に係るメインセンサにおける差分画像について説明するための特性図である。 実施の形態に係るメインセンサにおける差分画像について説明するための模式図である。 実施の形態に係る補助センサにおける差分画像について説明するための特性図である。 実施の形態に係る補助センサにおける差分画像について説明するための模式図である。 実施の形態に係るメインセンサにおける差分画像と補助センサにおける差分画像との合成処理について説明するための模式図である。 本発明の変形例1に係る差分画像指先抽出処理について説明するための特性図である。 本発明の変形例1に係る差分画像指先抽出処理について説明するための模式図である。 本発明の変形例2に係る差分画像指先抽出処理について説明するための模式図である。 本発明の変形例3に係る差分画像指先抽出処理について説明するための模式図である。 指先抽出処理の結果を利用したアプリケーションの一例について説明するための図である。 指先抽出処理の結果を利用したアプリケーションの一例について説明するための図である。 指先抽出処理の結果を利用したアプリケーションの一例について説明するための図である。 指先抽出処理の結果を利用したアプリケーションの一例について説明するための図である。 上記各実施の形態の表示撮像装置の適用例1の外観を表す斜視図である。 (A)は適用例2の表側から見た外観を表す斜視図であり、(B)は裏側から見た外観を表す斜視図である。 適用例3の外観を表す斜視図である。 適用例4の外観を表す斜視図である。 (A)は適用例5の開いた状態の正面図、(B)はその側面図、(C)は閉じた状態の正面図、(D)は左側面図、(E)は右側面図、(F)は上面図、(G)は下面図である。 検出用光源の発光波長領域と、メインセンサおよび補助センサの検出波長領域との関係の他の例を表す特性図である。 本発明の他の変形例に係る表示撮像装置の構成を表すブロック図である。 図36に示した表示撮像装置における各画素の構成例を表す回路図である。 図36および図37に示した表示撮像装置における差分画像指先抽出処理について説明するための図である。
 以下、本発明の実施の形態について、図面を参照して詳細に説明する。 
[表示撮像装置の全体構成例] 
 図1は、本発明の一実施の形態に係る表示撮像装置の全体構成を表すものである。この表示撮像装置は、I/Oディスプレイパネル20と、バックライト15と、表示ドライブ回路12と、受光ドライブ回路13と、画像処理部14と、アプリケーションプログラム実行部11とを備えている。 
 I/Oディスプレイパネル20は、複数の画素が全面に渡ってマトリクス状に配置された液晶パネル(LCD;Liquid Crystal Display)により構成されている。このI/Oディスプレイパネル20は、表示データに基づく所定の図形や文字などの画像を表示する機能(表示機能)を有すると共に、後述するようにI/Oディスプレイパネル20に接触または近接する物体(近接物体)を撮像する機能(撮像機能)を有している。また、バックライト15は、例えば複数の発光ダイオードが配置されてなり、I/Oディスプレイパネル20の表示および検出用の光源である。このバックライト15は、後述するように、I/Oディスプレイパネル20の動作タイミングに同期した所定のタイミングで、高速にオン・オフ動作を行うようになっている。 
 表示ドライブ回路12は、I/Oディスプレイパネル20において表示データに基づく画像が表示されるように(表示動作を行うように)、このI/Oディスプレイパネル20の駆動を行う(線順次表示動作の駆動を行う)回路である。 
 受光ドライブ回路13(画像生成部)は、I/Oディスプレイパネル20の各画素から受光信号(撮像信号)が得られるように(物体を撮像するように)、このI/Oディスプレイパネル20の駆動を行う(線順次撮像動作の駆動を行う)回路である。また、この受光ドライブ回路13は、各画素からの受光信号に対して所定の画像処理(画像生成処理)を行うことにより、後述する合成画像を生成するようになっている。また、生成された合成画像は、例えばフレーム単位でフレームメモリ13Aに蓄積され、撮像画像として画像処理部14へ出力されるようになっている。なお、そのような画像生成処理の詳細については後述する。 
 画像処理部14は、受光ドライブ回路13から出力される撮像画像(合成画像)に基づいて所定の画像処理(演算処理)を行い、近接物体に関する物体情報(位置座標データ、物体の形状や大きさに関するデータなど)を検出し、取得するものである。なお、この検知する処理の詳細については後述する。 
 アプリケーションプログラム実行部11は、画像処理部14による検知結果に基づいて 所定のアプリケーションソフトに応じた処理を実行するものである。このような処理としては、例えば、検知した物体の位置座標を表示データに含むようにし、I/Oディスプレイパネル20上に表示させるものなどが挙げられる。なお、このアプリケーションプログラム実行部11で生成される表示データは、表示ドライブ回路12へ供給されるようになっている。 
[I/Oディスプレイパネルの詳細構成例] 
 次に、図2を参照して、I/Oディスプレイパネル20の詳細構成例について説明する。このI/Oディスプレイパネル20は、表示エリア(センサエリア)21と、表示用Hドライバ22と、表示用Vドライバ23と、センサ読み出し用Hドライバ25と、センサ用Vドライバ24とを有している。
 表示エリア21は、バックライト15からの光を変調して照射光を出射すると共に、このエリアへの近接物体を撮像するための領域である。本実施形態において、照射光は、表示光と、例えば赤外光源等(図示せず)による近接物体を検出するための検出光(赤外光等)とを含む(以下同様)。この表示エリア21では、発光素子(表示素子)である液晶素子と、受光素子(撮像素子)としての受光センサ(後述するメインセンサ32および補助センサ33)とが、それぞれマトリクス状に配置されている。 
 表示用Hドライバ22は、表示ドライブ回路12から供給される表示駆動用の表示信号および制御クロックに基づいて、表示用Vドライバ23と共に表示エリア21内の各画素の液晶素子を線順次駆動するものである。 
 センサ読み出し用Hドライバ25は、センサ用Vドライバ24と共にセンサエリア21内の各画素の受光素子を線順次駆動し、受光信号を取得するものである。 
[表示エリアにおける各画素の詳細構成例]
 次に、図3~図5を参照して、表示エリア21における各画素の詳細構成例について説明する。 
 まず、例えば図3に示したように、画素31は、液晶素子を含む表示画素(表示部)31RGBと、撮像画素(受光部)とから構成されている。表示画素31RGBは、赤(R)用の表示画素31Rと、緑(G)用の表示画素31Gと、青(B)用の表示画素31Bとから構成されている。また、受光部には、2種類の受光センサ、すなわち、メインセンサ32(第1の受光素子)と、補助センサ33(第2の受光素子)とが配置されている。なお、図3では、1つの表示画素31RGBに対して1つの受光センサを配置しているが、複数の表示画素31RGBに対して1つの受光センサを配置するようにしてもよい。 
 このようなメインセンサ32および補助センサ33はそれぞれ、例えば図4(A),(B)に示したように、表示エリア21上において、1対1の割合で交互に配置されているのが好ましい。ただし、例えば図5(A),(B)に示したように、メインセンサ32の数よりも補助センサ33の数が少なくなるように配置してもよい。この場合、補助センサ33による受光信号に対して補間処理を行う必要があるため、処理が複雑化すると共に、信号やアプリケーションの種類によっては検出漏れが問題にならないかを配慮する必要がある。なお、図4および図5では、説明上の便宜のため、表示画素31RGBについては図示を省略している。 
[光源および受光センサにおける波長領域の構成例] 
 次に、図6を参照して、光源および受光センサにおける波長領域の構成例について説明する。図6は、検出用光源の発光波長領域(図6(A))と、メインセンサ32および補助センサ33の検出波長領域(図6(B),(C))との関係の一例を表したものである。
 まず、図6(B)中の符号G21で示したように、メインセンサ32では、受光波長領域が、波長λ1以上の長波長側の波長領域となっている。したがって、このメインセンサ32は、図6(A)中の符号G1で示した、近接物体を検出するための検出光の波長領域Δλ23(波長λ2~波長λ3の波長領域)を受光波長領域として含んでおり、近接物体の検出用の受光センサとして機能するようになっている。また、メインセンサ32は、この検出光の波長領域Δλ23における受光感度が、この波長領域と異なる所定の波長領域(ここでは、波長λ2未満の波長領域)における受光感度よりも高くなっている。
 一方、図6(C)中に符号G31で示したように、補助センサ33では、受光波長領域が、波長λ2以下の短波長側の波長領域となっている。すなわち、補助センサ33は、受光波長に対して上記メインセンサ32とは異なる受光感度特性を有している。したがって、この補助センサ33では、検出光の波長領域Δλ23における受光感度が、メインセンサ32よりも低くなっている(ここでは、検出光の波長領域Δλ23における受光感度が0(ゼロ)となっている)。これにより、補助センサ33は、後述する偽信号の検出用の受光センサとして機能するようになっている。また、補助センサ33は、検出光の波長領域Δλ23における受光感度が、上記所定の波長領域(ここでは、波長λ2未満の波長領域)における受光感度よりも低くなっている。なお、ここでは、波長領域Δλ12(波長λ1~波長λ2の波長領域)は、メインセンサ32および補助センサ33の両方による受光波長領域となっている。
 具体的には、検出光として赤外光を用いた場合、メインセンサ32は、この赤外光の波長領域を受光波長領域として含むようにすると共に、補助センサ33は、例えば可視光の波長領域を受光波長領域として含むようにすればよい。ただし、検出光の波長領域と、メインセンサ32および補助センサ33の受光波長領域との関係は、これには限られない。例えば、検出光として緑色光を用いると共に、補助センサ33の受光波長領域を赤色光の波長領域のみとするようにしてもよい。ただし、ここで注意しなければならないのは、補助センサ33の受光波長領域としては、検出光の波長領域を含まないようにするのが好ましいが、メインセンサ32が受光可能な外光の波長に関しては、受光できるようにする。これは、後述するように、メインセンサ32に入射する外光に起因する偽信号を検出するのが、補助センサ33の役割だからである。このような検出光の波長領域と、メインセンサ32および補助センサ33の受光波長領域との関係は、例えば、既存のカラーフィルタの組み合わせや、受光センサの分光感度の設計などによって実現することができる。 
 なお、メインセンサ32の受光波長領域は、図6(B)中の符号G22で示したものであってもよく、同様に補助センサ33の受光波長領域は、図6(C)中の符号G32で示したものであってもよい。この場合、波長領域Δλ12(波長λ1~波長λ2の波長領域)および波長領域Δλ34(波長λ3~波長λ4の波長領域)が、メインセンサ32および補助センサ33の両方による受光波長領域となる。 
 次に、本実施の形態の表示撮像装置の作用および効果について説明する。
[表示撮像装置の基本動作例] 
 最初に、この表示撮像装置の基本動作、すなわち画像の表示動作および物体の撮像動作について説明する。 
 この表示撮像装置では、アプリケーションプログラム実行部11から供給される表示データに基づいて、表示ドライブ回路12において、表示用の駆動信号が生成される。そしてこの駆動信号により、I/Oディスプレイパネル20に対して線順次表示駆動がなされ、画像が表示される。また、このときバックライト15も表示ドライブ回路12によって駆動され、I/Oディスプレイパネル20と同期した点灯・消灯動作がなされる。 
 ここで、図7を参照して、バックライト15のオン・オフ状態とI/Oディスプレイパ ネル20の表示状態との関係について説明する。 図7には横軸に時間が示され、縦軸に受光素子が受光駆動されるラインの垂直方向の位置が示されている。
 まず、例えば1/60秒のフレーム周期で画像表示がなされている場合、各フレーム期間の前半期間(1/120秒間)にバックライト15が消灯し(オフ状態となり)、表示が行われない。一方、各フレーム期間の後半期間には、バックライト15が点灯し(オン状態となり)、各画素に表示信号が供給され、そのフレーム期間の画像が表示される。 
 このように、各フレーム期間の前半期間は、I/Oディスプレイパネル20から照射光が出射されない無光期間である一方、各フレーム期間の後半期間は、I/Oディスプレイパネル20から照射光が出射される有光期間となっている。 
 ここで、I/Oディスプレイパネル20への近接物体(例えば、指先など)がある場合、受光ドライブ回路13による線順次受光駆動により、このI/Oディスプレイパネル20における各画素の受光素子において、この近接物体が撮像される。そして、各受光素子からの受光信号は、受光ドライブ回路13へ供給される。受光ドライブ回路13では、1フレーム分の画素の受光信号が蓄積され、撮像画像として画像処理部14へ出力される。 
 そして画像処理部14は、この撮像画像に基づいて、以下説明する所定の画像処理(演算処理)を行うことにより、I/Oディスプレイパネル20への近接物体に関する情報(位置座標データ、物体の形状や大きさに関するデータなど)を検出する。 
[表示撮像装置における指先抽出処理(差分画像指先抽出処理)の基本動作例] 
 次に、図8~図14を参照して、画像処理部14によるI/Oディスプレイパネル20への近接物体;例えば指等)の抽出処理(指先抽出処理)の基本動作について説明する。図8は、この画像処理部14による指先抽出処理(後述する差分画像指先抽出処理)を流れ図で表したものであり、図9は、この差分画像指先抽出処理の一部をタイミング図で表したものである。 
 まず、表示1フレーム期間の前半期間であるバックライト15がオフの期間(無光期間)において、I/Oディスプレイパネル20により、近接物体の撮像処理がなされる。これにより、画像A(影画像)が取得される(図8のステップS11、図9のタイミングt1~t2の期間)。 
 次に、表示1フレーム期間の後半期間であるバックライト15がオンの期間(有光期間)において、I/Oディスプレイパネル20により、近接物体の撮像処理がなされる。これにより、画像B(照射光による反射光を利用した反射光利用画像)が取得される(図8のステップS12、図9のタイミングt3~t4の期間)。 
 次に、画像処理部14は、この画像Bと、バックライト15がオフの期間(無光期間)における撮像により得られた画像A(影画像)との差分画像Cを生成する(図8のステップS13、図9のタイミングt3~t4の期間)。 
 次に、画像処理部14は、生成された差分画像Cに基づいて、重心を判定する演算処理を行い(ステップS14)、接触(近接)中心の特定を行う(ステップS15)。そして、近接物体の検出結果が画像処理部14からアプリケーションプログラム実行部11へ出力され、画像処理部14による差分画像指先抽出処理が終了となる。 
 このようにして、差分画像指先抽出処理では、照射光による反射光を利用した画像Bと照射光を利用しないで外光(環境光)を利用した画像Aとの差分画像Cに基づいて指先の抽出処理がなされる。これにより、図10に示した差分画像Cの写真画像例のように、外光の明るさの影響が除去され、この外光の明るさに影響されずに近接物体の検出がなされる。また、このような外光除去と同時に、受光素子の特性ばらつき等に起因した固定ノイズの除去も可能となる。 
 具体的には、例えば図11(A)に断面図で示したように、入射する外光が強い場合には、バックライト15を点灯させた状態での受光出力電圧Von1は、図11(B)に示したようになる。すなわち、指で触れた個所以外では、外光の明るさに対応した電圧値Vaとなる一方、指で触れた個所では、そのときに触れた物体(指)の表面で、バックライト15からの光を反射させる反射率に対応した電圧値Vbに低下する。これに対して、バックライト15を消灯させた状態での受光出力電圧Voff1は、指で触れた個所以外では、外光の明るさに対応した電圧値Vaとなる点は同じであるが、指で触れた個所では、外光が遮断された状態であり、非常にレベルの低い電圧値Vcとなる。 
 また、図12(A)に断面図で示したように、入射する外光が弱い(ほとんどない)状態では、バックライト15を点灯させた状態での受光出力電圧Von2は、図12(B)に示したようになる。すなわち、指で触れた個所以外では、外光がないために非常にレベルの低い電圧値Vcとなる一方、指で触れた個所では、そのときに触れた物体(指)の表面で、バックライト15からの光を反射させる反射率に対応した電圧値Vbに上昇する。これに対して、バックライト15を消灯させた状態での受光出力電圧Voff2は、指で触れた個所とそれ以外の個所のいずれでも、非常にレベルの低い電圧値Vcのままで変化がない。 
 このように、図11および図12を比較すると分かるように、パネルの表示エリア21に接触していない個所では、外光がある場合とない場合とで、受光出力電圧が大きく異なる。ところが、指が接触している個所では、外光の有無に関係なく、バックライト15の点灯時の電圧値Vbと、バックライト15の消灯時の電圧値Vcとが、ほぼ同じような状態となる。 
 よって、バックライト15の点灯時の電圧と消灯時の電圧との差を検出して、電圧値Vbと電圧値Vcとの差のように、一定以上の差がある個所が、接触した個所または近接した個所であると判断することができる。これにより、パネルに入射する外光が強い場合でも、外光が殆どない場合でも、均一な条件で良好に接触または近接が検出される。 
 また、図13(A),(B)に示したように、受光出力電圧の検出に必要なダイナミックレンジについては、以下のように決定される。ここで、図13(A)は、パネルの表示エリア21の接触状態を示したものであり、指fでパネル表面を触れていると共に、反射率がほぼ100%の円形の物体mを、表示エリア21に載せた状態としてある。この状態で、指fと物体mの双方を走査するラインでの受光出力電圧は、図13(B)に示す状態となる。また、図13(B)において、電圧Von3はバックライト15を点灯させた状態での受光出力電圧であり、電圧Voff3はバックライト15を消灯させた状態での受光出力電圧である。 
 図13(B)に示すように、反射率がほぼ100%の物体mがある個所で、バックライト15の点灯時に検出される電圧Vdよりも高い電圧は観測不要なレベルVyであり、そのレベル以下の範囲Vxが、検出に必要なダイナミックレンジである。よって、観測不要なレベルVyの信号については、オーバーフローさせてしまって、同一の強度とみなすようにすればよいことが分かる。 
 なお、この差分画像指先抽出処理では、例えば図14(A)~(D)に示した画像(それぞれ、画像A~C、および画像Cの2値化画像)により、以下のことが分かる。すなわち、I/Oディスプレイパネル20の表示エリア21上に配置された複数の近接物体についても、各近接物体に関する位置、形状または大きさなどの情報が取得できるようになっている。 
[近接物体が移動している場合等における差分画像指先抽出処理例] 
 次に、図15~図21を参照して、本発明の特徴的部分の1つである、近接物体が移動している場合等における差分画像指先抽出処理について、比較例と比較しつつ説明する。 
 まず、図15および図16に示した比較例では、図15中の矢印で示したように、I/Oディスプレイパネル20の表示エリア21上で近接物体が移動している状態のとき、以下の問題が生じている。すなわち、影画像A101における受光出力信号Voff(A101)と反射光利用画像B101における受光出力信号Von(B101)との間で、近接物体に対応する部分に位置ずれが生じている。そして、このような位置のため、これら2つの画像A101,B101の差分画像C101(=B101-A101)およびその受光検出信号V(C101)(=Von(B101)-Voff(A101))において、物体の位置に対応する本来の信号の他に、別の位置に偽信号F101が生じてしまっている。よって、このような偽信号F101の存在により、近接物体を安定して検出するのが困難となってしまう。 
 これに対して本実施の形態では、画像処理部14は、メインセンサ32により得られる撮像画像と、補助センサ33により得られる撮像画像とに基づく合成画像を用いて、近接物体の物体情報を取得する。具体的には、受光ドライブ回路13は、反射光利用画像Bと影画像Aとの差分画像C(=B-A)を、メインセンサ32および補助センサ33のそれぞれに対応して生成する。そして、画像処理部14は、メインセンサ32により得られる反射光利用画像MBと影画像MAとの差分画像MC(=MB-MA;第1の差分画像)と、補助センサ33により得られる反射光利用画像HBと影画像HAとの差分画像HC(=HB-HA;第2の差分画像)とに基づく合成画像Fを用いて、物体情報を取得する。 
 より具体的には、メインセンサ32による撮像画像では、例えば図17および図18に示したようにして、差分画像MCが生成される。すなわち、メインセンサ32は、検出光の波長領域Δλ23を受光波長領域として含んでいるため、例えば近接物体がI/Oディスプレイパネル20の表示エリア21上で動いている場合、差分画像MCでは、比較例と同様に、近接物体の検出信号の他に、偽信号F101が発生する。言い換えると、画像MA,MBの差分画像MC(=MB-MA)およびその受光検出信号V(MC)(=Von(MB)-Voff(MA))において、物体の位置に対応する本来の信号の他に、別の位置に偽信号F101が生じる。 
 一方、補助センサ33による撮像画像では、例えば図19および図20に示したようにして、差分画像HCが生成される。すなわち、補助センサ33では、検出光の波長領域における受光感度が第1の受光素子よりも低くなっている(ここでは、0となっている)ため、差分画像HCでは、メインセンサ32の場合と同様に偽信号F101が発生する一方、近接物体の検出信号の発生が抑えられる(ここでは、回避される)。言い換えると、画像HA,HBの差分画像HC(=HB-HA)およびその受光検出信号V(HC)(=Von(HB)-Voff(HA))において、偽信号F101が発生する一方、物体の位置に対応する本来の信号の発生が抑えられる(ここでは、回避される)。 
 次に、受光ドライブ回路13は、例えば図21に示したように、補助センサ33により得られる差分画像HCに基づいて所定のマスク画像Eを生成する。また、受光ドライブ回路13は、メインセンサ32により得られる差分画像MCと、生成されたマスク画像Eとの論理積を取ることにより、これらの合成画像Fを生成する。そして、画像処理部14は、この合成画像Fを用いて、近接物体の物体情報を取得する。この際、受光ドライブ回路13は、差分画像HCに対し、例えば2値化処理および画像反転処理を施すことにより、マスク画像Eを生成することができる。具体的には、2値化処理としては、差分画像HCの中で、ある値(閾値)以上の受光信号を偽信号とみなし、偽信号の部分をマスクする画像に変換するようにすればよい。
 ここで、閾値以上の信号を偽信号とするのは、パネルに乗ったノイズの影響を排除することと、補助センサ33の性能によっては、完全に分光特性が分離できず、わずかに検出信号が補助センサ33側の差分画像HCにも現れることがあるからである。この補助センサ33への検出信号の漏れこみを最小限にするのが、本方式の性能を向上することとなる。具体的には、検出光の波長領域Δλ23を限定すると共に、補助センサ33では、検出光の波長領域Δλ23に対する感度をできる限り低く設計する。また、補助センサ33は外光により発生する偽信号を検出するものであるため、外光に対する感度を、検出光の波長感度より相対的に高めることで、性能を上げることにつながる。 
 なお、このようなマスク画像Eを用いて合成画像Fを生成する方法の他に、例えば、差分画像MCと差分画像HCとの差分画像(=MC-HC)を、合成画像Fとして用いるようにしてもよい。 
 このようにして、メインセンサ32により得られる差分画像MCと、補助センサ33により得られる差分画像HCとに基づく合成画像Fを用いて、物体情報が取得される。これにより、例えば近接物体がI/Oディスプレイパネル20の表示エリア21上で動いているような場合であっても、合成画像Fにおける偽信号の発生が抑えられる(または回避される)。 
 以上のように本実施の形態では、I/Oディスプレイパネル20の表示エリア21内に、近接物体を検出するための検出光の波長領域Δλ23を受光波長領域として含む複数のメインセンサ32を設けている。また、この検出光の波長領域における受光感度がメインセンサ32よりも低くなっている複数の補助センサ33を設けている。そして、メインセンサ32により得られる差分画像MCと、補助センサ33により得られる差分画像HCとに基づく合成画像Fを用いて、近接物体の物体情報を取得するようにしている。よって、例えば近接物体がI/Oディスプレイパネル20の表示エリア21上で動いているような場合であっても、合成画像Fにおける偽信号の発生を抑えることができ、使用状況によらずに物体を安定して検出することが可能となる。また、あらゆる偽信号発生パターンに対して原理的に対応することが可能であるため、全ての外光条件で良好に作動させることが可能である。 
 以下、本発明の変形例をいくつか挙げて説明する。なお、上記実施の形態における構成要素と同一のものには同一の符号を付し、適宜説明を省略する。 
(変形例1) 
 図22および図23は、変形例1に係る差分画像指先抽出処理を表すものである。 
 本変形例では、例えば図22および図23に示したように、受光ドライブ回路13は、メインセンサ32により得られる反射光利用画像MBと、補助センサ33により得られる反射光利用画像HBとの差分画像MHC(=MB-HB)に基づいて、物体情報を取得する。 
 これにより、上記実施の形態と同様に、使用状況によらずに物体を安定して検出することが可能となる。 
(変形例2)  
 図24は、変形例2に係る差分画像指先抽出処理を表すものである。本変形例では、画像処理部14は、差分画像MCの生成処理と、差分画像HCの生成処理とを、メインセンサ32および補助センサ33の単位での逐次処理により行うようになっている。 
 具体的には、本変形例では、図24に示したように、表示エリア21上において、メインセンサ32および補助センサ33はそれぞれ、1対1の割合で交互に配置されている。また、差分画像MCおよび差分画像HCはそれぞれ、複数の差分画素値m0,h1,m2,h3,m4,h5,…により構成されている。 
 そして、受光ドライブ回路13は、上記逐次処理を行う際に、各メインセンサ32に隣接する補助センサ33により得られる差分画素値が所定の閾値Vth(H)以上の場合には、そのメインセンサ32における差分画素値を0(ゼロ)とみなして出力する。 
 一方、各メインセンサ32に隣接する補助センサ33により得られる差分画素値が上記閾値Vth(H)未満の場合には、そのメインセンサ32における実際の差分演算結果を、差分画素値として出力する。これにより、上記実施の形態で説明したマスク画像Eを用いたマスク処理と等価な処理を行うことができる。 
 このようにして本変形例では、特にフレームメモリを補助センサ33用やメインセンサ32用に持つことなく、かつ高速に処理結果を得ることができる。 
(変形例3) 
 図25は、変形例3に係る差分画像指先抽出処理を表すものである。本変形例では、実際にはより精密な結果を得るために、補助センサ33側およびメインセンサ32側ともに、補間処理を組み合わせて変形例2の処理を行うようにしたものである。 
 具体的には、受光ドライブ回路13は、上記逐次処理を行う際に、各補助センサ33に対応する位置におけるメインセンサ32の差分画素値を、補間生成する。また、各メインセンサ32に対応する位置における補助センサ33の差分画素値を、補間生成する。そして、これらの補間生成された差分画素値をも考慮して、閾値との比較結果に応じた逐次処理を行うようになっている。 
 これにより、正確に補助センサとメインセンサの対応が取られ、理想的な処理結果を得ることができる。この方法においても、1~2センサ分の処理結果を持っておくことだけで、特別にフレームメモリを用意する必要はない。また、処理遅延もセンサごとの処理のため、数センサ分の遅延で収まり極めて高速である。 
 なお、本変形例では、メインセンサ32および補助センサ33はそれぞれ、例えば図4(A),(B)に示したように、表示エリア21上において、1対1の割合で交互に配置されているのが好ましい。 
(アプリケーションプログラムの実行例) 
 次に、図26~図29を参照して、これまで説明した指先抽出処理によって検出された物体の位置情報等を利用した、アプリケーションプログラム実行部11によるアプリケーションプログラム実行例について、いくつか説明する。 
 まず、図26(A)に示した例は、I/Oディスプレイパネル20の表面を指先61で触れて、その触れた個所の軌跡を描画ライン611として画面に表示させるようにした例である。 
 また、図26(B)に示した例は、手の形を用いたジェスチャ認識のものである。具体的には、I/Oディスプレイパネル20に触れた(または近接した)手62の形状を認識して、その認識した手の形を画像として表示させ、その表示オブジェクトの移動621で、何らかの処理を行うようにしたものである。 
 また、図27に示した例は、閉じた状態の手63Aから、開いた状態の手63Bに変化させて、それぞれの状態の手の接触または近接をI/Oディスプレイパネル20で画像認識させて、その画像認識に基づいた処理を実行させるようにしたものである。これらの認識に基づいて処理を行うことで、例えばズームインなどの指示を行うことができる。また、このような指示ができることで、例えばI/Oディスプレイパネル20をパーソナルコンピュータ装置に接続して、そのコンピュータ装置上でコマンドを切り替えている操作などを、これらの画像認識で、より自然な形で入力することができる。 
 また、例えば図28に示したように、I/Oディスプレイパネル20を複数台用意して、その複数台のI/Oディスプレイパネル20を何らかの伝送手段で接続するようにしてもよい。そして、接触または近接を検出した画像を、相手のI/Oディスプレイパネル20に伝送して表示させて、両ディスプレイパネルを操作するユーザ間でコミュニケーションをとるようにしてもよい。すなわち、2つのI/Oディスプレイパネル20を用意して、一方のパネルで画像認識した手65の手形を相手に送信し、他方のパネルに手形642を表示させたり、他方のパネルを手64で触れて表示された軌跡641を、相手のパネルに送って表示させる等の処理が可能になる。このようにして、描画している状態が動画で伝達され、手書きの文字や図形などを相手に送ることで、新しいコミュニケーションツールの可能性がある。このような例としては、例えば、I/Oディスプレイパネル20を携帯電話端末の表示パネルに適用すること等が想定される。 
 また、例えば図29に示したように、筆66を使用してI/Oディスプレイパネル20の表面で文字を書くように触れさせて、その筆66が触れた個所をI/Oディスプレイパネル20に画像661として表示させることで、毛筆による手書きの入力が可能になる。この場合には、毛筆の細かいタッチまで認識して実現することが可能である。従来の手書き認識の場合には、例えば一部のデジタイザにおいて、特殊なペンの傾きを電界検出で実現していたが、本例では、本物の毛筆の接触面そのものを検知することにより、より現実的な感覚で情報入力を行うことができる。 
(モジュールおよび適用例) 
 次に、図30~図34を参照して、上記実施の形態および変形例で説明した表示撮像装置の適用例について説明する。上記実施の形態等の表示撮像装置は、テレビジョン装置,デジタルカメラ,ノート型パーソナルコンピュータ、携帯電話等の携帯端末装置あるいはビデオカメラなどのあらゆる分野の電子機器に適用することが可能である。言い換えると、上記実施の形態等の表示撮像装置は、外部から入力された映像信号あるいは内部で生成した映像信号を、画像あるいは映像として表示するあらゆる分野の電子機器に適用することが可能である。なお、以下に示した電子機器の他にも、例えば、検出光による反射成分のみを取り出すという本発明の特徴を活かして、監視カメラのような応用も考えられる。 
(適用例1) 
 図30は、上記実施の形態等の表示撮像装置が適用されるテレビジョン装置の外観を表したものである。このテレビジョン装置は、例えば、フロントパネル511およびフィルターガラス512を含む映像表示画面部510を有しており、この映像表示画面部510は、上記実施の形態等に係る表示撮像装置により構成されている。 
(適用例2)  
 図31は、上記実施の形態等の表示撮像装置が適用されるデジタルカメラの外観を表したものである。このデジタルカメラは、例えば、フラッシュ用の発光部521、表示部522、メニュースイッチ523およびシャッターボタン524を有しており、その表示部522は、上記実施の形態等に係る表示撮像装置により構成されている。 
(適用例3) 
 図32は、上記実施の形態等の表示撮像装置が適用されるノート型パーソナルコンピュータの外観を表したものである。このノート型パーソナルコンピュータは、例えば、本体531,文字等の入力操作のためのキーボード532および画像を表示する表示部533を有しており、その表示部533は、上記実施の形態等に係る表示撮像装置により構成されている。 
(適用例4) 
 図33は、上記実施の形態等の表示撮像装置が適用されるビデオカメラの外観を表したものである。このビデオカメラは、例えば、本体部541,この本体部541の前方側面に設けられた被写体撮影用のレンズ542,撮影時のスタート/ストップスイッチ543および表示部544を有している。そして、その表示部544は、上記実施の形態等に係る表示撮像装置により構成されている。 
(適用例5) 
 図34は、上記実施の形態等の表示撮像装置が適用される携帯電話機の外観を表したものである。この携帯電話機は、例えば、上側筐体710と下側筐体720とを連結部(ヒンジ部)730で連結したものであり、ディスプレイ740,サブディスプレイ750,ピクチャーライト760およびカメラ770を有している。そのディスプレイ740またはサブディスプレイ750は、上記実施の形態等に係る表示撮像装置により構成されている。 
 以上、実施の形態、変形例および適用例を挙げて本発明を説明したが、本発明はこれらの実施の形態等に限定されるものではなく、種々の変形が可能である。 
 例えば、上記実施の形態等では、例えば図35(A)に示したように、波長領域Δλ12(波長λ1~波長λ2の波長領域)や波長領域Δλ34(波長λ3~波長λ4の波長領域)が、メインセンサ32および補助センサ33の両方による受光波長領域となっている。ただし、発明が適用されるのは、これには限られない。すなわち、例えば図35(B)に示したように、メインセンサ32の受光波長領域と、補助センサ33の受光波長領域とが、互いに分離しているようにしてもよく、このようにするのが好ましいといえる。なお、図35(A),(B)ではそれぞれ、実線の矢印で示したメインセンサ32の受光波長領域以外の波長領域では、このメインセンサ32の受光感度は0(ゼロ)となっている。同様に、破線の矢印で示した補助センサ33の受光波長領域以外の波長領域では、この補助センサ33の受光感度は0(ゼロ)となっている。すなわち、図35(B)では、メインセンサ32の受光波長領域において補助センサ33の受光感度が0(ゼロ)となっていると共に、補助ンセンサ33の受光波長領域においてメインセンサ32の受光感度が0(ゼロ)となっており、これにより、上記したようにこれら2つのセンサにおける受光波長領域が互いに分離している(異なっている)。
 また、上記実施の形態等では、バックライト15を備えた液晶パネルからなるI/Oディスプレイパネル20の場合で説明したが、表示用のバックライトが検出光を兼ねてもよいし、検出専用の照射光源を設けてもよい。また、検出専用の照射光源を設ける場合には、可視光領域以外の波長領域の光(例えば、赤外光)を用いるのがより好ましい。 
 また、上記実施の形態では、I/Oディスプレイパネル20において、表示素子が液晶素子であると共に受光素子を別個に設ける場合で説明したが、本発明が適用されるのは、これには限られない。具体的には、例えば図36~図38に示した他の変形例に係る表示撮像装置のように、有機EL(ElectroLuminescence)素子等の発光動作と受光動作とを時分割に行うことが可能な発光受光素子(表示撮像素子)により、I/Oディスプレイパネル(I/Oディスプレイパネル60)を構成するようにしてもよい。
 図36は、本変形例に係る表示撮像装置の構成例をブロック図で表したものである。この表示撮像装置は、I/Oディスプレイパネル60と、表示ドライブ回路82と、フレームメモリ83Aを有する受光ドライブ回路83と、画像処理部84と、アプリケーションプログラム実行部81とを備えている。これらのうち、表示ドライブ回路82、フレームメモリ83A、受光ドライブ回路83、画像処理部84およびアプリケーションプログラム実行部81については、上記実施の形態で説明した表示ドライブ回路12、フレームメモリ13A、受光ドライブ回路13、画像処理部14およびアプリケーションプログラム実行部11と同様の動作を行うものであるため、説明を省略する。
 I/Oディスプレイパネル60は、上記したように、有機EL素子を用いた有機ELディスプレイとして構成されており、表示エリア(センサエリア)に、複数の画素(表示撮像素子)がマトリクス状に形成されている。そして、ここでは、発光素子(表示素子)および受光素子(撮像素子:前述のメインセンサ)として機能する有機EL素子を含む画素と、発光素子(表示素子)および受光素子(撮像素子:前述の補助センサ)として機能する有機EL素子を含む画素とがそれぞれ、例えばマトリクス状に配置されている。このI/Oディスプレイパネル60では、受光期間において受光光量に対応して蓄積された信号電荷が、受光ドライブ回路83による受光駆動によって読み出されるようになっている。
 図37は、図36に示した表示撮像装置における各画素の回路構成例(画素回路の構成例)を表したものである。この画素回路は、有機EL素子91と、この有機EL素子91の寄生容量91Aと、スイッチSW1~SW3と、表示データ信号線92と、読み出しライン選択線93と、受信データ信号線94とから構成されている。この画素回路では、表示期間(発光期間)においてスイッチSW1がオン状態に設定されると、画像表示のための表示データが、表示データ信号線92からスイッチSW1を介して有機EL素子91へ供給され、有機EL素子91が発光動作を行う。一方、有機EL素子91において発光動作が停止している期間(受光期間)には、センサエリアへの入射光量に応じて、有機EL素子91に生じた寄生容量91Aに、電荷が蓄積する。そして、その蓄積した電荷は、読み出しライン選択線93から得られる信号による制御に応じてスイッチSW2がオン状態に設定されることにより、受信データ信号線94へと読み出される。なお、受光期間の開始時には、リセット用のスイッチSW3を一瞬オン状態に設定することにより、寄生容量91Aにおいて発光時に蓄積した電荷を放出させる必要がある。
 図38は、図36および図37に示した表示撮像装置における差分画像指先抽出処理について説明するためのものである。具体的には、上記した有機EL素子を用いたI/Oディスプレイパネル60において、画像などを表示させながら、そのI/Oディスプレイパネル60に接触または近接する物体(指f)の検出処理を行う場合の例を示している。ここでは、発光領域が、1画面中における特定の複数の水平ラインにより構成されている。そして、このような発光領域が、1フィールド期間内において例えば図中の矢印で示したスキャン方向に移動することにより、残像効果によって1画面全体で表示されているように見えることになる。
 一方、受光信号の読み出し動作については、発光領域内に位置する読み出しラインと、この発光領域からある程度上下に離れて位置する読み出しラインとによる読み出し動作を、発光領域の移動に連動して順次行うようにする。具体的には、発光領域内の読み出しラインでは、発光領域からの光の反射光を検出できる読み出し動作となるため、図38に示したように、自発光ON状態の読み取りデータ(画像B4:反射光利用画像Bに対応)となる。一方、発光領域からある程度上下に離れて位置する読み出しラインでは、発光領域からの発光の影響を受けない読み出し動作となるため、図38に示したように、自発光OFF状態の読み取りデータ(画像A41,A42(以下、画像A4とする):影画像Aに対応)となる。したがって、本変形例では、これらの差分画像C4(=B4-A4)に基づいて、近接物体(指f)を検出するようにすればよい。このように構成した場合でも、上記実施の形態と同様の効果を得ることが可能である。 
 さらに、上記実施の形態等では、複数の表示素子と複数の撮像素子とを含む表示撮像パネル(I/Oディスプレイパネル20)を有する表示撮像装置について説明したが、本発明が適用されるのは、これには限られない。具体的には、本発明は、例えば、表示素子を設けずに、複数の撮像素子を含む撮像パネルを有するようにした撮像装置にも適用することが可能である。

Claims (20)

  1.  複数の第1および第2の受光素子と、近接物体を検出するための所定の波長領域の検出光を含む光を発する照射光源とを有する撮像パネルと、
     前記撮像パネルによって前記近接物体を撮像した信号を画像処理し、その近接物体の位置、形状または大きさの少なくとも1つを含む物体情報を取得する画像処理部と
     を備え、
     前記第1の受光素子は、その受光波長領域に前記検出光の波長領域を含んでおり、
     前記第2の受光素子は、前記検出光の波長領域における受光感度が、前記第1の受光素子よりも低くなっており、
     前記画像処理部は、前記第1および第2の受光素子から得られる信号を処理して前記物体情報を取得する
     撮像装置。
  2.  前記第2の受光素子は、受光波長に対し前記第1の受光素子と異なる受光感度特性を有する
     請求項1に記載の撮像装置。
  3.  前記第1の受光素子は、前記検出光の波長領域における受光感度が、この波長領域と異なる所定の波長領域における受光感度より高くなっており、
     前記第2の受光素子は、前記検出光の波長領域における受光感度が、前記所定の波長領域における受光感度より低くなっている
     請求項2に記載の撮像装置。
  4.  前記画像処理部は、前記第1の受光素子により得られる撮像画像と、前記第2の受光素子により得られる撮像画像とに基づく合成画像を用いて、前記物体情報を取得する
     請求項1に記載の撮像装置。
  5.  前記検出光による反射光を利用して前記撮像パネルによって前記近接物体を撮像して得られる反射光利用画像と、前記撮像パネルによって前記近接物体の影を撮像して得られる影画像との差分画像を、前記第1および第2の受光素子のそれぞれに対応して生成する画像生成部を備え、
     前記画像処理部は、前記第1の受光素子により得られる前記反射光利用画像と前記第1の受光素子により得られる前記影画像との差分画像に対応する第1の差分画像と、前記第2の受光素子により得られる前記反射光利用画像と前記第2の受光素子により得られる前記影画像との差分画像に対応する第2の差分画像とに基づく合成画像を用いて、前記物体情報を取得する
     請求項4に記載の撮像装置。
  6.  前記画像生成部は、前記第2の差分画像に基づいて所定のマスク画像を生成し、
     前記画像処理部は、前記第1の差分画像と前記マスク画像との合成画像を用いて、前記物体情報を取得する
     請求項5に記載の撮像装置。
  7.  前記画像生成部は、前記第2の差分画像に対して2値化処理および画像反転処理を施すことにより、前記マスク画像を生成する
     請求項5に記載の撮像装置。
  8.  前記画像処理部は、前記第1の差分画像と前記第2の差分画像との差分画像を用いて、前記物体情報を取得する
     請求項5に記載の撮像装置。
  9.  前記画像生成部は、前記第1の差分画像の生成処理と、前記第2の差分画像の生成処理とを、前記第1および第2の受光素子単位の逐次処理により行う
     請求項5に記載の撮像装置。
  10.  前記撮像パネルにおいて、前記第1の受光素子と前記第2の受光素子とが、1対1の割合で交互に配置されている
     請求項9に記載の撮像装置。
  11.  前記第1の差分画像が、複数の第1の差分画素値により構成されると共に、前記第2の差分画像が、複数の第2の差分画素値により構成され、
     前記画像生成部は、前記逐次処理を行う際に、
     各第1の受光素子に隣接する第2の受光素子により得られる前記第2の差分画素値が所定の閾値以上の場合には、その第1の受光素子における前記第1の差分画素値を0(ゼロ)とみなして出力し、
     各第1の受光素子に隣接する第2の受光素子により得られる前記第2の差分画素値が前記閾値未満の場合には、その第1の受光素子における実際の差分演算結果を前記第1の差分画素値として出力する
     請求項10に記載の撮像装置。
  12.  前記画像生成部は、前記逐次処理を行う際に、
     各第2の受光素子に対応する位置における前記第1の差分画素値を、第1の補間差分画素値として補間生成すると共に、
     各第1の受光素子に対応する位置における前記第2の差分画素値を、第2の補間差分画素値として補間生成し、
     前記第1および第2の補間差分画素値をも考慮して、前記閾値との比較結果に応じた逐次処理を行う
     請求項11に記載の撮像装置。
  13.  前記画像処理部は、前記検出光による反射光を利用して前記複数の第1の受光素子によって前記近接物体を撮像して得られる反射光利用画像と、前記検出光による反射光を利用して前記複数の第2の受光素子によって前記近接物体を撮像して得られる反射光利用画像との差分画像に基づいて、前記物体情報を取得する
     請求項1に記載の撮像装置。
  14.  前記第2の受光素子において、前記検出光の波長領域における受光感度が0(ゼロ)となっている
     請求項1に記載の撮像装置。
  15.  前記第1の受光素子の受光波長領域と、前記第2の受光素子の受光波長領域とが、互いに分離している
     請求項14に記載の撮像装置。
  16.  前記検出光が赤外光であり、
     前記第1の受光素子は、前記赤外光の波長領域を受光波長領域として含んでおり、
     前記第2の受光素子は、可視光の波長領域を受光波長領域として含んでいる
     請求項1に記載の撮像装置。
  17.  複数の表示素子と、複数の第1および第2の受光素子とを有し、近接物体を検出するための所定の波長領域の検出光を含む光を発する表示撮像パネルと、
     前記表示撮像パネルによって前記近接物体を撮像した信号を画像処理し、その近接物体の位置、形状または大きさの少なくとも1つを含む物体情報を取得する画像処理部と
     を備え、
     前記第1の受光素子は、その受光波長領域に前記検出光の波長領域を含んでおり、
     前記第2の受光素子は、前記検出光の波長領域における受光感度が、前記第1の受光素子よりも低くなっており、
     前記画像処理部は、前記第1および第2の受光素子から得られる信号を処理して前記物体情報を取得する
     表示撮像装置。
  18.  前記表示撮像パネルは、前記検出光を含む光を発する照射光源を有する
     請求項17に記載の表示撮像装置。
  19.  前記表示素子が、前記検出光を含む光を発する
     請求項17に記載の表示撮像装置。
  20.  画像表示機能および撮像機能を有する表示撮像装置を備え、
     前記表示撮像装置は、
     複数の表示素子と、複数の第1および第2の受光素子とを有し、近接物体を検出するための所定の波長領域の検出光を含む光を発する表示撮像パネルと、
     前記表示撮像パネルによって前記近接物体を撮像した信号を画像処理し、その近接物体の位置、形状または大きさの少なくとも1つを含む物体情報を取得する画像処理部と
     を有し、
     前記第1の受光素子は、その受光波長領域に前記検出光の波長領域を含んでおり、
     前記第2の受光素子は、前記検出光の波長領域における受光感度が、前記第1の受光素子よりも低くなっており、
     前記画像処理部は、前記第1および第2の受光素子から得られる信号を処理して前記物体情報を取得する
     電子機器。
PCT/JP2009/067784 2008-10-21 2009-10-14 撮像装置、表示撮像装置および電子機器 WO2010047256A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US12/809,810 US8514201B2 (en) 2008-10-21 2009-10-14 Image pickup device, display-and-image pickup device, and electronic device
CN2009801014386A CN101903853B (zh) 2008-10-21 2009-10-14 图像拾取装置、显示及图像拾取装置和电子装置
BRPI0906069-3A BRPI0906069A2 (pt) 2008-10-21 2009-10-14 Dispositivo de captação de imagem, de exibição e captação de imagem e eletrônico.
JP2010534775A JP5300859B2 (ja) 2008-10-21 2009-10-14 撮像装置、表示撮像装置および電子機器
EP09821953.8A EP2343633A4 (en) 2008-10-21 2009-10-14 IMAGE CAPTURE DEVICE, IMAGE DISPLAY AND CAPTURE DEVICE, AND ELECTRONIC APPARATUS

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-271349 2008-10-21
JP2008271349 2008-10-21

Publications (1)

Publication Number Publication Date
WO2010047256A1 true WO2010047256A1 (ja) 2010-04-29

Family

ID=42119297

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/067784 WO2010047256A1 (ja) 2008-10-21 2009-10-14 撮像装置、表示撮像装置および電子機器

Country Status (9)

Country Link
US (1) US8514201B2 (ja)
EP (1) EP2343633A4 (ja)
JP (1) JP5300859B2 (ja)
KR (1) KR20110074488A (ja)
CN (1) CN101903853B (ja)
BR (1) BRPI0906069A2 (ja)
RU (1) RU2456659C2 (ja)
TW (1) TW201027408A (ja)
WO (1) WO2010047256A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012008541A (ja) * 2010-05-28 2012-01-12 Semiconductor Energy Lab Co Ltd 光検出装置
JP2012044143A (ja) * 2010-08-20 2012-03-01 Samsung Electronics Co Ltd センサアレイ基板、これを含む表示装置およびこれの製造方法
WO2022085406A1 (ja) * 2020-10-19 2022-04-28 ソニーセミコンダクタソリューションズ株式会社 撮像素子、及び電子機器

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5093523B2 (ja) * 2007-02-23 2012-12-12 ソニー株式会社 撮像装置、表示撮像装置および撮像処理装置
JP2012053840A (ja) * 2010-09-03 2012-03-15 Toshiba Tec Corp 光学式タッチデバイス
GB201110159D0 (en) * 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch sensitive display devices
JP5128699B1 (ja) * 2011-09-27 2013-01-23 シャープ株式会社 配線検査方法および配線検査装置
US10019112B2 (en) * 2011-10-25 2018-07-10 Semiconductor Components Industries, Llc Touch panels with dynamic zooming and low profile bezels
RU2548923C2 (ru) * 2013-02-07 2015-04-20 Открытое акционерное общество "АНГСТРЕМ" Устройство для измерения координат
WO2019100329A1 (zh) * 2017-11-24 2019-05-31 深圳市汇顶科技股份有限公司 背景去除方法、影像模块及光学指纹辨识系统
EP3585047B1 (de) * 2018-06-20 2021-03-24 ZKW Group GmbH Verfahren und vorrichtung zur erstellung von hochkontrastbildern
JP2020136361A (ja) * 2019-02-14 2020-08-31 ファスフォードテクノロジ株式会社 実装装置および半導体装置の製造方法
WO2020196196A1 (ja) * 2019-03-26 2020-10-01 ソニー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
CN112001879B (zh) * 2019-06-18 2023-07-14 杭州美盛红外光电技术有限公司 气体检测装置和气体检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004127272A (ja) 2002-09-10 2004-04-22 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2006018219A (ja) * 2004-05-31 2006-01-19 Toshiba Matsushita Display Technology Co Ltd 画像取込機能付き表示装置
JP2006276223A (ja) 2005-03-28 2006-10-12 Sony Corp 表示装置及び表示方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3321053B2 (ja) * 1996-10-18 2002-09-03 株式会社東芝 情報入力装置及び情報入力方法及び補正データ生成装置
JP3967083B2 (ja) * 2000-03-22 2007-08-29 株式会社東芝 半導体受光素子
JP2002176192A (ja) * 2000-09-12 2002-06-21 Rohm Co Ltd 照度センサチップ、照度センサ、照度測定装置、および照度測定方法
JP2003337657A (ja) * 2002-03-13 2003-11-28 Toto Ltd 光学式タッチパネル装置
US7265740B2 (en) * 2002-08-30 2007-09-04 Toshiba Matsushita Display Technology Co., Ltd. Suppression of leakage current in image acquisition
JP3715616B2 (ja) * 2002-11-20 2005-11-09 Necディスプレイソリューションズ株式会社 液晶表示装置及び該装置のコモン電圧設定方法
JP2005275644A (ja) * 2004-03-24 2005-10-06 Sharp Corp 液晶表示装置
CN100394463C (zh) * 2004-05-31 2008-06-11 东芝松下显示技术有限公司 配备图像获取功能的显示装置
US7684029B2 (en) * 2004-10-29 2010-03-23 Avago Technologies General Ip (Singapore) Pte. Ltd. Method and apparatus for identifying a sensed light environment
TWI274505B (en) * 2005-01-14 2007-02-21 Primax Electronics Ltd Scanning method for scanning apparatus
JP4645822B2 (ja) * 2005-04-19 2011-03-09 ソニー株式会社 画像表示装置および物体の検出方法
US8970501B2 (en) * 2007-01-03 2015-03-03 Apple Inc. Proximity and multi-touch sensor detection and demodulation
JP4932526B2 (ja) * 2007-02-20 2012-05-16 株式会社 日立ディスプレイズ 画面入力機能付き画像表示装置
RU2008100299A (ru) * 2008-01-15 2008-08-10 Александр Виль мович Казакевич (RU) Способ ввода информации виртуальным стилусом

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004127272A (ja) 2002-09-10 2004-04-22 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2006018219A (ja) * 2004-05-31 2006-01-19 Toshiba Matsushita Display Technology Co Ltd 画像取込機能付き表示装置
JP2006276223A (ja) 2005-03-28 2006-10-12 Sony Corp 表示装置及び表示方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2343633A4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012008541A (ja) * 2010-05-28 2012-01-12 Semiconductor Energy Lab Co Ltd 光検出装置
JP2015181022A (ja) * 2010-05-28 2015-10-15 株式会社半導体エネルギー研究所 光検出装置、及び、タッチパネル
JP2016192222A (ja) * 2010-05-28 2016-11-10 株式会社半導体エネルギー研究所 光検出装置、タッチパネル
US9846515B2 (en) 2010-05-28 2017-12-19 Semiconductor Energy Laboratory Co., Ltd. Photodetector and display device with light guide configured to face photodetector circuit and reflect light from a source
JP2012044143A (ja) * 2010-08-20 2012-03-01 Samsung Electronics Co Ltd センサアレイ基板、これを含む表示装置およびこれの製造方法
WO2022085406A1 (ja) * 2020-10-19 2022-04-28 ソニーセミコンダクタソリューションズ株式会社 撮像素子、及び電子機器

Also Published As

Publication number Publication date
CN101903853A (zh) 2010-12-01
JPWO2010047256A1 (ja) 2012-03-22
EP2343633A4 (en) 2013-06-12
US8514201B2 (en) 2013-08-20
RU2456659C2 (ru) 2012-07-20
EP2343633A1 (en) 2011-07-13
RU2010125277A (ru) 2011-12-27
JP5300859B2 (ja) 2013-09-25
TW201027408A (en) 2010-07-16
CN101903853B (zh) 2013-08-14
US20100271336A1 (en) 2010-10-28
BRPI0906069A2 (pt) 2015-06-30
KR20110074488A (ko) 2011-06-30

Similar Documents

Publication Publication Date Title
WO2010047256A1 (ja) 撮像装置、表示撮像装置および電子機器
JP4915367B2 (ja) 表示撮像装置および物体の検出方法
US9703403B2 (en) Image display control apparatus and image display control method
JP4835578B2 (ja) 表示撮像装置、物体検出プログラムおよび物体の検出方法
US8610670B2 (en) Imaging and display apparatus, information input apparatus, object detection medium, and object detection method
TWI470507B (zh) 具可切換漫射器的互動式平面電腦
JP4270248B2 (ja) 表示撮像装置、情報入力装置、物体検出プログラムおよび物体の検出方法
JP5424475B2 (ja) 情報入力装置、情報入力方法、情報入出力装置、情報入力プログラムおよび電子機器
JP5093523B2 (ja) 撮像装置、表示撮像装置および撮像処理装置
JP5481127B2 (ja) センサ素子およびその駆動方法、センサ装置、ならびに入力機能付き表示装置および電子機器
TWI387903B (zh) 顯示裝置
CN106201118B (zh) 触控及手势控制系统与触控及手势控制方法
US11863855B2 (en) Terminal device and image capturing method
JP4270247B2 (ja) 表示撮像装置、物体検出プログラムおよび物体の検出方法
EP2717568A2 (en) Imaging device and method
JP5392656B2 (ja) 情報入力装置、情報入出力装置および電子機器
JP2010119064A (ja) 色検出装置、色検出プログラム及びコンピュータ読み取り可能な記録媒体、並びに色検出方法
JP4788755B2 (ja) 表示撮像装置、物体検出プログラムおよび物体の検出方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980101438.6

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2010534775

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09821953

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2009821953

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20107013472

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2010125277

Country of ref document: RU

Ref document number: 4402/DELNP/2010

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 12809810

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: PI0906069

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20100614