WO2016063392A1 - 投影装置及び画像処理プログラム - Google Patents

投影装置及び画像処理プログラム Download PDF

Info

Publication number
WO2016063392A1
WO2016063392A1 PCT/JP2014/078176 JP2014078176W WO2016063392A1 WO 2016063392 A1 WO2016063392 A1 WO 2016063392A1 JP 2014078176 W JP2014078176 W JP 2014078176W WO 2016063392 A1 WO2016063392 A1 WO 2016063392A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
color
projection
projection information
superimposed
Prior art date
Application number
PCT/JP2014/078176
Other languages
English (en)
French (fr)
Inventor
英敏 鈴木
裕幸 前川
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to JP2016555016A priority Critical patent/JP6454925B2/ja
Priority to PCT/JP2014/078176 priority patent/WO2016063392A1/ja
Publication of WO2016063392A1 publication Critical patent/WO2016063392A1/ja
Priority to US15/490,706 priority patent/US20170223319A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/066Adjustment of display parameters for control of contrast
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/145Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light originating from the display screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed

Definitions

  • the present invention relates to a projection apparatus and an image processing program.
  • Patent Document 1 when the displayed projection image is superimposed on other information, depending on the color on which the other information is displayed, it is difficult to determine the color of the superimposed projected image.
  • the problem that the visual recognizability (hereinafter also referred to as “visibility”) is not solved.
  • an object of the present invention is to ensure the visibility of projection information when projection information is projected on an object.
  • the acquisition unit that acquires the color information of the object from the captured image of the object placed on the placement surface, and the information stored in association with the information included in the specified range of the object
  • a projection unit that projects projection information onto the mounting surface
  • a detection unit that detects whether the projection information is superimposed on the object, and a case where it is detected that the projection information is superimposed on the object
  • the color of the superimposed projection information is changed to a color different from the color of the object
  • a changing unit that changes the color information of the object from the captured image of the object placed on the placement surface, and the information stored in association with the information included in the specified range of the object
  • FIG. 1 is a diagram showing an example of the overall configuration of a projection apparatus according to an embodiment.
  • the figure which shows an example of the projection color information database concerning one Embodiment. 6 is a flowchart illustrating an example of a processing process for projected color according to the first embodiment.
  • the figure for demonstrating the other example of the process of the projection color concerning one Embodiment. 10 is a flowchart illustrating an example of a processing process for projected color according to the second embodiment.
  • the projection device 1 includes an input / output device 10 and a control device 30.
  • the input / output device 10 and the control device 30 are connected via a network 35.
  • the input / output device 10 includes a housing 10a, projectors 11, two position detection cameras 12, and an imaging camera 13.
  • the projector 11 and the two position detection cameras 12 and the imaging camera 13 are attached to the ceiling of the housing 10a.
  • the projector 11 is attached downward in the center of the inner wall side of the ceiling portion of the casing 10a.
  • the projector 11 projects desired projection information on the mounting table 20.
  • the two position detection cameras 12 detect the position in the xy direction and the height in the z direction of the object 50 placed on the placement table 20.
  • the two position detection cameras 12 are provided at a predetermined distance from the ceiling of the housing 10a.
  • the two position detection cameras 12 have an eye function for detecting the state of the mounting table 20, and mainly detect the position and height of the object 50 mounted on the mounting table 20, or the hand 40.
  • the position and height of (an example of an indicator) are detected.
  • Examples of the object 50 include travel advertising paper, other documents, and a manuscript.
  • the object 50 is not limited to a paper medium, and may be a box type or other three-dimensional object.
  • the imaging camera 13 takes a target 50 placed on the mounting table 20 and a hand 40 indicating a specific position or range of the mounting table 20 as a captured image.
  • the input / output device 10 functions as a hand gesture input / output device. For example, when the specific button 51 in the target object 50 shown in FIG. 2A is tapped by a hand gesture (instruction of a specific position by movement of the hand 40), the input / output device 10 taps the button.
  • the projection information 60 linked to 51 is displayed within the projectable range 70 of the mounting table 20.
  • the input / output device 10 displays the projection information 60 linked to the target frame 52 in the designated range in the projectable range 70. . Display and non-display of the projection information 60 may be controlled by pressing the button 51.
  • control device 30 may be, for example, a personal computer (PC) or other electronic device capable of information processing.
  • the control device 30 acquires the captured image input by the input / output device 10, performs image processing of the captured image, and performs feature data on the color of the object 50 from the captured image (hereinafter referred to as “color information of the object 50”). Say).
  • the space that can be projected by the projector 11 (projectable range 70) is limited. For this reason, the projection information 60 may be displayed so as to overlap the object 50. At that time, depending on the characteristics of the object 50 (the color of the original document, the arrangement of characters / drawings in the original document), it becomes difficult to distinguish the color of the projection information 60 of the superimposed portion, and the visibility of the projection information 60 is reduced. . For example, when the object 50 is moved from the state of FIG. 2A to the state of FIG. 2B, the projection information 60 overlaps the object 50, and it becomes difficult to see the projection information 60 of the superimposed portion. There is a case.
  • control device 30 determines that the superimposed object 50 and the projection information 60 are difficult to visually recognize based on the color information of the object 50 and the color information of the projection information 60.
  • the visibility of the projection information 60 is ensured by changing the color or the like of the projection information 60.
  • the input / output device 10 has an input / output interface (I / F) 14.
  • the input / output interface 14 inputs a captured image on the mounting table 20 taken by the imaging camera 13 and information on the position and height of the object 50 and the hand 40 detected by the two position detection cameras 12. Transfer to device 30. Further, the input / output interface 14 outputs the projection information 60 transmitted from the control device 30 to the projector 11 and projects it onto the mounting table 20.
  • the control device 30 includes an acquisition unit 31, an image processing unit 32, a projection unit 33, a detection unit 34, a change unit 35, and a storage unit 36.
  • the storage unit 36 stores an object feature DB (database) 37, a projection information DB 38, and a projection color information DB 39.
  • the acquisition unit 31 acquires a captured image of the mounting table 20 including the mounted object 50.
  • the image processing unit 32 divides the captured image including the object 50 into a lattice (mesh) shape, and determines “background color” and “content color” for each of the divided blocks. .
  • the acquisition unit 31 acquires background color information and content color information of each block and stores them in the storage unit 36.
  • the background color information and the content color information of each block in which the object 50 is imaged are examples of the color information of the object 50.
  • the color information of the target object 50 is not limited to this, and may be information on at least one of background color information and content color information of each block.
  • color information of each block such as background color information a1 and content color information b1 of block 1 and background color information a2 and content color information b2 of block 2 shown in FIG. It is stored in the object feature DB 37 shown.
  • the object feature DB 37 includes a block No. 371, each block range 372, background color information a (representative color), content (display) range 374, and content color information b375.
  • the background color information a373 (the background color information a1 of the block 1 in FIG. 4) in which the 371 is “1” and the block range 372 is (x21, y21) ⁇ (x22, y22) has an exclusive area in the block 1.
  • the largest representative color “light blue” is stored.
  • the color information b375 (content color information b1 of the block 1 in FIG. 4) of the content in which the 371 is “1” and the content range 374 is (xa21, ya21) ⁇ (xa22, ya22) is representative of the content of the block 1
  • the color “white” is stored.
  • the distinction between background and content can be judged from the extraction of features such as exclusive area and characters for each block.
  • the content may be distinguished from the background by optically reading the image of each block and extracting characters.
  • the projection unit 33 projects the projection information 60 stored in the projection information DB 38 in association with the instructed information of the target object 50 (for example, information in the target frame 52 and the button 51) onto the mounting table 20.
  • the projection information DB 38 includes instruction information 381, projection information No. 382 and projection information contents 383.
  • the instruction information 381 indicates link information of a range indicated by the hand 40 pointing at two points in the object 50 or a tapped position.
  • Projection information No. Reference numeral 382 denotes a number (identification information) assigned for each projection information.
  • the content 383 of projection information is the content of information that is actually projected. For example, when the target frame 52 of “Hokkaido Travel” shown in FIG.
  • the projection unit 33 preferably projects the projection information 60 onto a block group having a color different from the color of the projection information 60 based on the color information of each block and the color information of the projection information 60. For example, the projection unit 33 projects the projection information 60 onto a block group of a color that is determined to be a blank portion where the projection information 60 is not displayed. In addition, when a part of the projection information 60 is displayed superimposed on the object 50, the projection unit 33 preferably projects the projection information 60 onto a block group of colors determined to be a margin of the projection information 60.
  • the detection unit 34 detects whether the projection information 60 is superimposed on the object 50.
  • the change unit 35 detects that the projection information 60 is superimposed on the object 50, the color information of the projection information 60 and the color information of the object 50 stored in the projection color information DB 39 in association with the projection information 60. Based on the above, the color of the superimposed projection information 60 is processed. In that case, the changing unit 35 changes the color of the superimposed projection information 60 to a color different from the color of the object 50. For example, it is preferable that the changing unit 35 changes the color of the superimposed projection information 60 to a color other than the same color as the color of the object 50 and a similar color to improve the visibility.
  • the projection color information DB 39 stores color information for each projection information 60.
  • the projection color information DB 39 includes the projection information No. 391, projection information size 392, background color information A393, content type (character / image) 394, and content color information (representative color) B395.
  • the content type (character / image) 394 can be omitted.
  • Projection information No. Reference numeral 391 denotes a number (identification information) assigned for each projection information.
  • the projection information size 392 of “P1” 391 is determined by “(xOO, yOO) ⁇ (x ⁇ , y ⁇ )”, and the background color information A393 is “purple”.
  • the projection information No. The content information 391 is “P1”, the first content type 394 is “character”, and the content color information B395 is “white”.
  • the second content type 394 is “character”, and the content color information B395 is “red”.
  • the third content type 394 is “image”, and the content color information B395 is “green”.
  • the changing unit 35 based on the color information of the projection information stored in the projection color information DB 39, based on the color information of the background of the projection information and the color information of the background of the object, the background color of the superimposed projection information. May be processed.
  • the change unit 35 may change the background color of the superimposed projection information to an intermediate color with the background color of the object.
  • the changing unit 35 also includes the content of the projection information superimposed on the basis of the color information of the content of the projection information and the color information of the content of the target object among the color information of the projection information stored in the projection color information DB 39. You may process the color. In this case, the changing unit 35 may change the color of the superimposed content of the projection information to an opposite color or a complementary color of the intermediate color with the color of the target content.
  • a color has each element of hue, saturation, and lightness, and can be specified by a combination of hue or hue and other elements.
  • the color may be specified only by the hue, the color may be specified by the hue and the saturation, the color may be specified by the hue and the brightness, or the color may be specified by the hue, the saturation, and the brightness.
  • a color may be specified.
  • the color can be specified by a combination of hue and luminance and a combination of hue and tone. That is, the color can be specified by only the hue or a combination of the hue and at least one of saturation, lightness, luminance, and tone.
  • the multicolor relationship will be described using a hue circle.
  • the hue circle the three primary colors are in the same position, are shown in the order of the light spectrum, and the order of arrangement is unchanged.
  • the same color indicates a color at the same position in the hue circle.
  • Similar colors indicate colors that are adjacent to each other in the hue circle or colors that are close to each other. Therefore, “colors other than the same color and similar colors” indicate colors excluding colors at the same position, adjacent positions, or positions close to the positions in the hue circle.
  • the color in the opposite position in the hue circle is called the complementary color, and the color adjacent to or near the complementary color is called the opposite color.
  • the intermediate color indicates a color located in the middle of one color and another color in the hue circle or a color close to the color.
  • the intermediate color may be any color located between one color and another color in the hue circle.
  • FIG. 9 is a flowchart showing the projection color processing according to the first embodiment.
  • the acquisition unit 31 acquires a captured image from the input / output device 10 (step S10).
  • the detection unit 34 detects the position of the object 50 and the designated range of the object 50 (step S12).
  • the image processing unit 32 divides the acquired captured image into a plurality of blocks, and detects feature data of each divided block (step S14).
  • the feature data is content information (characters and drawings) described on the object 50 and color information of the object 50.
  • the color information of the object 50 includes “background color” and “content color”.
  • the projection unit 33 selects the projection information 60 stored in the projection information DB 38 in association with the information of the designated range of the target object 50 (step S16).
  • the projection unit 33 searches for a position on the mounting table 20 where the projection information is projected (step S18).
  • the projection unit 33 determines whether or not the position where the visibility is ensured even if the selected projection information 60 is projected based on the color information of the target object 50 and the color information of the projection information 60 for each block. to decide.
  • the projection unit 33 may include a position other than the display position of the target object 50 where the projection information 60 is not superimposed on the target object 50, or a position where the projection information 60 is superimposed on a blank portion of the target object 50 even when superimposed.
  • the projection information 60 is applied to a block group in which the color of the target object 50 and the color of the projection information 60 are different. It is preferable to project.
  • the projection unit 33 determines whether there is a portion where the projection information 60 overlaps the object 50 at the derived projection position (step S20). When it is determined that there is no portion where the projection information 60 overlaps the target object 50, the projection unit 33 projects the projection information 60 at a position derived as a result of the search (step S22). Next, the projection unit 33 determines whether there is unprocessed projection information 60 among the projection information 60 selected in Step S16 (Step S28). As a result of the determination, when it is determined that there is no unprocessed projection information 60, the present process ends. On the other hand, when it is determined that there is unprocessed projection information 60 as a result of the determination, the process returns to step S18, and the processes after step S18 are executed for the unprocessed projection information 60.
  • step S20 when the projection unit 33 determines that there is a portion where the projection information 60 overlaps the target object 50, it determines whether the color of the target object 50 and the color of the projection information 60 are the same color or similar colors (step S20). S24).
  • the projection unit 33 may perform the determination by including, in the same color, a color at a position adjacent to the hue ring and separated by one color from the same position.
  • FIG. 10A illustrates a determination example 1 of the background color of the projection information 60 in the frame and the background color of the object 50 and the processing information 1 of the color of the projection information 60 based on the determination result.
  • FIG. 10B shows a determination example 2 of the color of the content of the projection information 60 in the frame and the color of the content of the target object 50, and modification 2 of the color of the projection information 60 based on the determination result.
  • the color processing of the projection information 60 shown in FIG. 10 is not limited to these examples, and other processing examples are not excluded.
  • the projection unit 33 compares the background color information a373 stored in the object feature DB 37 and the background color information A393 stored in the projection color information DB39. Then, it is determined whether they are the same color or similar colors.
  • the background color information a373 of the block 1 stored in the object feature DB 37 in FIG. 5 is “light blue”, and the projection information No. stored in the projection color information DB 39 in FIG.
  • the background color information A393 with “P1” 391 is “purple”. Light blue and purple are similar colors that are adjacent to each other across a blue color in the hue circle. Therefore, the projection unit 33 determines that the background color a1 of the block 1 of the object 50 (see FIG. 4) and the background color of the projection information 60 of P1 are similar colors.
  • the background color information a373 of the block 2 stored in the object feature DB 37 in FIG. 5 is “white”, and the projection information No. stored in the projection color information DB 39 in FIG.
  • the background color information A393 with “P1” 391 is “purple”. White and purple are not similar colors. Therefore, the projection unit 33 determines that the background color a2 of the block 2 of the object 50 (see FIG. 4) and the background color of the projection information 60 of P1 are the same color and colors other than the same color (not the same color but the same color). It is determined that the color is not a color but a different color.
  • the projecting unit 33 performs content color information 375 stored in the object feature DB 37 in FIG. 5 and content stored in the projection color information DB 39 in FIG.
  • the color information B395 is compared to determine whether the color is the same or similar.
  • the color information a375 of the content of the block 1 stored in the object feature DB 37 in FIG. 5 is “white”, and the projection information No. stored in the projection color information DB 39 in FIG.
  • the color information B395 of the content 391 is “P1” is divided into three display parts, and the representative color of each part is “white”, “red”, or “green”. Therefore, the projection unit 33 determines that the content color b1 of the block 1 of the target object 50 (see FIG. 4) and the content color of the projection information 60 of P1 are the same color.
  • the projection unit 33 determines that the content color b2 of the block 2 of the object 50 (see FIG. 4) and the content color of the projection information 60 of P1 are colors other than the same color and similar colors.
  • step S24 of FIG. 9 when the projection unit 33 determines that the color of the object 50 and the color of the projection information 60 are not the same color or similar colors, the projection information 60 is projected as it is to the position derived as a result of the search. (Step S22). In this case, even if the projection information 60 overlaps the object 50, no problem occurs in visual recognition, and therefore the color of the projection information 60 is not processed.
  • the changing unit 35 processes the color of the projection information 60 (step S26).
  • the projection unit 33 projects the processed projection information 60 (step S22).
  • the projection unit 33 determines whether there is unprocessed projection information 60 among the projection information 60 to be displayed selected in step S16 (step S28). The process ends.
  • Example 1 of color processing of projection information 60 The color processing example 1 of the projection information 60 in step S26 will be described with reference to FIG. 10 again.
  • the changing unit 35 changes the background color A1 of the projection information 60 (see the hatched portion in FIG. 11), for example, by the method shown in (1) to (3). .
  • the hue of the background color A1 of the projection information 60 is changed.
  • the hue and tone of the background color A1 of the projection information 60 are changed. Yes.
  • the changing unit 35 changes the background color A1 of the projection information 60 to a color other than the same color or a similar color to “light blue”. change.
  • the changing unit 35 changes the background color A1 of the projection information 60 to green or yellow based on the hue circle.
  • the changing unit 35 can change the background color A1 of the projection information 60 to “red (light blue complementary color)”, “pink (opposite color)”, “orange (opposite color)”, or the like.
  • the eyes may flicker when the background color A1 of the projection information 60 is changed to a complementary color or the opposite color.
  • the changing unit 35 sets the background color A1 of the projection information 60 to “light blue” of the background color a1 of the block 1 of the object 50 and “purple” of the background color A1 of the projection information 60. It is preferable to change to an intermediate color.
  • the intermediate color between light blue and purple is “blue”. Therefore, while the background color of the object 50 is light blue, the projection information 60 is projected by changing the background color of the projection information 60 from “purple” to “blue” which is an intermediate color between light blue and purple. The visibility of the projection information 60 can be improved.
  • the changing unit 35 changes the background color A1 of the projection information 60 while paying attention to the hue shown in (1) or (2), and also changes the tone of the changed color A1 when displayed. Good.
  • the changing unit 35 may change the saturation, lightness, and luminance of the changed color A1.
  • the changing unit 35 uses the method shown in (1) to (3), for example, for the content of the projection information 60.
  • the color B1 (see the shaded area in FIG. 12) is changed.
  • the content color b1 of the block 1 of the object is “white” and is the same color as the content color B1 of the projection information 60.
  • the changing unit 35 changes the color B1 of the content of the projection information 60 to a color other than the same color as “white” or a similar color.
  • the changing unit 35 may change the color B1 of the content of the projection information 60 to “red” or “black”.
  • the changing unit 35 changes the content color B1 of the projection information 60 to an intermediate color between the color b1 “white” of the content of the target object and the color B1 “white” of the content of the projection information 60 (in this case, the same color of white ) Or a complementary color.
  • the changing unit 35 changes the color B1 of the content of the projection information 60 to “black” or dark gray.
  • the changing unit 35 may change the content color B1 of the projection information 60 to a color opposite to the background color A1 of the projection information 60 or a complementary color. Thereby, the visibility of the projection information 60 can be improved. For example, even if the color B1 of the content of the projection information 60 is changed to “yellow”, the visibility is not improved so much.
  • the changing unit 35 changes the color B1 of the content of the projection information 60 while paying attention to the hue shown in (1) or (2), and also changes the tone of the changed color B1 when displayed. Good.
  • the changing unit 35 may change the saturation, lightness, and luminance of the changed color B1.
  • the projection apparatus 1 As described above, according to the projection apparatus 1 according to the first embodiment, even when the projection information 60 is projected onto the target object 50, the color information in the range overlapping with the target object 50 is displayed. By processing the projection information 60 based on this, the visibility of the projected projection information 60 can be ensured.
  • the changing unit 35 processes the color of the projection information 60 when it is determined that the color of the object 50 and the color of the projection information 60 are the same color or similar colors. However, regardless of whether the color of the object 50 and the color of the projection information 60 are the same color or similar colors, if it is necessary to ensure the visibility of the projection information 60 in the superimposed portion, The color of the projection information 60 that is present may be changed to a color different from the color of the object 50.
  • Second Embodiment Processing at the time of displaying projection information according to the second embodiment will be described with reference to FIGS. 13 and 14. As shown in FIG. 14, when the hand 40 operating the object 50 overlaps the projection information 60, the projection information 60 is directly reflected in the hand 40. In this state, there is a case where the visibility of the projection information 60 cannot be ensured at a portion where the projection information 60 overlaps.
  • the projection information 60 is moved to a position that does not overlap the hand 40 according to the movement of the hand 40.
  • the projection information 60 overlaps the object 50
  • the projection information 60 that overlaps the object 50 is processed to ensure the visibility of the projection information 60.
  • the movement of the hand 40 which is an example of an indicator
  • control is performed to move the projection information 60 so as to avoid the hand 40.
  • the color of the projection information 60 is processed based on the color information of the object 50 and the color information of the projection information 60, as in the first embodiment. Is called.
  • the detection unit 34 causes the hand 40 to tap a predetermined position (information) in the object 50, It is detected whether a range has been specified (step S30).
  • the detection unit 34 detects that the hand 40 has tapped a predetermined position (information) or the like, the projection unit 33 applies the designated button 51 or target frame 52 (see FIG. 14) based on the projection information DB 38.
  • the linked projection information 60 is projected onto the mounting table 20 (step S32).
  • the detection unit 34 determines whether the hand 40 overlaps the projection information 60 (step S34). When it is determined that the hand 40 does not overlap the projection information 60, the detection unit 34 proceeds to step S46 and determines whether the hand 40 has moved. If the detection unit 34 determines that the hand 40 has not moved, the detection unit 34 ends the present process. If the detection unit 34 determines that the hand 40 has moved, the process returns to step S34.
  • the projection unit 33 moves the projection position of the projection information 60 (step S36).
  • the projection position of the projection information 60 may be determined by a method described later in the third embodiment.
  • the detection unit 34 determines whether there is a portion where the moved projection information 60 overlaps the target object 50 (step S38). If the detection unit 34 determines that there is no overlapping portion, the process proceeds to step S46. If the detection unit 34 determines that there is an overlapping portion, the process proceeds to step S40.
  • the projection unit 33 determines whether the color of the object 50 and the color of the projection information 60 are the same color or similar colors (step S40). When the projection unit 33 determines that the color of the object 50 and the color of the projection information 60 are the same color or similar colors, the changing unit 35 processes the color of the projection information 60 (step S42). The projection unit 33 projects the processed projection information 60 (step S44).
  • step S44 Since the processing of the color of the projection information 60 in step S44 is the same as in the first embodiment, description thereof is omitted here.
  • the detection unit 34 determines again whether or not the hand 40 has moved (step S46). If it is determined that the hand 40 has not moved, this processing ends. If the detection unit 34 determines that the hand 40 has moved, it repeats the processing of steps S34 to S44.
  • the projection apparatus 1 when the hand 40 that operates the object 50 overlaps the projection information 60, the projection information 60 is moved to a position that does not overlap the hand 40.
  • the object 50 and the projection information 60 overlap and a problem occurs in visual recognition, the visibility of the projection information 60 is ensured by processing the projection information 60 in a range overlapping with the object 50. Can do.
  • ⁇ Third Embodiment> [Movement and display processing of projection information] Next, processing at the time of displaying the projection information 60 according to the third embodiment will be described.
  • the displayable space for the projection information 60 is insufficient, in order to ensure the visibility of the projection information 60, a device is required when displaying the projection information 60.
  • the priority set for each projection information 60 is referred to, and the projection information 60 is stored in a displayable space by displaying the information with a low priority in a small size. Secure.
  • FIG. 16 shows an example of an effect obtained as a result of executing the process of FIG.
  • the detection unit 34 detects that the object 50 has moved (step S50). For example, when the position of the object 50 illustrated in FIG. 16A is moved to the position illustrated in FIG. 16B, the detection unit 34 detects the position after the movement of the object 50 based on the captured image. To do.
  • the image processing unit 32 calculates a displayable space from the positional relationship between the object 50 and the projectable range 70 (step S52). Specifically, the image processing unit 32 divides the projectable range 70 into several blocks, and checks the state of description of colors and characters / images in each block. That is, the image processing unit 32 includes an area outside the object 50 and within the projectable range 70 (area where information is not displayed) and an area within the object 50 (area where information is displayed). The blocks are divided without distinction. The image processing unit 32 sets a flag indicating that a block having a lot of dark color or text / image description is not suitable as a displayable space.
  • the image processing unit 32 sets a flag indicating that a light color or a block with less text / image description is suitable as a displayable space.
  • a set of flags for each block created by this method is hereinafter referred to as a “displayable space determination flag”.
  • the displayable space determination flag is stored in the storage unit 36 in association with the ID of each block.
  • the projection unit 33 determines whether the currently projected projection information fits in a displayable space based on the displayable space determination flag (step S54). When all the projection information is in a position suitable as a displayable space, the projection unit 33 determines that the currently projected projection information 60 fits in the displayable space.
  • the projection unit 33 determines whether adjustment of the display position of the projection information is necessary (step S56). When determining that the display position of the projection information needs to be adjusted, the projection unit 33 moves the display position of the projection information 60 within the displayable space (step S58), and displays the projection information at the display position and size. (Step S60), this process is terminated. On the other hand, when it is determined that the adjustment of the display position of the projection information is unnecessary, the projection unit 33 displays the projection information at the display position and size (step S60), and ends this process.
  • step S54 when the projection unit 33 determines that the currently projected projection information does not fit in the displayable space, the projection unit 33 acquires the priority of the projection information 60 (step S62), and the projection information 60 with a lower priority. Is adjusted (step S64). Next, the projection unit 33 rearranges and displays the projection information 60 with a new display size in the displayable space (step S60), and ends this process.
  • step S64 when the displayable space is insufficient, the projection unit 33 changes the display size of the projection information 60 according to the priority of the projection information 60.
  • the projection unit 33 reduces the display size of the projection information 60 having the lowest priority at a certain rate, and executes the rearrangement process of the projection information 60.
  • the size of the projection information 60 is changed and rearranged until the display size of the low-priority projection information 60 is reduced by a certain ratio and the placement process is executed again until all the projection information 60 is placed in the displayable space. Repeat the process. If rearrangement is not completed even if the display size of the highest priority projection information 60 is reduced at a certain rate, the display size is further reduced from the projection information 60 having the lowest priority.
  • the object 50 moves and all of the five projection information 60 do not fit in the displayable space.
  • the projection unit 33 reduces the display size of the projection information S, P, and R with low priority, and rearranges all the projection information 60.
  • all the five pieces of projection information 60 are projected onto the displayable space in a state where the display size of the projection information S, P, R is reduced.
  • the projection unit 33 calculates the order in which the rearrangement processing of the projection information 60 is performed from the current arrangement information of the projection information 60 (before rearrangement).
  • the rearrangement process is first performed in the order of the priority of each projection information 60, and within the same priority, the projection information 60 whose arrangement position is closer to the upper left coordinate of the projectable range 70 is first arranged.
  • the upper left coordinate of the projectable range 70 is (X, Y) and the displayable space is (W, H)
  • rearrangement is performed in ascending order of X + W * Y values.
  • This ordering is performed with the intention of maintaining the top / bottom / left / right relationship of the projection information before the rearrangement as much as possible after the rearrangement. Therefore, the projection information T and U having the same priority are processed before the projection information U, with the projection information T close to the upper left coordinates shown in the upper diagram of FIG.
  • the projection information 60 is arranged in the displayable space in the order determined by the above method.
  • the displayable space is searched by a general logic.
  • optimization of the display of the projection information 60 according to the third embodiment searches for the projection position of the projection information 60 in the first embodiment, and projects the projection information 60 within the projectable range 70 of the projection information 60. It is also applicable to cases.
  • the optimization of the display of the projection information 60 according to the third embodiment is performed in the projection information within the projectable range 70 of the projection information 60 when the projection information 60 is superimposed on the hand 40 in the second embodiment.
  • the present invention can also be applied to a case where projection is performed by moving 60.
  • the visibility of the projection information 60 can be further improved.
  • the size of the projection information 60 having a low priority is reduced in the processing of the projection information 60.
  • the processing of the projection information 60 is not limited to this, and one of methods such as transforming the outer shape of the projection information 60 from a rectangle to another shape, dividing it into a plurality of pieces, and reducing the amount of information in the projection information 60 itself. Or a combination thereof can be used.
  • the control device 30 includes an input device 101, a display device 102, an external I / F 103, a RAM (Random Access Memory) 104, a ROM (Read Only Memory) 105, a CPU (Central Processing Unit) 106, a communication I / F 107, and an HDD ( Hard Disk Drive) 108. Each part is connected to each other by a bus B.
  • the input device 101 includes a keyboard, a mouse, and the like, and is used to input each operation signal to the control device 30.
  • the display device 102 includes a display and displays various processing results.
  • the communication I / F 107 is an interface that connects the control device 30 to the network. Thereby, the control device 30 can communicate with the input / output device 10 via the communication I / F 107.
  • the HDD 108 is a non-volatile storage device that stores programs and data.
  • the stored programs and data include basic software and application software that control the entire apparatus.
  • the HDD 108 stores various DB information, programs, and the like.
  • External I / F 103 is an interface with an external device.
  • the external device includes a recording medium 103a. Accordingly, the control device 30 can read and / or write the recording medium 103a via the external I / F 103.
  • the recording medium 103a includes a CD (Compact Disk), a DVD (Digital Versatile Disk), an SD memory card (SD Memory Card), a USB memory (Universal Serial Bus memory), and the like.
  • the ROM 105 is a nonvolatile semiconductor memory (storage device) that can retain internal data even when the power is turned off.
  • the ROM 105 stores programs and data such as network settings.
  • the RAM 104 is a volatile semiconductor memory (storage device) that temporarily stores programs and data.
  • the CPU 106 is an arithmetic unit that realizes control of the entire apparatus and mounting functions by reading programs and data from the storage device (for example, “HDD 108”, “ROM 105”, etc.) onto the RAM 104 and executing processing.
  • the control device 30 can perform a color change process of the projection information 60 and a display process of the projection information 60.
  • the CPU 106 executes a color change process of the projection information 60 and a display process of the projection information 60 using an image processing program and various data stored in the ROM 105 and the HDD 108.
  • Information stored in the object feature DB 37, the projection information DB 38, and the projection color information DB 39 can be stored in the RAM 104, the HDD 108, or a server on the cloud connected to the control device 30 via the network.
  • the projection apparatus and the image processing program have been described in the above embodiment.
  • the projection apparatus and the image processing program according to the present invention are not limited to the above-described embodiments, and various modifications and improvements can be made within the scope of the present invention.
  • the matters described in the plurality of embodiments can be combined within a consistent range.
  • the functions of the acquisition unit 31, the image processing unit 32, the projection unit 33, the detection unit 34, and the change unit 35 of the control device 30 may be configured by hardware, software, or hardware. And software may be combined.
  • the configuration of the projection apparatus 1 according to the above-described embodiment is an example, and does not limit the scope of the present invention. It goes without saying that there are various system configuration examples depending on applications and purposes.
  • a system configuration in which the control device 30 is connected to the input / output device 10 via the network 35 is one aspect of the projection device 1 according to the present embodiment, and is not limited thereto.
  • the control device 30 of the projection device 1 according to the present embodiment may be separate from the input / output device 10 or may be integrated with the input / output device 10.
  • Projection device 10 Input / output device 11: Projector 12: Camera for position detection 13: Camera for image pickup 20: Mounting table 30: Control device 31: Acquisition unit 32: Image processing unit 33: Projection unit 34: Detection unit 35: Change unit 36: storage unit 37: object feature DB 38: Projection information DB 39: Projection color information DB 40: Hand 50: Object 51: Button 52: Object frame 60: Projection information 70: Projectable range 373: Color information of the background of the object 375: Color information of the content of the object 393: Color information of the background of the projection information 395: Projection information content color information

Abstract

 載置面に載置された対象物の撮像画像から該対象物の色情報を取得する取得部と、前記対象物の指定された範囲に含まれる情報に関連付けて記憶された投影情報を前記載置面に投影する投影部と、前記投影情報が前記対象物に重畳しているかを検出する検出部と、前記投影情報が前記対象物に重畳していることを検出した場合、前記投影情報に関連付けて記憶された前記投影情報の色情報と、取得した前記対象物の色情報とに基づき、重畳している前記投影情報の色を前記対象物の色と異なる色に変更する変更部と、を有する投影装置が提供される。

Description

投影装置及び画像処理プログラム
 本発明は、投影装置及び画像処理プログラムに関する。
 画像をスクリーンや載置面に投影する投影装置が知られている。画像を投影する際、投影画像に対して投影環境に柔軟に対応した補正を行い、最適な色で画像の投影を行うことができる電子機器が提案されている(例えば、特許文献1参照)。
特開2010-183465号公報
 しかしながら、特許文献1では、表示された投影画像が他の情報に重畳している場合、他の情報が表示される色によっては、重畳した部分の投影画像の色との判別が困難になり、目視認識性(以下、「視認性」ともいう。)が低下するという課題は解決されていない。
 そこで、一側面では、本発明は、投影情報が対象物に重畳して投影される際の投影情報の視認性を確保することを目的とする。
 一つの案では、載置面に載置された対象物の撮像画像から該対象物の色情報を取得する取得部と、前記対象物の指定された範囲に含まれる情報に関連付けて記憶された投影情報を前記載置面に投影する投影部と、前記投影情報が前記対象物に重畳しているかを検出する検出部と、前記投影情報が前記対象物に重畳していることを検出した場合、前記投影情報に関連付けて記憶された前記投影情報の色情報と、取得した前記対象物の色情報とに基づき、重畳している前記投影情報の色を前記対象物の色と異なる色に変更する変更部と、を有する投影装置が提供される。
 一側面によれば、投影情報が対象物に重畳して投影される際の投影情報の視認性を確保することができる。
一実施形態にかかる投影装置の全体構成の一例を示す図。 対象物と投影情報とが重畳する状態の一例を説明するための図。 一実施形態にかかる投影装置の機能構成の一例を示す図。 一実施形態にかかる対象物の特徴データ(色)を抽出する一例を示す図。 一実施形態にかかる対象物特徴データベースの一例を示す図。 一実施形態にかかる投影情報データベースの一例を示す図。 一実施形態にかかる投影情報の表示の一例を示す図。 一実施形態にかかる投影色情報データベースの一例を示す図。 第1実施形態にかかる投影色の加工処理の一例を示したフローチャート。 一実施形態にかかる投影色の加工例を示した図。 一実施形態にかかる投影色の加工の一例を説明するための図。 一実施形態にかかる投影色の加工の他の例を説明するための図。 第2実施形態にかかる投影色の加工処理の一例を示したフローチャート。 第2実施形態にかかる手と投影情報とが重畳する場合を説明するための図。 第3実施形態にかかる投影情報表示処理の一例を示したフローチャート。 第3実施形態にかかる投影情報表示の優先度を説明するための図。 一実施形態にかかる投影装置のハードウェア構成例を示す図。
 以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。
 [投影装置の全体構成]
 まず、本発明の一実施形態にかかる投影装置の構成について、図1を参照しながら説明する。一実施形態にかかる投影装置1は、入出力装置10及び制御装置30を有する。入出力装置10と制御装置30とは、ネットワーク35を介して接続されている。
 入出力装置10は、筐体10a、プロジェクタ11、2台の位置検出用カメラ12及び撮像用カメラ13を有する。プロジェクタ11、2台の位置検出用カメラ12及び撮像用カメラ13は、筐体10aの天井部に取り付けられている。
 プロジェクタ11は、筐体10aの天井部の内壁側中央に下向きに取り付けられている。プロジェクタ11は、載置台20に所望の投影情報を投影する。2台の位置検出用カメラ12は、載置台20に載置されている対象物50のxy方向の位置及びz方向の高さを検出する。2台の位置検出用カメラ12は、筐体10aの天井部に所定距離だけ離れて設けられている。2台の位置検出用カメラ12は、載置台20の状態を検出する眼の機能を有し、主に載置台20に載置された対象物50の位置や高さを検出したり、手40(指示体の一例)の位置や高さを検出したりする。対象物50の一例としては、旅行の広告紙やその他の書類、原稿が挙げられる。ただし、対象物50は、紙媒体に限られず、箱型やその他の立体的な物であってもよい。
 撮像用カメラ13は、載置台20に載置された対象物50及び載置台20の特定の位置又は範囲を指示する手40等を撮像画像として撮る。
 かかる構成により、入出力装置10は、ハンドジェスチャー入出力装置として機能する。例えば、入出力装置10は、ハンドジェスチャー(手40の移動による特定位置の指示)により、図2の(a)に示す対象物50内の特定のボタン51がタップされると、タップされたボタン51にリンクされた投影情報60を載置台20の投影可能範囲70内に表示する。また、例えば、入出力装置10は、ハンドジェスチャーにより対象物50内の所定の範囲が指示されると、指示範囲内の対象枠52にリンクされた投影情報60を投影可能範囲70内に表示する。投影情報60は、ボタン51の押下により、表示及び非表示を制御されてもよい。
 図1に戻り、制御装置30は、例えばパーソナルコンピュータ(PC)やその他の情報処理が可能な電子機器であり得る。制御装置30は、入出力装置10が入力した撮像画像を取得し、撮像画像の画像処理を行って撮像画像から対象物50の色に関する特徴データ(以下では、「対象物50の色情報」ともいう。)を抽出する。
 プロジェクタ11で投影できるスペース(投影可能範囲70)には限りがある。このため、投影情報60が対象物50に重なって表示される場合がある。その際、対象物50の特徴(原稿の色、原稿内の文字/図の配置)によっては重畳した部分の投影情報60の色との判別が困難になり、投影情報60の視認性が低下する。例えば、図2の(a)の状態から図2の(b)の状態に対象物50を移動させると、投影情報60が対象物50に重なり、重畳された部分の投影情報60が見え難くなる場合がある。
 そこで、一実施形態にかかる制御装置30は、対象物50の色情報と投影情報60の色情報とに基づき、重畳される対象物50と投影情報60とが目視で認識しにくいと判断した場合、投影情報60の色等を変えることで、投影情報60の視認性を確保する。以下、かかる機能を有する投影装置1の構成及び動作について順に説明する。
 [機能構成]
 一実施形態にかかる投影装置1の入出力装置10及び制御装置30の機能構成について、図3を参照しながら説明する。入出力装置10は、入出力インターフェース(I/F)14を有する。入出力インターフェース14は、撮像カメラ13が撮った載置台20上の撮像画像や、2台の位置検出用カメラ12が検出した対象物50や手40の位置及び高さの情報を入力し、制御装置30に転送する。また、入出力インターフェース14は、制御装置30から送信された投影情報60をプロジェクタ11に出力し、載置台20に投影させる。
 制御装置30は、取得部31、画像処理部32、投影部33、検出部34、変更部35及び記憶部36を有する。記憶部36は、対象物特徴DB(データベース)37、投影情報DB38及び投影色情報DB39を格納する。
 取得部31は、載置された対象物50を含む載置台20の撮像画像を取得する。画像処理部32は、図4に示すように、対象物50を含む撮像画像を格子(メッシュ)状に分け、分けられた各ブロックについて「背景の色」と「コンテンツの色」とを判断する。取得部31は、各ブロックの背景の色情報とコンテンツの色情報を取得し、記憶部36に記憶する。対象物50が撮像された各ブロックの背景の色情報とコンテンツの色情報とは、対象物50の色情報の一例である。しかし、対象物50の色情報は、これに限らず、各ブロックの背景の色情報とコンテンツの色情報との少なくともいずれかの情報であってもよい。
 例えば、図4に示すブロック1の背景の色情報a1及びコンテンツの色情報b1、及びブロック2の背景の色情報a2及びコンテンツの色情報b2等の各ブロックの色情報は、図5に一例を示す対象物特徴DB37に格納される。対象物特徴DB37は、ブロックNo.371、各ブロックの範囲372、背景の色情報a(代表色)、コンテンツの(表示)範囲374及びコンテンツの色情報b375の各項目を有する。
 例えば、ブロックNo.371が「1」、ブロックの範囲372が(x21、y21)-(x22、y22)の背景の色情報a373(図4のブロック1の背景の色情報a1)には、ブロック1で専有面積が最も大きい代表色である「水色」が記憶されている。
 また、ブロックNo.371が「1」、コンテンツの範囲374が(xa21、ya21)-(xa22、ya22)のコンテンツの色情報b375(図4のブロック1のコンテンツの色情報b1)には、ブロック1のコンテンツの代表色である「白」が記憶されている。
 背景とコンテンツの区別は、ブロックごとの専有面積や文字等の特徴の抽出から判断することができる。例えば、各ブロックの画像を光学的に読み取り、文字を抽出することでコンテンツを背景と区別してもよい。
 投影部33は、対象物50の指示された情報(例えば、対象枠52内の情報やボタン51等)に関連付けて投影情報DB38に記憶された投影情報60を載置台20に投影させる。例えば、図6に示すように、投影情報DB38は、指示情報381、投影情報No.382及び投影情報の内容383の各項目を有する。指示情報381は、手40が対象物50内の2点をポイントすることによって指示される範囲やタップされる位置のリンク情報を示す。投影情報No.382は、投影情報毎に割り振られた番号(識別情報)である。投影情報の内容383は、実際に投影する情報の内容である。例えば、図7に示す「北海道旅行」の対象枠52が指定されると、図6の指示情報381が「北海道旅行」に関連付けて記憶された投影情報の内容383が、図7に示す「北海道旅行」の対象枠52とリンクした投影情報60に表示される。また、例えば、図7の「ホテル」の対象枠52が指定されると、図6の指示情報381が「ホテル」に関連付けて記憶された投影情報の内容383が、図7の「ホテル」の対象枠52とリンクした投影情報60に表示される。
 投影部33は、ブロック毎の色情報と投影情報60の色情報とに基づき、投影情報60の色と異なる色のブロック群に投影情報60を投影させることが好ましい。例えば、投影部33は、投影情報60が表示されていない余白部分と判断される色のブロック群に投影情報60を投影させる。また、投影情報60の一部が対象物50に重畳して表示される場合、投影部33は、投影情報60の余白と判断される色のブロック群に投影情報60を投影させることが好ましい。
 検出部34は、投影情報60が対象物50に重畳しているかを検出する。
 変更部35は、投影情報60が対象物50に重畳していることを検出した場合、投影色情報DB39に投影情報60に関連付けて記憶された投影情報60の色情報と対象物50の色情報とに基づき、重畳している投影情報60の色を加工する。その場合、変更部35は、重畳している投影情報60の色を対象物50の色と異なる色に変更する。例えば、変更部35は、重畳している投影情報60の色を対象物50の色と同一色及び同系色以外の色に変更し、視認性を高めることが好ましい。
 図8に一例を示すように、投影色情報DB39には、投影情報60毎の色情報が格納されている。投影色情報DB39は、投影情報No.391、投影情報の大きさ392、背景の色情報A393、コンテンツの種別(文字/画像)394及びコンテンツの色情報(代表色)B395の各項目を有する。コンテンツの種別(文字/画像)394は省略することができる。
 投影情報No.391は、投影情報毎に割り振られた番号(識別情報)である。例えば、投影情報No.391が「P1」の投影情報の大きさ392は「(x〇〇、y〇〇)-(x△△、y△△)」で定まり、背景の色情報A393は「紫」である。また、投影情報No.391が「P1」のコンテンツ情報は3つあり、一つ目のコンテンツの種別394は「文字」であってコンテンツの色情報B395は「白」である。二つ目のコンテンツの種別394は「文字」であってコンテンツの色情報B395は「赤」である。三つ目のコンテンツの種別394は「画像」であってコンテンツの色情報B395は「緑」である。
 変更部35は、投影色情報DB39に記憶された投影情報の色情報のうち、投影情報の背景の色情報と対象物の背景の色情報とに基づき、重畳している投影情報の背景の色を加工してもよい。この場合、変更部35は、重畳している投影情報の背景の色を対象物の背景の色との中間色に変更してもよい。
 また、変更部35は、投影色情報DB39に記憶された投影情報の色情報のうち、投影情報のコンテンツの色情報と対象物のコンテンツの色情報とに基づき、重畳している投影情報のコンテンツの色を加工してもよい。この場合、変更部35は、重畳している投影情報のコンテンツの色を対象物のコンテンツの色との中間色の反対色又は補色に変更してもよい。
 (色)
 色は、色相、彩度及び明度の各要素を有し、色相又は色相とその他の要素との組み合わせにより特定可能である。例えば、色相のみで色を特定してもよいし、色相と彩度とにより色を特定してもよいし、色相と明度とにより色を特定してもよいし、色相、彩度及び明度により色を特定してもよい。
 また、色は、色相と輝度の組み合わせ、色相とトーンとの組み合わせにより特定可能である。つまり、色は、色相のみ、又は色相と彩度、明度、輝度及びトーンの少なくともいずれかとの組み合わせにより特定することができる。
 多色の関係について色相環を用いて説明する。色相環は、三原色が均等位置にあり、光のスペクトル順に示されており、並び順は不変のものである。同一色は、色相環において同じ位置にある色を示す。同系色は、色相環で隣り合う色や近い位置にある色を示す。よって、「同一色及び同系色以外の色」は、色相環において同じ位置、隣接する位置又はその位置に近い位置にある色を除いた色を示す。
 色相環で正反対の位置にある色を補色といい、補色に隣接する位置又はその位置に近い位置の色を反対色という。中間色は、色相環で一の色と他の色との中間に位置する色やその色に近い位置の色を示す。中間色は、色相環で一の色と他の色との間に位置するいずれの色であってもよい。
 以上に説明した機能を有する投影装置1を用いて行われる投影情報の表示時の処理について、以下、第1実施形態~第3実施形態の順に説明する。
<第1実施形態>
 [投影色の加工処理]
 まず、第1実施形態にかかる投影情報の表示時の処理について、図9を参照して説明する。図9は、第1実施形態にかかる投影色の加工処理を示したフローチャートである。
 本処理が開始されると、取得部31は、入出力装置10から撮像画像を取得する(ステップS10)。次に、検出部34は、対象物50の位置及び対象物50の指示された範囲を検出する(ステップS12)。
 次に、画像処理部32は、取得した撮像画像を複数のブロックに分け、分けられた各ブロックの特徴データを検出する(ステップS14)。特徴データは、対象物50上に記載されているコンテンツの情報(文字や図)や対象物50の色情報である。対象物50の色情報には、「背景の色」及び「コンテンツの色」が含まれる。
 次に、投影部33は、対象物50の指示された範囲の情報に関連付けて投影情報DB38に記憶された投影情報60を選択する(ステップS16)。次に、投影部33は、投影情報を投影する載置台20上の位置を探索する(ステップS18)。探索する際、投影部33は、ブロック毎の対象物50の色情報と投影情報60の色情報とに基づき、選択した投影情報60を投影しても視認性が確保される位置を導き出せるかを判断する。例えば、投影部33は、投影情報60が対象物50に重畳しない対象物50の表示位置以外の位置や、重畳する場合であっても対象物50の余白部分に投影情報60が重畳される位置を導き出すことが好ましい。また、対象物50の余白部分に投影情報60が重畳される位置を導き出すことが困難な場合、重畳する部分の対象物50の色と投影情報60の色とが異なるブロック群に投影情報60を投影させることが好ましい。
 投影部33は、導き出した投影位置において投影情報60が対象物50と重なる部分があるかを判定する(ステップS20)。投影部33は、投影情報60が対象物50と重なる部分がないと判定した場合、探索の結果導き出した位置に投影情報60を投影する(ステップS22)。次に、投影部33は、ステップS16において選択された投影情報60のうち、未処理の投影情報60があるかを判定する(ステップS28)。判定の結果、未処理の投影情報60がないと判定された場合、本処理を終了する。一方、判定の結果、未処理の投影情報60があると判定された場合、ステップS18に戻り、未処理の投影情報60について、ステップS18以降の処理が実行される。
 ステップS20において、投影部33が、投影情報60が対象物50と重なる部分があると判定した場合、対象物50の色と投影情報60の色とが同一色又は同系色かを判定する(ステップS24)。
 対象物50の色と投影情報60の色とが同一色又は同系色かの判定に際しては、色相環で同じ位置の色は同一色であり、色相環で隣り合う位置の色は同系色である。投影部33は、色相環で同じ位置から一色隔てて隣り合う位置の色を同系色に含めて判定を行ってもよい。
 対象物50の色と投影情報60の色とが同一色又は同系色かの判定と、判定結果に基づく投影情報60の色の加工例1,2を、図10を参照しながら説明する。図10の(a)には、枠内の投影情報60の背景の色と対象物50の背景の色における判定及び判定結果に基づく投影情報60の色の加工例1が示される。図10の(b)には、枠内の投影情報60のコンテンツの色と対象物50のコンテンツの色における判定及び判定結果に基づく投影情報60の色の加工例2が示される。ただし、図10に示す投影情報60の色の加工は、これらの例に限られず、他の加工例を排除するものではない。
 図10の(a)の枠内の例では、投影部33は、対象物特徴DB37に記憶されている背景の色情報a373と投影色情報DB39に記憶されている背景の色情報A393とを比較し、同一色又は同系色かを判定する。例えば、図5の対象物特徴DB37に記憶されているブロック1の背景の色情報a373は「水色」であり、図8の投影色情報DB39に記憶されている投影情報No.391が「P1」の背景の色情報A393は「紫」である。水色と紫は、色相環では青系の色を隔てて隣り合う同系色である。よって、投影部33は、対象物50のブロック1の背景の色a1(図4を参照)とP1の投影情報60の背景の色とは同系色と判定する。
 また、図5の対象物特徴DB37に記憶されているブロック2の背景の色情報a373は「白」であり、図8の投影色情報DB39に記憶されている投影情報No.391が「P1」の背景の色情報A393は「紫」である。白と紫は、同系色ではない。よって、投影部33は、対象物50のブロック2の背景の色a2(図4を参照)とP1の投影情報60の背景の色とは同一色及び同系色以外の色(同一色でもなく同系色でもない、異なる色)であると判定する。
 図10の(b)の枠内の例では、投影部33は、図5の対象物特徴DB37に記憶されているコンテンツの色情報375と、図8の投影色情報DB39に記憶されているコンテンツの色情報B395とを比較し、同一色又は同系色かを判定する。例えば、図5の対象物特徴DB37に記憶されているブロック1のコンテンツの色情報a375は「白」であり、図8の投影色情報DB39に記憶されている投影情報No.391が「P1」のコンテンツの色情報B395は、3つの表示部分に分かれ、各部分の代表色が「白」、「赤」又は「緑」である。よって、投影部33は、対象物50のブロック1のコンテンツの色b1(図4を参照)とP1の投影情報60のコンテンツの色とは同一色であると判定する。
 また、図5の対象物特徴DB37に記憶されているブロック2のコンテンツの色情報a373は「黒」であり、投影情報No.391が「P1」のコンテンツの色情報B395は、「白」、「赤」又は「緑」である。よって、投影部33は、対象物50のブロック2のコンテンツの色b2(図4を参照)とP1の投影情報60のコンテンツの色とは同一色及び同系色以外の色であると判定する。
 図9のステップS24に戻り、投影部33は、対象物50の色と投影情報60の色とが同一色又は同系色でないと判定した場合、探索の結果導き出した位置に投影情報60をそのまま投影する(ステップS22)。この場合、投影情報60が対象物50に重なっても目視認識上問題が生じないため、投影情報60の色の加工は行わない。
 一方、投影部33は、対象物50の色と投影情報60の色とが同一色又は同系色であると判定した場合、変更部35は、投影情報60の色を加工し(ステップS26)、投影部33は、加工した投影情報60を投影する(ステップS22)。
 次に、投影部33は、ステップS16において選択された表示すべき投影情報60のうち、未処理の投影情報60があるかを判定し(ステップS28)、未処理の投影情報60がなければ本処理を終了する。
 (投影情報60の色の加工例1)
 ステップS26における投影情報60の色の加工例1を、再び図10を参照しながら説明する。図10の(a)の枠内の例では、変更部35は、例えば、(1)~(3)に示す方法で投影情報60の背景の色A1(図11の斜線部を参照)を変える。
(1)と(2)では、投影情報60の背景の色A1の色相が変更され、(3)では、投影情報60の背景の色A1の色相とトーンとが変更される例が挙げられている。例えば、(1)では、対象物のブロック1の背景の色a1が「水色」なので、変更部35は、投影情報60の背景の色A1を「水色」と同一色又は同系色以外の色に変更する。例えば、変更部35は、色相環に基づき投影情報60の背景の色A1を緑や黄色に変える。また、例えば、変更部35は、投影情報60の背景の色A1を、「赤(水色の補色)」、「ピンク(反対色)」、「オレンジ(反対色)」等に変えることもできる。ただし、投影情報60の背景の色A1を補色や反対色に変えると目がチカチカする場合もある。
 そこで、(2)では、変更部35は、投影情報60の背景の色A1を、対象物50のブロック1の背景の色a1の「水色」と投影情報60の背景の色A1の「紫」との中間色に変えることが好ましい。水色と紫との中間色は「青」である。よって、対象物50の背景色が水色であるのに対して、投影情報60の背景色を「紫」から水色と紫との中間色である「青」を変えて投影情報60を投影することで、投影情報60の視認性を高めることができる。
(3)変更部35は、(1)又は(2)において示した色相に注目して投影情報60の背景の色A1を変えるとともに、表示する際の変えた色A1のトーンを変更してもよい。また、変更部35は、変更した色A1の彩度や明度や輝度を変えてもよい。
 (投影情報60の色の加工例2)
 ステップS26における投影情報60の色の加工例2において、図10の(b)の枠内の例では、変更部35は、例えば(1)~(3)に示す方法で投影情報60のコンテンツの色B1(図12の斜線部を参照)を変える。
(1)対象物のブロック1のコンテンツの色b1が「白」であり、投影情報60のコンテンツの色B1と同一色である。このため、変更部35は、投影情報60のコンテンツの色B1を「白」と同一色又は同系色以外の色に変更する。例えば、変更部35は、投影情報60のコンテンツの色B1を「赤」や「黒」に変えることが挙げられる。
(2)変更部35は、投影情報60のコンテンツの色B1を、対象物のコンテンツの色b1「白」と投影情報60のコンテンツの色B1「白」の中間色(この場合は同一色の白)の反対色や補色に変えてもよい。例えば、変更部35は、投影情報60のコンテンツの色B1を「黒」や濃いグレイに変える。変更部35は、投影情報60のコンテンツの色B1を、投影情報60の背景の色A1の反対色や補色に変えてもよい。これにより、投影情報60の視認性を高めることができる。例えば、投影情報60のコンテンツの色B1を「黄色」に変えても視認性はさほど向上しないため、対象物のブロック1のコンテンツの色b1の反対色や補色に変えることが好ましい。
(3)変更部35は、(1)又は(2)において示した色相に注目して投影情報60のコンテンツの色B1を変えるとともに、表示する際の変えた色B1のトーンを変更してもよい。また、変更部35は、変更した色B1の彩度や明度や輝度を変えてもよい。
 以上に説明したように、第1実施形態にかかる投影装置1によれば、投影情報60を投影する際に対象物50と重なった場合であっても、対象物50と重なる範囲の色情報に基づき投影情報60を加工することで、投影される投影情報60の視認性を確保することができる。
 なお、第1実施形態では、変更部35は、対象物50の色と投影情報60の色とが同一色又は同系色であると判定された場合、投影情報60の色を加工した。しかし、対象物50の色と投影情報60の色とが同一色又は同系色であるかにかかわらず、重畳している部分における投影情報60の視認性を確保する必要がある場合、重畳している投影情報60の色を対象物50の色と異なる色に変更してもよい。
<第2実施形態>
 [投影情報の移動及び色の加工処理]
 次に、第2実施形態にかかる投影情報の表示時の処理について、図13及び図14を参照しながら説明する。図14に示すように、対象物50を操作する手40が投影情報60に重なると、投影情報60がそのまま手40に写ってしまう。この状態では、投影情報60が重なった部分にて投影情報60の視認性が確保できない場合が生じる。
 そこで、本実施形態にかかる投影装置1では、手40の動きに応じて投影情報60を手40と重ならない位置に移動する。その結果、投影情報60が対象物50と重なることになった場合、対象物50と重なる投影情報60を加工し、投影情報60の視認性を確保する。
 第2実施形態では、指示体の一例である手40の動きを検出し、手40と投影情報60が重なる場合、手40を避けるように投影情報60を移動させる制御が行われる。その結果、対象物50と投影情報60が重なった部分については、第1実施形態と同様に、対象物50の色情報と投影情報60の色情報に基づき、投影情報60の色の加工が行われる。
 具体的に説明すると、図13に示す第2実施形態の加工処理が開始されると、検出部34は、手40が対象物50の中の所定の位置(情報)をタップしたり、所定の範囲を指示したりしたかを検出する(ステップS30)。検出部34は、手40が所定の位置(情報)をタップ等したことを検出した場合、投影部33は、投影情報DB38に基づき、指示したボタン51や対象枠52(図14を参照)にリンクされた投影情報60を載置台20に投影する(ステップS32)。
 次に、検出部34は、手40が投影情報60と重なるかを判定する(ステップS34)。検出部34は、手40が投影情報60と重ならないと判定した場合、ステップS46に進み、手40が動いたかを判定する。検出部34は、手40が動いていないと判定した場合、本処理を終了し、手40が動いたと判定した場合、ステップS34に戻る。
 一方、ステップS34において、検出部34は、手40が投影情報60と重なると判定した場合、投影部33は、投影情報60の投影位置を移動させる(ステップS36)。投影情報60の投影位置は、第3実施形態にて後述される方法によって定められてもよい。
 次に、検出部34は、移動した投影情報60が対象物50と重なる部分があるかを判定する(ステップS38)。検出部34は、重なる部分がないと判定した場合、ステップS46に進む。検出部34は、重なる部分があると判定した場合、ステップS40に進む。投影部33は、対象物50の色と投影情報60の色とが同一色又は同系色かを判定する(ステップS40)。投影部33が、対象物50の色と投影情報60の色とが同一色又は同系色であると判定した場合、変更部35は、投影情報60の色を加工する(ステップS42)。投影部33は、加工した投影情報60を投影する(ステップS44)。ステップS44における投影情報60の色の加工処理は第1実施形態と同様であるため、ここでは説明を省略する。投影後、検出部34は、手40が動いたかを再び判定し(ステップS46)、手40が動いていないと判定した場合、本処理を終了する。検出部34は、手40が動いていたと判定した場合、ステップS34~S44の処理を繰り返す。
 以上に説明したように、第2実施形態にかかる投影装置1によれば、対象物50を操作する手40が投影情報60と重なる場合、投影情報60を手40と重ならない位置に移動させる。その結果、対象物50と投影情報60とが重なり、目視認識上問題が生じた場合は、対象物50と重なる範囲の投影情報60を加工することで、投影情報60の視認性を確保することができる。
<第3実施形態>
 [投影情報の移動及び表示処理]
 次に、第3実施形態にかかる投影情報60の表示時の処理について説明する。投影情報60の表示可能スペースが足りない場合、投影情報60の視認性を確保するためには、投影情報60を表示する際に工夫を要する。
 そこで、本実施形態では、投影情報60毎に設定された優先度を参照し、優先度の低い情報は小さく表示するなどして投影情報60を表示可能スペースに収め、投影情報60の視認性を確保する。
 以下では、第3実施形態にかかる投影情報60の表示時の処理について、図15を参照しながら説明する。図16には、図15の処理を実行した結果得られる効果の一例を示す。
 図15の第3実施形態にかかる投影情報60の表示時の処理が開始されると、検出部34は、対象物50が移動したことを検出する(ステップS50)。例えば、図16の(a)に示す対象物50の位置が、図16の(b)に示す位置に移動した場合、検出部34は、撮像画像に基づき対象物50の移動後の位置を検出する。
 次に、画像処理部32は、対象物50と投影可能範囲70との位置関係から表示可能なスペースを算出する(ステップS52)。画像処理部32は、具体的には、投影可能範囲70をいくつかのブロックに分け、各ブロック内で、色及び文字/画像の記載の状態を確認する。つまり、画像処理部32は、対象物50外であって投影可能範囲70内の領域(情報が表示されていない領域)と、対象物50内の領域(情報が表示されている領域)とを特に区別することなくブロック分けする。画像処理部32は、濃い色または文字/画像の記載が多いブロックは、表示可能スペースとして適さないというフラグを立てる。一方、画像処理部32は、薄い色または文字/画像の記載が少ないブロックは、表示可能スペースとして適するというフラグを立てる。この方法で作成された各ブロックのフラグの集合を、以後「表示可能スペース判定フラグ」と呼ぶ。表示可能スペース判定フラグは、各ブロックのIDに関連付けて記憶部36に記憶される。
 次に、投影部33は、表示可能スペース判定フラグに基づき、現在投影されている投影情報が表示可能なスペースに収まるかを判定する(ステップS54)。全ての投影情報が表示可能スペースとして適する位置にある場合、投影部33は、現在投影されている投影情報60が表示可能なスペースに収まると判定する。
 投影部33は、現在投影されている投影情報60が表示可能なスペースに収まると判定した場合、投影情報の表示位置の調整が必要かを判定する(ステップS56)。投影部33は、投影情報の表示位置の調整が必要と判定した場合、表示可能なスペース内において投影情報60の表示位置を移動し(ステップS58)、その表示位置及びサイズで投影情報を表示し(ステップS60)、本処理を終了する。一方、投影部33は、投影情報の表示位置の調整が不要と判定した場合、その表示位置及びサイズで投影情報を表示し(ステップS60)、本処理を終了する。
 ステップS54において、投影部33は、現在投影されている投影情報が表示可能なスペースに収まらないと判定した場合、投影情報60の優先度を取得し(ステップS62)、優先度の低い投影情報60の表示サイズを調整する(ステップS64)。次に、投影部33は、投影情報60を表示可能スペースに新たな表示サイズで再配置して表示し(ステップS60)、本処理を終了する。
 ステップS64では、表示可能スペースが不足する場合、投影部33は、投影情報60の優先度に応じ、投影情報60の表示サイズの変更を行う。投影部33は、最も優先度の低い投影情報60の表示サイズを一定の割合で小さくして、投影情報60の再配置処理を実行する。
 優先度の低い投影情報60の表示サイズを一定の割合で小さくして配置処理を再実行し、投影情報60が表示可能スペースにすべて配置されるまで、投影情報60のサイズの変更と再配置の処理を繰り返す。最優先の投影情報60の表示サイズを一定の割合で小さくしても再配置が完了しない場合、最も優先度の低い投影情報60から表示サイズをさらに小さくしていく。
 全ての投影情報60を表示可能スペース内に再配置できれば、処理は終了である。
 たとえば、図16の上図に示す対象物移動前の表示状態では、5つの投影情報60のすべてが対象物50外であって投影可能範囲70内の表示可能スペース(情報が表示されていない領域)に投影されている。このとき、各投影情報60の優先度の高低関係は、図16に示されるように投影情報T、Uの優先度が投影情報S,P,Rの優先度よりも高いとする。
 図16の下図では、対象物50が移動し、5つの投影情報60のすべてが表示可能スペースに収まらない。この場合、投影部33は、優先度の低い投影情報S,P,Rの表示サイズを小さくし、すべての投影情報60を再配置する。この結果、図16の下図に示すように、投影情報S,P,Rの表示サイズを小さくした状態で、5つの投影情報60のすべてが表示可能スペースに投影される。
 ここで、投影部33は、再配置の際、現状の(再配置前の)各投影情報60の配置情報より、投影情報60の再配置処理を行う順番を計算する。再配置処理は、まず各投影情報60の優先度が高い順で行われ、同じ優先度の中では配置位置が投影可能範囲70の左上の座標に近い投影情報60程、先に配置処理されるようにする。式で表すと、投影可能範囲70の左上座標を(X,Y)、表示可能スペースを(W,H)とした場合、X+W*Yの値が小さい順に再配置が行われる。この順番付けは、再配置前の各投影情報の上下左右関係が、再配置後もなるべく維持されることを意図して行われる。よって、優先度が同じ投影情報T,Uは、図16の上図に示す左上座標に近い投影情報Tが投影情報Uよりも先に配置処理される。
 上記の方法で決められた順番で、表示可能スペースに投影情報60が配置されていく。なお、表示可能スペースの検索は、一般的なロジックで行われる。また、第3実施形態に係る投影情報60の表示の適正化は、第1実施形態において投影情報60の投影位置を探索し、投影情報60の投影可能範囲70内にて投影情報60を投影する場合にも適用可能である。
 また、第3実施形態に係る投影情報60の表示の適正化は、第2実施形態において投影情報60が手40に重畳している場合に、投影情報60の投影可能範囲70内にて投影情報60を移動させて投影する場合にも適用可能である。
 以上に説明したように、第3実施形態にかかる投影情報60の表示処理によれば、更に投影情報60の視認性を高めることができる。なお、第3実施形態では、投影情報60の加工において優先度の低い投影情報60のサイズを小さくした。しかしながら、投影情報60の加工は、これに限らず、投影情報60の外形を矩形から他の形に変形する、複数に分割する、投影情報60内の情報量自体を減らす等の方法の一つ又はその組み合わせを用いることができる。
 (ハードウェア構成例)
 最後に、本実施形態にかかる投影装置1(制御装置30)のハードウェア構成例について、図17を参照して説明する。制御装置30は、入力装置101、表示装置102、外部I/F103、RAM(Random Access Memory)104、ROM(Read Only Memory)105、CPU(Central Processing Unit)106、通信I/F107、及びHDD(Hard Disk Drive)108を備える。各部はバスBで相互に接続されている。
 入力装置101は、キーボードやマウスなどを含み、制御装置30に各操作信号を入力するのに用いられる。表示装置102は、ディスプレイを含み、各種の処理結果を表示する。
 通信I/F107は、制御装置30をネットワークに接続するインターフェースである。これにより、制御装置30は、通信I/F107を介して、入出力装置10と通信できる。
 HDD108は、プログラムやデータを格納している不揮発性の記憶装置である。格納されるプログラムやデータには、装置全体を制御する基本ソフトウェア及びアプリケーションソフトウェアがある。例えば、HDD108には、各種のDB情報やプログラム等が格納されている。
 外部I/F103は、外部装置とのインターフェースである。外部装置には、記録媒体103aなどがある。これにより、制御装置30は、外部I/F103を介して記録媒体103aの読み取り及び/又は書き込みを行うことができる。記録媒体103aには、CD(Compact Disk)、及びDVD(Digital Versatile Disk)、ならびに、SDメモリカード(SD Memory card)やUSBメモリ(Universal Serial Bus memory)などがある。
 ROM105は、電源を切っても内部データを保持することができる不揮発性の半導体メモリ(記憶装置)である。ROM105には、ネットワーク設定などのプログラムやデータが格納されている。RAM104は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。CPU106は、上記記憶装置(例えば「HDD108」や「ROM105」など)から、プログラムやデータをRAM104上に読み出し、処理を実行することで、装置全体の制御や搭載機能を実現する演算装置である。
 上記ハードウェア構成により、本実施形態にかかる制御装置30は、投影情報60の色の変更処理や投影情報60の表示処理を行うことができる。例えば、CPU106が、ROM105やHDD108内に格納された画像処理プログラム及び各種データを用いて投影情報60の色の変更処理や投影情報60の表示処理を実行する。この結果、本実施形態にかかるプロジェクタ11から投影情報60を投影する際に投影情報60の視認性を確保することができる。なお、対象物特徴DB37、投影情報DB38及び投影色情報DB39に保存される情報は、RAM104、HDD108、又はネットワークを介して制御装置30に接続されるクラウド上のサーバー等に格納され得る。
 以上、投影装置及び画像処理プログラムを上記実施形態により説明した。しかしながら、本発明にかかる投影装置及び画像処理プログラムは上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。また、上記複数の実施形態に記載された事項は、矛盾しない範囲で組み合わせることができる。また、制御装置30の取得部31、画像処理部32、投影部33、検出部34及び変更部35の各機能は、ハードウェアにより構成されてもよく、ソフトウェアにより構成されてもよく、ハードウェアとソフトウェアとを組み合わせて構成されてもよい。
 例えば、上記実施形態にかかる投影装置1の構成は一例であり、本発明の範囲を限定するものではなく、用途や目的に応じて様々なシステム構成例があることは言うまでもない。
 例えば、制御装置30が、ネットワーク35を介して入出力装置10に接続されるシステム形態は、本実施形態にかかる投影装置1の一態様であり、これに限定されない。例えば、本実施形態にかかる投影装置1の制御装置30は、入出力装置10と別体であってもよく、入出力装置10と一体であってもよい。
 1:投影装置
 10:入出力装置
 11:プロジェクタ
 12:位置検出用カメラ
 13:撮像用カメラ
 20:載置台
 30:制御装置
 31:取得部
 32:画像処理部
 33:投影部
 34:検出部
 35:変更部
 36:記憶部
 37:対象物特徴DB
 38:投影情報DB
 39:投影色情報DB
 40:手
 50:対象物
 51:ボタン
 52:対象枠
 60:投影情報
 70:投影可能範囲
 373:対象物の背景の色情報
 375:対象物のコンテンツの色情報
 393:投影情報の背景の色情報
 395:投影情報のコンテンツの色情報

Claims (14)

  1.  載置面に載置された対象物の撮像画像から該対象物の色情報を取得する取得部と、
     前記対象物の指定された範囲に含まれる情報に関連付けて記憶された投影情報を前記載置面に投影する投影部と、
     前記投影情報が前記対象物に重畳しているかを検出する検出部と、
     前記投影情報が前記対象物に重畳していることを検出した場合、前記投影情報に関連付けて記憶された前記投影情報の色情報と、取得した前記対象物の色情報とに基づき、重畳している前記投影情報の色を前記対象物の色と異なる色に変更する変更部と、
     を有する投影装置。
  2.  前記取得部は、
     前記撮像画像を複数のブロックに分割し、ブロック毎の色情報を取得し、
     前記変更部は、
     前記投影情報が前記対象物に重畳していることを検出した場合、ブロック毎の色情報と前記投影情報の色情報とに基づき、重畳している前記投影情報の色を該投影情報が重なるブロック又はブロック群の位置の色と異なる色に変更する、
     請求項1に記載の投影装置。
  3.  前記変更部は、
     前記記憶された投影情報の背景の色情報と、取得した前記対象物の背景の色情報とに基づき、重畳している前記投影情報の背景の色を、前記対象物の背景の色と該投影情報の背景の色との中間色に変更する、
     請求項1に記載の投影装置。
  4.  前記変更部は、
     前記記憶された投影情報のコンテンツの色情報と、取得した前記対象物のコンテンツの色情報とに基づき、重畳している前記投影情報のコンテンツの色を、前記対象物のコンテンツの色と該投影情報のコンテンツの色との中間色の反対色又は該中間色の補色に変更する、
     請求項1に記載の投影装置。
  5.  前記投影部は、
     前記ブロック毎の色情報に基づき、前記対象物の余白部分に前記投影情報が重畳されるように前記投影情報を投影する、
     請求項2に記載の投影装置。
  6.  前記検出部は、
     前記対象物の特定の範囲を指定する指示体が前記投影情報に重なることを検知し、
     前記投影部は、
     前記指示体に重畳していることが検出された前記投影情報を投影可能範囲内にて移動させる、
     請求項1に記載の投影装置。
  7.  前記変更部は、
     前記投影情報の一部が、前記対象物の色情報と異なる色情報を持つ領域に重なる場合、該重なる領域に投影された前記投影情報の色を変える、
     請求項1に記載の投影装置。
  8.  載置面に載置された対象物の撮像画像から該対象物の色情報を取得し、
     前記対象物の指定された範囲に含まれる情報に関連付けて記憶された投影情報を前記載置面に投影し、
     前記投影情報が前記対象物に重畳しているかを検出し、
     前記投影情報が前記対象物に重畳していることを検出した場合、前記投影情報に関連付けて記憶された前記投影情報の色情報と、取得した前記対象物の色情報とに基づき、重畳している前記投影情報の色を前記対象物の色と異なる色に変更する、
     処理をコンピュータに実行させるための画像処理プログラム。
  9.  前記取得する処理は、
     前記撮像画像を複数のブロックに分割し、ブロック毎の色情報を取得し、
     前記変更する処理は、
     前記投影情報が前記対象物に重畳していることを検出した場合、ブロック毎の色情報と前記投影情報の色情報とに基づき、重畳している前記投影情報の色を該投影情報が重なるブロック又はブロック群の位置の色と異なる色に変更する、
     請求項8に記載の画像処理プログラム。
  10.  前記変更する処理は、
     前記記憶された投影情報の背景の色情報と、取得した前記対象物の背景の色情報とに基づき、重畳している前記投影情報の背景の色を、前記対象物の背景の色と該投影情報の背景の色との中間色に変更する、
     請求項8に記載の画像処理プログラム。
  11.  前記変更する処理は、
     前記記憶された投影情報のコンテンツの色情報と、取得した前記対象物のコンテンツの色情報とに基づき、重畳している前記投影情報のコンテンツの色を、前記対象物のコンテンツの色と該投影情報のコンテンツの色との中間色の反対色又は該中間色の補色に変更する、
     請求項8に記載の画像処理プログラム。
  12.  前記投影する処理は、
     前記ブロック毎の色情報に基づき、前記対象物の余白部分に前記投影情報が重畳されるように前記投影情報を投影する、
     請求項9に記載の画像処理プログラム。
  13.  前記検出する処理は、
     前記対象物の特定の範囲を指定する指示体が前記投影情報に重なることを検知し、
     前記投影する処理は、
     前記指示体に重畳していることが検出された前記投影情報を投影可能範囲内にて移動させる、
     請求項8に記載の画像処理プログラム。
  14.  前記変更する処理は、
     前記投影情報の一部が、前記対象物の色情報と異なる色情報を持つ領域に重なる場合、該重なる領域に投影された前記投影情報の色を変える、
     請求項8に記載の画像処理プログラム。
PCT/JP2014/078176 2014-10-23 2014-10-23 投影装置及び画像処理プログラム WO2016063392A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016555016A JP6454925B2 (ja) 2014-10-23 2014-10-23 投影装置及び画像処理プログラム
PCT/JP2014/078176 WO2016063392A1 (ja) 2014-10-23 2014-10-23 投影装置及び画像処理プログラム
US15/490,706 US20170223319A1 (en) 2014-10-23 2017-04-18 Projector and projection apparatus and image processing program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/078176 WO2016063392A1 (ja) 2014-10-23 2014-10-23 投影装置及び画像処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/490,706 Continuation US20170223319A1 (en) 2014-10-23 2017-04-18 Projector and projection apparatus and image processing program product

Publications (1)

Publication Number Publication Date
WO2016063392A1 true WO2016063392A1 (ja) 2016-04-28

Family

ID=55760461

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/078176 WO2016063392A1 (ja) 2014-10-23 2014-10-23 投影装置及び画像処理プログラム

Country Status (3)

Country Link
US (1) US20170223319A1 (ja)
JP (1) JP6454925B2 (ja)
WO (1) WO2016063392A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020155912A (ja) * 2019-03-20 2020-09-24 国立大学法人福井大学 照明装置、照明方法および照明システム
JP2020177476A (ja) * 2019-04-18 2020-10-29 日本電気株式会社 画像処理装置、スキャナ、プロジェクタ、画像処理方法、プログラム
JP7354276B2 (ja) 2019-11-15 2023-10-02 株式会社Nttドコモ 情報処理装置、及び投射システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021377A (ja) * 1996-07-01 1998-01-23 Casio Comput Co Ltd 画像処理装置
JP2001211372A (ja) * 2000-01-27 2001-08-03 Nippon Telegr & Teleph Corp <Ntt> 映像投影装置
JP2010079550A (ja) * 2008-09-25 2010-04-08 Fuji Xerox Co Ltd 指示システム、指示装置、指示プログラム
JP2012098705A (ja) * 2010-10-07 2012-05-24 Nikon Corp 画像表示装置
WO2013136602A1 (ja) * 2012-03-16 2013-09-19 富士フイルム株式会社 プロジェクタ付き撮影装置及びその撮影制御方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005138801A (ja) * 2003-11-10 2005-06-02 Calsonic Kansei Corp ヘッドアップディスプレイ装置
JP2010081504A (ja) * 2008-09-29 2010-04-08 Fuji Xerox Co Ltd 画像処理装置、画像処理システム、情報処理システム及び画像処理装置の制御プログラム
US20140247263A1 (en) * 2013-03-04 2014-09-04 Microsoft Corporation Steerable display system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021377A (ja) * 1996-07-01 1998-01-23 Casio Comput Co Ltd 画像処理装置
JP2001211372A (ja) * 2000-01-27 2001-08-03 Nippon Telegr & Teleph Corp <Ntt> 映像投影装置
JP2010079550A (ja) * 2008-09-25 2010-04-08 Fuji Xerox Co Ltd 指示システム、指示装置、指示プログラム
JP2012098705A (ja) * 2010-10-07 2012-05-24 Nikon Corp 画像表示装置
WO2013136602A1 (ja) * 2012-03-16 2013-09-19 富士フイルム株式会社 プロジェクタ付き撮影装置及びその撮影制御方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020155912A (ja) * 2019-03-20 2020-09-24 国立大学法人福井大学 照明装置、照明方法および照明システム
JP7219460B2 (ja) 2019-03-20 2023-02-08 国立大学法人福井大学 照明装置、照明方法および照明システム
JP2020177476A (ja) * 2019-04-18 2020-10-29 日本電気株式会社 画像処理装置、スキャナ、プロジェクタ、画像処理方法、プログラム
JP7354276B2 (ja) 2019-11-15 2023-10-02 株式会社Nttドコモ 情報処理装置、及び投射システム

Also Published As

Publication number Publication date
US20170223319A1 (en) 2017-08-03
JP6454925B2 (ja) 2019-01-23
JPWO2016063392A1 (ja) 2017-09-21

Similar Documents

Publication Publication Date Title
KR100658998B1 (ko) 화상 처리 장치, 화상 처리 방법, 및 그 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체
Kramer et al. Hacking the kinect
DE102014216235B4 (de) Mobile dokumentenerfassungshilfe für optimierte texterkennung
US8938685B2 (en) Automated graphical user interface design and development systems and methods
US10148895B2 (en) Generating a combined infrared/visible light image having an enhanced transition between different types of image information
JP6294018B2 (ja) イメージ分析によるイメージ自動編集装置、方法およびコンピュータ読み取り可能な記録媒体
US20120243796A1 (en) Image processing apparatus, computer readable medium storing program, and image processing method
US10455163B2 (en) Image processing apparatus that generates a combined image, control method, and storage medium
JP2008015706A (ja) 画像処理装置
US20150161775A1 (en) Method of correcting image overlap area, recording medium, and execution apparatus
US9361669B2 (en) Image processing apparatus, image processing method, and program for performing a blurring process on an image
JP6454925B2 (ja) 投影装置及び画像処理プログラム
WO2022124380A1 (en) Method, system, and non-transitory computer-readable storage medium storing set of computer-readable instructions
CN104883519A (zh) 图像处理装置及图像处理装置的控制方法
US20170018108A1 (en) Display apparatus and control method thereof
US9361708B2 (en) Image processing device, image processing method
EP2790396A1 (en) Color extraction-based image processing method, computer-readable storage medium storing the same, and digital image apparatus
KR101764998B1 (ko) 이미지 필터링 방법 및 시스템
US20110150336A1 (en) Hardware Management Based on Image Recognition
JP2011109507A (ja) 画像処理装置および画像処理プログラム
US10943109B2 (en) Electronic apparatus, method for controlling thereof and the computer readable recording medium
KR20090091578A (ko) 한 대의 카메라를 이용한 최소 오차를 갖는 레이저 빔의위치 검출 방법 및 장치
US11010900B2 (en) Information processing method, information processing apparatus, and storage medium
CN115035530A (zh) 图像处理方法、图像文本获得方法、装置及电子设备
US20090103811A1 (en) Document camera and its method to make an element distinguished from others on a projected image

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14904499

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016555016

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14904499

Country of ref document: EP

Kind code of ref document: A1