WO2016125541A1 - 投影制御装置、制御プログラムおよび制御方法 - Google Patents

投影制御装置、制御プログラムおよび制御方法 Download PDF

Info

Publication number
WO2016125541A1
WO2016125541A1 PCT/JP2016/050731 JP2016050731W WO2016125541A1 WO 2016125541 A1 WO2016125541 A1 WO 2016125541A1 JP 2016050731 W JP2016050731 W JP 2016050731W WO 2016125541 A1 WO2016125541 A1 WO 2016125541A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
projection
destination
projection destination
information
Prior art date
Application number
PCT/JP2016/050731
Other languages
English (en)
French (fr)
Inventor
暁 本村
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to JP2016573251A priority Critical patent/JPWO2016125541A1/ja
Publication of WO2016125541A1 publication Critical patent/WO2016125541A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Definitions

  • the present invention relates to a projection control apparatus and the like for causing a projection apparatus to project an image onto a projection destination.
  • Patent Document 1 There is a technique disclosed in Patent Document 1 as a conventional technique for changing the projection destination of an image.
  • the first projection mode in which the irradiation direction of light irradiated from the light irradiation port is obliquely above the front direction of the light irradiation port or the horizontal plane
  • the second projection mode in which the irradiation direction of the light irradiated from the light irradiation port is obliquely below the horizontal plane.
  • the above conventional technique has a problem in that the relationship between the projection destination and the projected image is not considered at all.
  • the technique described in Patent Document 1 there are a plurality of modes for changing the projection destination.
  • it is considered that the relationship between the projection destination and the projected image is not considered at all.
  • the present invention has been made in view of the above-described problems, and its purpose is to allow an image to be projected onto a projection destination in consideration of the relevance with the projected image, which is convenient for the user. It is an object of the present invention to provide a projection control device that can improve the above.
  • a projection control apparatus is a projection control apparatus that causes a projection apparatus to project an image onto a projection destination, and is based on image-related information that is information related to the image.
  • a projection destination determination unit that determines the projection destination of the image, and a drive unit control that controls the drive unit of the projection apparatus so that the image can be projected onto the projection destination determined by the projection destination determination unit. And a section.
  • a control method for a projection control apparatus is a control method for a projection control apparatus that causes a projection apparatus to project an image onto a projection destination.
  • a projection destination determining step for determining a projection destination of the image based on image-related information as such information, and the projection apparatus so that the image can be projected onto the projection destination determined in the projection destination determining step.
  • a drive unit control step for controlling the drive unit.
  • FIG. 1 It is a block diagram which shows the structure of the image projector which concerns on Embodiment 2 of this invention. It is a flowchart which shows an example of the flow of operation
  • (A)-(c) is a figure which shows the example of the function table used for the said image projector, respectively.
  • (A) And (b) is a figure which respectively shows the example of the secret table used for the said image projector. It is a figure which shows the example of the content table used for the said image projector. It is a figure which shows another example of the content table used for the said image projector.
  • (A) And (b) is a figure which shows another example of the content table used for the said image projector, respectively.
  • (A) is a figure which shows another example of the content table used for the said image projector
  • (b) is a figure which shows the example of the date table used for the said image projector
  • (c) These are figures which show the example of the place table used for the said image projector.
  • FIGS. 1 to 13 Embodiments of the present invention will be described with reference to FIGS. 1 to 13 as follows.
  • components having the same functions as those described in the specific embodiment may be denoted by the same reference numerals and description thereof may be omitted.
  • FIG. 1 is a block diagram illustrating a configuration of the image projection apparatus 100.
  • the image projection apparatus 100 includes a control unit 10, an input unit 20, a drive unit 30, an image projection unit 40, a communication unit 50, an alarm unit 60, an image input unit 70, and a storage unit 80.
  • the image projection apparatus 100 is a robot-type projection apparatus having a projector function as shown in FIGS. 3A to 3C, for example, and an image projection unit 40 is provided on the head.
  • the projection direction (projection destination) of the image by the image projection unit 40 can be changed.
  • the form of the image projection apparatus 100 is not limited to such a robot form, and may be any form as long as the image projection destination can be changed.
  • the “image” may be a still image or a moving image, or may be a simple display (screen) other than the still image or the moving image.
  • a phone book display or a schedule book display displayed on a liquid crystal screen of a general mobile phone can be listed.
  • the image projection apparatus 100 can change the projection angle with respect to the horizontal plane (hereinafter referred to as “pitch angle”) at an arbitrary angle from ⁇ 90 degrees to +90 degrees. ing. In addition, 30 degrees and 60 degrees shown in the figure show typical examples of pitch angles.
  • the projection angle (projection destination) by the image projection apparatus 100 is “upward (ceiling direction)” and “horizontal (horizontal direction)” shown in the following (1) to (3). And only 3 types of “down (ground direction)” are taken.
  • Pitch angle ⁇ + 30 degrees In this case, for example, if indoor, a part of the ceiling is the projection destination of the image (see FIG. 3A).
  • the image projection apparatus 100 is configured such that the control unit 10 [or the image projection control apparatus (projection control apparatus) 1] is integrally incorporated in the image projection apparatus 100.
  • the present invention is not limited to such a form, and a form in which the control unit 10 (or the image projection control apparatus 1) is separated and communicable with the image projection apparatus 100 may be adopted. .
  • the control unit 10 controls each block provided in the image projection apparatus 100 in an integrated manner, and includes, for example, a CPU (Central Processing Unit).
  • the control unit 10 includes an image projection control device 1 and a table generation unit 2.
  • the image projection control apparatus 1 comprehensively controls various processes for projecting an image from the image projection apparatus 100 to a predetermined projection destination, and includes a projection image specifying unit 101, a projection destination specifying unit (projection destination determining unit). ) 102, a projection control unit (drive unit control unit) 103, and a communication control unit 104.
  • the projection image specifying unit 101 specifies an image to be projected from the image projection apparatus 100 and notifies the projection destination specifying unit 102 of the specified image. Further, the projection image specifying unit 101 may specify an image to be projected based on a result of a user input operation via the input unit 20. For example, when a thumbnail image that is a candidate for a projected image is displayed on a display unit (not shown), an image (thumbnail image) that the user wants to project is selected by a key operation or touch operation via the input unit 20. It ’s fine. Further, for example, when the phone book application is activated and the user performs a process of displaying the phone book information in response to an input operation via the input unit 20, an image related to the phone book information is displayed. You may specify as an image which should be projected.
  • the communication control unit 104 may specify an image to be projected based on communication data received from another device via the communication unit 50.
  • the image projection apparatus 100 may have a telephone function, and the communication control unit 104 may identify the image of the incoming call partner as an image to be projected when an incoming call is received via the communication unit 50. .
  • information related to the telephone number of the called party and an image of the called party (phone number use right holder) associated therewith are recorded in advance associated with the storage unit 80.
  • the projection image may be specified based on the change in the internal state of the image projection apparatus 100. For example, when a preset date and time is notified from the alarm unit 60 of the image projection apparatus 100, an image selected in advance corresponding to the date and time may be specified as an image to be projected.
  • the present invention is not limited to this, and the form in which the image projection apparatus 100 includes the projection image specifying unit 101 is adopted. Also good. In this case, a configuration may be adopted in which the projection image specifying unit 101 of the image projection apparatus 100 specifies an image to be projected, and the specification result is notified to the projection destination specifying unit 102 of the image projection control apparatus 1.
  • the projection destination specifying unit 102 refers to various tables to be described later, and based on the image relation information that is information related to the image to be projected, the projection destination of the image (projection plane or projection on which the image is to be projected) Identify (determine) the target.
  • the image relation information that is information related to the image to be projected
  • the projection destination of the image projection plane or projection on which the image is to be projected
  • Identify determine (determine) the target.
  • the correspondence between the image, the image relation information, and the projection destination of the image is defined in advance.
  • Image related information for example, the following various types of information (1) to (5) can be listed.
  • Image identification information for identifying an image from other images for example, the file name or content name of the image.
  • Image type information indicating the type of image for example, information indicating the attribute of the image, the name of the category to which the image belongs (content category), the name of the group to which the image belongs.
  • Application type information indicating the type of application for displaying an image Information indicating the type of each application such as a user setting application or a phone book application.
  • image-related information may include image data itself of the projected image. That is, in the various tables described above, the correspondence between the image data itself and the projection destination of the image may be defined.
  • the projection control unit 103 controls the drive unit 30 of the image projection apparatus 100 so that an image can be projected onto the projection destination determined by the projection destination specifying unit 102, or causes the image projection unit 40 to project an image. Control.
  • the form in which the image projection control apparatus 1 includes the projection control unit 103 has been described.
  • the present invention is not limited thereto, and the form in which the image projection apparatus 100 includes the projection control unit 103 may be employed.
  • the configuration may be such that the projection destination specifying unit 102 of the image projection control apparatus 1 specifies the projection destination of the image and notifies the specification control unit 103 of the image projection apparatus 100 of the specification result.
  • the communication control unit 104 performs control to receive communication data from an external device via the communication unit 50.
  • the communication control unit 104 specifies the telephone number and notifies the projection image specifying unit 101 of it.
  • the projection image specifying unit 101 specifies the image of the called party (the right to use the phone number) associated with the notified telephone number and stored in the storage unit 80 as an image to be projected. .
  • the input unit 20 receives a user's input operation, and performs a process of converting the input from the user into input data and notifying the projection image specifying unit 101.
  • Examples of the input unit 20 include a hardware key and a touch panel superimposed on a display unit (not shown).
  • the drive unit 30 drives at least the image projection unit 40, and is constituted by a servo motor. Other actuators can be used as the drive unit 30. As described above, the projection direction (projection destination) of the image projection unit 40 can be changed by driving the drive unit 30.
  • the image projection unit 40 projects an image, and is composed of a projector, for example.
  • the drive unit 30 and the image projection unit 40 may be considered as an integrated unit.
  • the communication unit 50 converts a received radio wave from an external device into communication data and passes it to the communication control unit 104.
  • the alarm unit 60 notifies the projection image specifying unit 101 of the date and time set in advance.
  • the projection image specifying unit 101 specifies an image associated with the date and time and stored in advance in the storage unit 80 as an image to be projected.
  • the image input unit 70 generates image data from the result of photographing the outside of the image projection apparatus 100 and passes it to the table generation unit 2.
  • the image input unit 70 is configured by, for example, a camera.
  • the table generating unit 2 includes a posture specifying unit 3.
  • the posture specifying unit 3 specifies the posture of the image projection device 100 when the image input unit 70 generates (or shoots) image data based on a detection result from an acceleration sensor (not shown).
  • the table generation unit 2 generates information related to the correspondence relationship between the image data received from the image input unit 70 and the result of specifying the posture of the image projection apparatus 100 specified by the posture specifying unit 3 (posture information). Processing to be included in the content table 52 stored in 80 is performed.
  • the storage unit 80 includes, for example, a hard disk, a flash memory, and the like. Various information necessary for the operation of each control block of the control unit 10 described above is recorded in advance, and each control according to the operation of the image projection apparatus 100 is recorded. Various information generated by the block is recorded afterwards. Examples of information recorded in advance in the storage unit 80 include various table information such as a function table, a content table, and a secret table, a telephone number and image data of a right holder who uses the telephone number. Moreover, as an example of information recorded in the storage unit 80 afterwards, information indicating the determined projection angle of the image projection unit 40 (or information related to the projection destination) can be exemplified. A specific example of various table information recorded in the storage unit 80 will be described later.
  • FIG. 2 is a flowchart showing a flow of basic operations related to the image projection apparatus 100.
  • an input for selecting one thumbnail image from among a plurality of thumbnail images related to a candidate image to be projected displayed on a display unit (not shown) is performed via the input unit 20, and the input
  • step S hereinafter, “step” is omitted
  • step S101 the projection destination specifying unit 102 specifies an image stored in advance in the storage unit 80 as an image corresponding to the selected thumbnail image, and notifies the projection destination specifying unit 102 of the specified image.
  • the process proceeds to S102.
  • the trigger for starting S101 is not limited to the above case.
  • the communication control unit 104 receives an incoming call via the communication unit 50, the telephone number of the called party is specified and notified to the projection image specifying unit 101, the process may proceed to S101.
  • the projection image specifying unit 101 specifies, as an image to be projected, an image of the incoming call partner stored in advance in the storage unit 80 in association with the telephone number based on the specified phone number of the incoming call partner. Then, the specified image is notified to the projection destination specifying unit 102.
  • the process may proceed to S101.
  • the projection image specifying unit 101 specifies an image that is associated with the set date and time and is stored in advance in the storage unit 80 as an image to be projected, and notifies the projection destination specifying unit 102 of the specified image. To do.
  • the projected image specifying unit 101 displays the phone book information. You may specify the image which concerns on as an image which should be projected. In this case, the projection image specifying unit 101 notifies the projection destination specifying unit 102 of an image related to the specified phone book information.
  • the projection destination specifying unit 102 determines the image projection destination (projection plane) based on the notified image and various table information such as the function table, content table, and secret table stored in the storage unit 80. Or a projection target that is a target on which an image is projected) is specified (determined) and notified to the projection control unit 103 (projection destination determination step). Details of the operation of S102 will be described later.
  • the projection control unit 103 determines the projection direction (projection destination) of the image projection unit 40 by controlling the drive unit 30 so as to project the image onto the specified projection destination (drive unit control step). Further, the projection control unit 103 controls the image projection unit 40 to project an image.
  • the range of the surrounding walls that can be displayed An image may be projected by selecting the widest wall. Further, if a screen having a certain range or more is acceptable, the image may be projected by selecting a wall in a direction that is easy to project instead of the widest wall. In this case, information about the position of the widest wall that can be displayed and the position of the wall in the direction that is easy to project is recorded in the storage unit 80 in advance, and the projection destination specifying unit 102 finally determines based on the information. It is assumed that a projection destination of a correct image is determined.
  • any projection has already been performed at the start of the flow of the basic operation, there is a possibility that the projection direction at the start of this flow and the projection direction when a new projection is performed in S103 may be different. In that case, at least one of the following operations is performed. (1) The projection is temporarily stopped at the start of this flow, and a new projection is performed in S103. (2) Direct the projection direction of S103 while projecting the image at the start of this flow, and then project a new image. (3) If the projection direction at the start of this flow in S103 is different from the projection direction when a new projection is performed in S103, the projection is temporarily stopped in S103, and after a new projection direction, The correct image.
  • the projection destination specifying unit 102 refers to the function table [see FIG. 8] stored in the storage unit 80 based on the image specified in S101, and performs the “application type” and “projection” to be projected.
  • the “projection destination” corresponding to “image (screen)” is specified, and the process proceeds to S123.
  • the projection direction (projection destination) may be specified according to the other party who is talking. In this case, it is assumed that the correspondence between the party to call and the projection destination is arbitrarily set by the user, and information related to the correspondence is included in the function table.
  • the projection destination specifying unit 102 performs projection by referring to the content table [FIGS. 9 to 12 and (a) of FIG. 13] stored in the storage unit 80 based on the image specified in S101.
  • the “projection destination” corresponding to the “application type” and “projection image (screen)” is specified, and the process proceeds to S123. Note that the “projection destination” of the above-described function table and content table may be arbitrarily edited by the user.
  • the identifying unit 102 may further determine the final “projection destination” in consideration of surrounding obstacles and the like.
  • a conventional method can be used as to how to consider an obstacle, for example, the following method can be used.
  • the presence or absence of an object is detected by an ultrasonic sensor (not shown) or the like, and the distance between the object and the image projection apparatus 100 is measured by a camera (which may be substituted by the image input unit 70). Based on the detection result of the presence / absence of the object and the projection space information indicating the distance between the object and the image projection device 100 obtained from the camera and the ultrasonic sensor, there is an obstacle in the projection space that hinders the projection of the image. It is determined whether or not.
  • the object when the shape of an object existing in the projection space is detected using the distance measured by the camera, and the size of the object existing in the projection space is larger than the display content of the image to be projected, the object is Since there is a possibility of hindering the display of the image to be projected, it is determined that there is an obstacle in the projection space that hinders the projection of the image.
  • the size of the object existing in the projection space is small with respect to the display content of the image to be projected, the shape of the object has a small distortion in the display of the image to be projected. Determine that there are no obstacles to block.
  • the “projection destination” may be specified in consideration of “secret (information)”.
  • the “secret function” refers to a function for turning on / off the setting of the secret mode.
  • secret (setting) a flag indicating whether or not the secret setting of the image projection apparatus 100 is affected can be exemplified. For example, when the flag is set to “ ⁇ ” (or “1”), it indicates that the secret setting of the image projection apparatus 100 is affected. On the other hand, when the flag is set to “x” (or “0”), it indicates that the secret setting of the image projection apparatus 100 is not affected.
  • the “setting screen” is a screen for setting items for displaying a phone book, and is a screen that has no influence even if viewed by a third party.
  • “projection destination” is set to “arbitrary (no setting)” as shown in the function table 51.
  • “projection destination” being “arbitrary” means that no projection destination is set.
  • the image is projected as it is with the current position, current posture, and current projection direction of the image projection apparatus 100. More specifically, if the projection direction is in the horizontal direction, the image is projected horizontally, and if the projection direction is in the upward direction, the image is projected upward.
  • “secret” is “ ⁇ ” and the secret function is ON, for example, “projection destination” is set to “down”.
  • the image to be projected is set as a secret, it is necessary to prevent it from being seen by an unspecified number of people.
  • the image is not displayed largely on the wall, but is displayed in a range that only the user can visually recognize, for example, a part of the table on which the image projector 100 is placed.
  • the function table 51 may not always hold “projection destination” and may always be “horizontal” (or arbitrary). Good. That is, in this case, the projection direction is specified by referring to the “secret” in the function table 51 only when the image projection apparatus 100 is set to the secret.
  • the “secret” information can be held in the content table 52 shown in FIG. 10 as in the function table 51 described above, and “projection destination” is set according to the secret state of the image projection apparatus 100 in S122 as in S121. You may decide.
  • the projection destination specifying unit 102 confirms whether or not the secret mode is set in the image projection apparatus 100 (hereinafter simply referred to as “secret setting”).
  • the secret mode is a mode in which access restriction is applied to information so that information is not inadvertently disclosed to an unspecified number of people. Note that the secret mode ON / OFF setting may be arbitrarily set by a user using the image projection apparatus 100.
  • the projection destination specifying unit 102 refers to the secret table 55-1 or 55-2 (see FIG. 9), and for “application type” and “projected image (screen)” to be projected, Check if you are trying to project a secret image (whether it depends on secret mode). If an image with a secret setting is to be projected, the process proceeds to S112. On the other hand, if the image with the secret setting is not to be projected, the process proceeds to S120.
  • the storage unit 80 of the image projection apparatus 100 holds secret tables 55-1 and 55-2 in advance.
  • the user may arbitrarily set the “secret” item in the secret table.
  • the “secret” item in the secret table is an item indicating whether or not it depends on the secret mode setting of the image projection apparatus 100. “O” indicates “depends”, and “x” indicates “does not depend on”. "
  • the secret table 55-1 shown in (a) of FIG. 9 is a table in which “application type” and “secret” are associated with each other.
  • the secret table 55-2 shown in FIG. 9B is a table in which “application type”, “projected image (screen)”, and “secret” are associated with each other.
  • the projection destination specifying unit 102 determines a “projection destination” for projecting the secret item.
  • “do not project” may be set, or a direction (eg, downward direction) for avoiding browsing to an unspecified number of persons is determined in advance and the direction is determined as “projection destination”. Also good.
  • the projection destination specifying unit 102 may confirm whether the specified “application type” is a secret item with reference to, for example, the secret table 55-1.
  • the secret table 55-1 is used, whether or not it is a secret item is determined for each application.
  • a secret table 55-2 may be held instead of the secret table 55-1 as a table in which “application type”, “projected image (screen)”, and “secret” are associated with each other.
  • the projection destination specifying unit 102 specifies the “projection destination” for the “projection screen (image)” currently being projected with reference to the secret table 55-2.
  • No. in the secret table 55-2 shown in FIG. “Secret” corresponding to “Phonebook” and “Setting screen” in line 4 is “x”.
  • the “setting screen” is a screen for setting items for displaying the phone book, and is a screen that has no influence even when viewed by a third party. Since the “secret” is “x”, the “projection destination” is not affected even if the secret mode is set in the image projection apparatus 100.
  • no. 1, 2, 5, 7, 9, and 10 may be set so that a secret item can be set for each content to be projected.
  • a secret item may be set for each image content.
  • the secret item may be set for each schedule data.
  • the projection destination specifying unit 102 refers to the function table 51-1 or 51-2 stored in the storage unit 80, and performs the “application type” and “projection” to be projected.
  • the “projection destination” corresponding to “image (screen)” is specified. It is assumed that the storage unit 80 of the image projection apparatus 100 holds function tables 51-1 and 51-2 in advance. The user may arbitrarily set the “projection destination” in the function table.
  • the function table 51-1 is a table in which “application type” and “projection destination” are associated with each other.
  • the “projection destination” is identified with reference to the function table 51-1 for the “application type” identified in S120.
  • a “projection destination” is determined for each application. Depending on the application, it may be desired to determine the projection destination according to each screen within the application function.
  • a function table 51-2 may be held as a table in which “application type”, “projected image (screen)”, and “projection destination” are associated with each other.
  • the projection destination specifying unit 102 specifies the “projection screen (image)” that is currently being projected.
  • the projection destination specifying unit 102 specifies “projection destination” for the specified “projection screen (image)” with reference to the function table 51-2.
  • No. 3, 5, 7, and 8 may be set so that a projection destination can be set for each content to be projected.
  • the projection direction may be specified according to the party with whom the call is made.
  • the projection direction may be specified for each schedule.
  • the projection destination for each content can be arbitrarily set by the user, and a table in which the content and the projection destination are associated is held in the storage unit 80.
  • the projection destination specifying unit 102 refers to the content table 52-1, the content table 52-21, or the content table 52-22 in the storage unit 80 and tries to perform projection.
  • the “projection destination” corresponding to the “application type” and “projection image (image data)” is specified. Note that the projection destinations of these tables may be arbitrarily edited by the user.
  • the content table 52-1 is a table in which “content name (file name)”, “projected image”, and “projection destination” are associated with each other. “Content name” is an item for distinguishing from other image data (no data having the same content name exists).
  • the “projection destination” is specified by referring to the content table 52-1 based on the image specified in S101.
  • the “projection destination” is determined for each projection image. If the projected image can be divided into a certain category (group), it may be desired to determine the projection destination for each category instead of for each projected image.
  • the projection destination specifying unit 102 first specifies the content category for the “projection screen (image)” specified in S101 with reference to the content table 52-22. Next, the “projection destination” corresponding to the category identified with reference to the content table 52-21 is identified. Since S123 is as described above, description thereof is omitted here.
  • the “projection destination” is set in association with the attitude (posture information) of the image projection apparatus 100 when the image is captured. May be performed. For example, “upward direction” is obtained when the image input unit 70 is photographed upward, “horizontal direction” is photographed when it is photographed sideways, and “downward” is photographed when the image is photographed downward.
  • the image projector 100 is considered to face various directions during shooting. If the projection destination is changed according to the direction during shooting, the content table 52 No. As shown in the line 6, the projection destination is “dynamic displacement”. If the projection destination is fixed, no. For example, the projection destination is set to “horizontal (horizontal direction)” (see FIG. 10).
  • “dynamic displacement” means that the projection destination is dynamically changed to any one of “upper”, “lateral”, and “lower” during projection. For example, settings may be made such that the projection destination changes for each frame as in the example of the content table 52-3 shown in FIG.
  • the image input unit 70 captures a still image
  • the captured images [“content name (file name)” and “projected image”] are registered in the content table 52-1.
  • the posture specifying unit 3 notifies the table generation unit 2 of the posture of the image projection device 100 when the still image is shot, and the table generation unit 2 sets the “projection destination” obtained based on the notified posture to the content It is additionally registered in the table 52-1.
  • the projection destination obtained by the projection destination specifying unit 102 is notified to the image input unit 70, and the image input unit 70 displays “content name (file name)” and “projected image”. And “projection destination” may be registered in the content table 52-1.
  • the image projection device is considered to face various directions during shooting.
  • information attitude information
  • information related to the attitude of the image projection apparatus 100 is generated for each frame, and the information related to the attitude of the image projection apparatus 100 for each frame is stored in association with the image. Keep it.
  • the “projection destination” is set based on this information.
  • the plane starts to take off, and when it leaves the ground, the frame No. is shown. 2000.
  • the frame No. Similarly to 1, the photographer is shooting with the camera facing the horizontal direction, so the projection destination of the frame that can be acquired is also horizontal (horizontal direction).
  • the frame No. shows that the airplane is flying far enough from the ground. 10,000. At this time, the photographer is shooting with the camera facing upward (in the sky), so the projection destination of the frame that can be acquired is upward.
  • the projection direction (or projection destination) is held for each frame, there is a concern that the amount of memory increases. Therefore, it is conceivable to hold the projection direction only at the timing when the projection direction is switched. For example, it is the same as the projection direction of the immediately preceding frame except for the frame in which the projection direction is switched.
  • the “projection destination” is, in principle, selected from any of the three directions of “up (ceiling direction)”, “lateral (horizontal direction)” and “down (ground direction)”. This is not particularly limited.
  • the posture (shooting angle) at the time of shooting may be set as the projection destination (projection direction), and the shooting direction may be specified in detail.
  • the horizontal direction is 0 degree
  • the projection destination is 30 degrees upward, and 60 degrees downward.
  • the image projecting apparatus 100 it is possible to determine the projection destination of an image based on the image relation information that is information related to the image, and project the image onto the determined projection destination. As a result, the relationship between the image relation information and the projection destination is determined in advance in consideration of the relationship with the projected image, and the image is projected onto the projection destination in consideration of the relationship with the projected image. It becomes possible to do.
  • the image projection apparatus 100 it is possible to determine a projection destination of an image based on image identification information related to the image, and project the image onto the determined projection destination. Further, according to the image projection apparatus 100, it is possible to determine the projection destination of the image based on the image type information related to the image and project the image onto the determined projection destination. Further, according to the image projection apparatus 100, it is possible to determine a projection destination of an image based on application type information related to the image, and project the image onto the determined projection destination. Further, according to the image projection apparatus 100, it is possible to determine the projection destination of the image based on the secret information related to the image, and project the image onto the determined projection destination.
  • the image projection device 100 it is possible to determine the projection destination of the image according to the posture information indicating the posture of the image projection device 100 when the image is captured, and to project the image onto the determined projection destination. . As described above, user convenience can be improved.
  • FIGS. 8A to 8C show specific examples of function tables used for operations of the above-described image projection apparatus 100 and an image projection apparatus 200 described later.
  • FIG. 8A shows a state in which an application type, a projection image (screen), a projection destination, and a secret (setting) are associated with each other.
  • the application type indicates the type of application that displays an image.
  • user settings application
  • phone book application
  • schedule application
  • map application
  • call application
  • alarm Application types such as “app” are illustrated.
  • the projected image (screen) shows an image projected (displayed) according to the application type.
  • the display image of the profile information related to the user setting application and the display image of the setting screen related to the phone book application Phone book information display image, schedule application setting screen display image and schedule information display image, map application display image map information display screen, incoming call screen display image, and alarm application alarm Each display image such as a display image of a notification screen is illustrated.
  • the projection destination indicates information related to the projection destination of the image, and “arbitrary” and “horizontal (horizontal direction)” are illustrated in the example illustrated in FIG.
  • the secret (setting) is information indicating whether or not each image is set as a secret (information indicating whether each image is confidential).
  • the “projection destination” and “secret” in the function table 51 may be arbitrarily edited by the user.
  • the function table 51-1 shown in FIG. 8B shows table information related to the correspondence between “application type” and “projection destination”.
  • the function table 51-1 shown in (c) of FIG. 8 shows table information relating to the correspondence between “application type”, “projection image (screen)”, and “projection destination”.
  • the secret table 55-1 shown in FIG. 9A shows table information related to the correspondence between “application type” and “secret (setting)”.
  • the secret table 55-2 shown in (b) of FIG. 9 shows table information relating to the corresponding relationship between “application type”, “projected image (screen)”, and “secret (setting)”.
  • FIG. 10, FIG. 11, FIG. 12 (a), FIG. 12 (b), and FIG. 13 (a) are specific examples of content tables used for the operations of the image projection apparatuses 100 and 200, respectively. Indicates.
  • Content name (file name) is image identification information for identifying an image from other images. “Content name” is information associated with each image on a one-to-one basis.
  • Content category is image type information indicating the type (category) of the image, and can include, for example, the attribute and type of the content.
  • the difference between “content name” and “content category” will be explained.
  • the content table 52 No As shown in the first row, the projected image whose “content name” is “starry sky” is only one image in which the crescent moon and stars are photographed. When the content of the projected image is “starry sky”, it is more realistic to display on the ceiling than on the wall. For this reason, the “projection destination” corresponding to the image of “starry sky” is set to “up (ceiling direction)”.
  • FIG. 6 is a block diagram showing a configuration of the image projection apparatus 200.
  • the image projection apparatus 200 according to the present embodiment is based on information received by the projection destination specifying unit 202 of the image projection control apparatus 1 from the place specifying unit 21 and the time measuring unit (date and time specifying unit) 204.
  • the image projection apparatus 100 is different from the image projection apparatus 100 in that it includes a case of determining an image projection destination.
  • the storage unit 80 is different from the image projection apparatus 100 in that the date and time table 53 and the location table 54 are stored in advance in addition to the function table 51, the content table 52, and the secret table 55 described above. . Therefore, the configuration of the above difference will be described below, and description of other configurations will be omitted as necessary.
  • the location identifying unit 21 identifies the current location (position) of the image projector 200 and includes a GPS (Global Positioning System) receiver.
  • the location specifying unit 21 specifies the current location of the image projection device 200 based on the information related to the current longitude and latitude acquired from the GPS receiver and the map information stored in the storage unit 80 in advance. Thereby, for example, it can be specified whether the image projection apparatus 200 is currently indoors or outdoors. Information relating to the current location of the image projection device 200 identified by the location identifying unit 21 is notified to the projection destination identifying unit 202.
  • the self position may be estimated by detecting a landmark (mark) from WiFi (registered trademark) or a camera image.
  • the projection destination specifying unit 202 When determining the projection destination of the image based on the current location of the image projecting device 200, the projection destination specifying unit 202 stores information related to the current location of the image projecting device 200 notified from the location specifying unit 21 and storage. The “projection destination” of the image is determined based on the location table 54 stored in advance in the unit 80.
  • the timekeeping unit 204 specifies the current date and time, and is connected to a timer, for example.
  • the projection destination specifying unit 202 determines the projection destination of the image based on the current date and time, the information related to the current date and time acquired from the time measuring unit 204 and the date and time table 53 stored in the storage unit 80 in advance. , The “projection destination” of the image is determined.
  • the date table 53 and the location table 54 described above may be arbitrarily set and edited by the user.
  • FIG. 2 is a flowchart showing the flow of basic operations related to the image projection apparatus 200.
  • step S101 is started when the result is converted into input data and notified to the projection image specifying unit 101.
  • the projection destination specifying unit 102 specifies an image stored in advance in the storage unit 80 as an image corresponding to the selected thumbnail image, and notifies the projection destination specifying unit 102 of the specified image. The process proceeds to S102.
  • the projection destination specifying unit 102 creates an image based on the notified image and various table information such as a function table, a content table, a date / time table, a location table, and a secret table stored in the storage unit 80. Is specified (determined), and is notified to the projection control unit 103 (projection destination determination step). Details of the operation of S102 will be described later.
  • the projection control unit 103 determines the projection direction (projection destination) of the image projection unit 40 by controlling the drive unit 30 so as to project the image onto the specified projection destination (drive unit control step). Further, the projection control unit 103 controls the image projection unit 40 to project an image.
  • the projection destination specifying unit 202 confirms whether or not the secret mode is set in the image projection apparatus 200. If the secret mode is set (ON) in S110, the process proceeds to S111. On the other hand, if the secret mode is not set (OFF), the process proceeds to S113.
  • the projection destination specifying unit 202 refers to the secret table 55-1 or 55-2 (see FIG. 9), and for “application type” and “projected image (screen)” about to be projected, Check if you are trying to project a secret image (whether it depends on secret mode). If an image with a secret setting is to be projected, the process proceeds to S112. On the other hand, if the image with the secret setting is not to be projected, the process proceeds to S113.
  • the operations after S112 are the same as the operations described in the flow shown in FIG.
  • the projection destination specifying unit 202 determines whether to determine the projection destination based on the current location of the image projection apparatus 200, and determines the projection destination based on the current location of the image projection apparatus 200. , Go to S114. Note that the user can set in advance whether or not to determine the projection destination based on the current location of the image projection apparatus 200. On the other hand, if the projection destination is not determined based on the current location of the image projection apparatus 200, the process proceeds to S115.
  • the projection destination specifying unit 202 refers to the location information acquired by the location specifying unit 21 and the location table 54 stored in the storage unit 80, determines the projection destination of the projection image, and proceeds to S123. .
  • the projection destination specifying unit 202 determines whether to determine the projection destination based on the current date and time, and when determining the projection destination based on the current date and time, the process proceeds to S116. Note that the user can set in advance whether to determine the projection destination based on the current date and time. On the other hand, if the projection destination is not determined based on the current date and time, the process proceeds to S120.
  • the projection destination specifying unit 202 refers to the date / time information acquired by the time measuring unit 204 and the date / time table 53 stored in the storage unit 80, determines the projection destination of the projection image, and proceeds to S123. Since the operation after S120 is as described above, the description thereof is omitted here.
  • the image projection device 200 it is possible to determine the projection destination of the image based on the identified current date and time and to project the image onto the determined projection destination. Further, according to the image projection device 200, it is possible to determine the projection destination of the image based on the current location of the specified projection device, and to project the image onto the determined projection destination. As described above, user convenience can be improved.
  • FIG. 13B shows a specific example of a date / time table used for the operation of the image projection apparatus 200.
  • a state in which “date / time” and “projection destination” are associated with each other is shown.
  • “Date and time” is information relating to the date and time of projection. 1 and no. As shown in the row 2, data of only time may be held. Data in which date and time are associated with each other as shown in FIG.
  • the “projection destination” in the time zone “23:00 to 7:00” in the row is set to “up (toward the ceiling)”.
  • FIG. 13C shows a specific example of a location table used for the operation of the image projection apparatus 200.
  • a state where “place” and “projection destination” are associated with each other is shown.
  • “Location” is information relating to the current location (position) of the image projection apparatus 200.
  • the “projection destination” corresponding to “bedroom” in the first row is set to “up (toward the ceiling)”.
  • the “projection destination” corresponding to “outdoor” in the second row is set to “down (toward the ground)”.
  • the control blocks (particularly the projection image specifying unit 101, the projection destination specifying units 102 and 202, the projection control unit 103, the location specifying unit 21 and the time measuring unit 204) of the image projection apparatuses 100 and 200 are formed on an integrated circuit (IC chip) or the like. It may be realized by a logic circuit (hardware), or may be realized by software using a CPU (Central Processing Unit).
  • IC chip integrated circuit
  • CPU Central Processing Unit
  • the image projection apparatuses 100 and 200 include a CPU that executes instructions of a program that is software that realizes each function, and a ROM (Read Only) in which the program and various data are recorded so as to be readable by the computer (or CPU).
  • Memory or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like.
  • the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it.
  • a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • a transmission medium such as a communication network or a broadcast wave
  • the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
  • a projection control apparatus (image projection control apparatus 1) according to aspect 1 of the present invention is a projection control apparatus that causes a projection apparatus (image projection apparatus 100) to project an image onto a projection destination, and is an image that is information relating to the image. Based on the relationship information, a projection destination determining unit (projection destination specifying unit 102) that determines the projection destination of the image, and the image so that the image can be projected onto the projection destination determined by the projection destination determining unit. And a drive unit control unit (projection control unit 103) that controls the drive unit (30) of the projection apparatus. According to the above configuration, it is possible to determine the projection destination of the image based on the image relation information that is information related to the image, and project the image onto the determined projection destination.
  • the relationship between the image relation information and the projection destination is determined in advance in consideration of the relationship with the projected image, and the image is projected onto the projection destination in consideration of the relationship with the projected image. It becomes possible to do. For this reason, a user's convenience can be improved. As described above, according to the above configuration, it is possible to project an image on a projection destination in consideration of the relevance with the projected image, and it is possible to improve user convenience.
  • the image-related information is image identification information for identifying the image from other images
  • the projection destination determination unit Based on the information, the projection destination of the image may be determined. According to the above configuration, it is possible to determine the projection destination of an image for each image and project the image onto the determined projection destination. Thereby, a user's convenience can be improved.
  • the projection control device is the projection control apparatus according to aspect 1, in which the image-related information is image type information indicating the type of the image, and the projection destination determination unit is based on the image type information.
  • the projection destination of the image may be determined. According to the above configuration, it is possible to determine the projection destination of the image according to the type of the image, and project the image onto the determined projection destination. Thereby, a user's convenience can be improved.
  • the projection control apparatus is the projection control apparatus according to aspect 1, wherein the image-related information is application type information indicating a type of an application that displays the image, and the projection destination determination unit includes the application type information. Based on the above, the projection destination of the image may be determined. According to the above configuration, it is possible to determine the projection destination of the image according to the application that displays the image, and project the image onto the determined projection destination. Thereby, a user's convenience can be improved.
  • the image-related information is secret information indicating whether or not the image is confidential
  • the projection destination determination unit is based on the secret information.
  • the projection destination of the image may be determined. According to the above configuration, it is possible to determine the projection destination of the image according to the presence or absence of the confidentiality of the image, and project the image onto the determined projection destination. Thereby, a user's convenience can be improved.
  • the projection control device is the projection control device according to aspect 1, wherein the image-related information is posture information indicating a posture of the projection device when the image is captured.
  • the projection destination of the image may be determined based on the posture information. According to the above configuration, the projection destination of the image can be determined according to the attitude of the projection device when the image is captured, and the image can be projected onto the determined projection destination. Thereby, a user's convenience can be improved.
  • a control method for a projection control apparatus is a control method for a projection control apparatus that causes a projection apparatus to project an image onto a projection destination, and is based on image-related information that is information related to the image.
  • the projection control apparatus may be realized by a computer.
  • the projection control apparatus is operated on each computer by causing the computer to operate as each unit (software element) included in the projection control apparatus.
  • the control program of the projection control apparatus realized in this way and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.
  • the present invention can be used for a projection control device that projects an image onto a projection destination.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Digital Computer Display Output (AREA)
  • Projection Apparatus (AREA)

Abstract

 投影される画像との関連性を考慮した投影先に画像を投影することを可能とし、ユーザの利便性を向上させる。画像投影制御装置(1)は、画像に係る情報である画像関係情報に基づいて、上記画像の投影先を決定する投影先特定部(102)と、決定した投影先に上記画像を投影することが可能となるよう画像投影装置(100)の駆動部(30)を制御する投影制御部(103)と、を備えている。

Description

投影制御装置、制御プログラムおよび制御方法
 本発明は、投影装置に画像を投影先に投影させる投影制御装置等に関する。
 画像の投影先を変更する従来技術として、特許文献1に開示された技術がある。この技術では、携帯電話装置が水平面に載置された状態において、光照射口から照射される光の照射方向が、光照射口の正面方向または水平面に対して斜め上方となる第1の投影モードと、光照射口から照射される光の照射方向が、水平面に対して斜め下方となる第2の投影モードとを切り替えるようになっている。
日本国公開特許公報「特開2011- 70135号公報(2011年 4月 7日公開)」 日本国公開特許公報「特開2007-256409号公報(2007年10月 4日公開)」
 しかしながら、上記従来技術には、投影先と投影される画像との関連性が全く考慮されていないという問題点がある。例えば、上記特許文献1に記載の技術では、投影先を変更する複数のモードが存在しているが、どのような判断を行ってそれらのモードを切り替えるのかが全く開示されていない。このため、当然ながら、同文献の技術では、投影先と投影される画像との関連性は、全く考慮されていないと考えられる。
 本発明は、上記の問題点に鑑みて為されたものであって、その目的は、投影される画像との関連性を考慮した投影先に画像を投影することを可能とし、ユーザの利便性を向上させることができる投影制御装置などを提供することにある。
 上記の課題を解決するために、本発明の一態様に係る投影制御装置は、投影装置に画像を投影先に投影させる投影制御装置であって、上記画像に係る情報である画像関係情報に基づいて、上記画像の投影先を決定する投影先決定部と、上記投影先決定部が決定した投影先に上記画像を投影することが可能となるよう上記投影装置の駆動部を制御する駆動部制御部と、を備えていることを特徴としている。
 また、上記の課題を解決するために、本発明の別の態様に係る投影制御装置の制御方法は、投影装置に画像を投影先に投影させる投影制御装置の制御方法であって、上記画像に係る情報である画像関係情報に基づいて、上記画像の投影先を決定する投影先決定ステップと、上記投影先決定ステップで決定した投影先に上記画像を投影することが可能となるよう上記投影装置の駆動部を制御する駆動部制御ステップと、を含んでいることを特徴としている。
 本発明の一態様によれば、投影される画像との関連性を考慮した投影先に画像を投影することを可能とし、ユーザの利便性を向上させることができるという効果を奏する。
本発明の実施形態1に係る画像投影装置の構成を示すブロック図である。 上記画像投影装置に係る基本動作の流れを示すフローチャートである。 (a)~(c)は、それぞれ、上記画像投影装置の投影先の例を示す図であり、(d)は、上記画像投影装置に係る画像の投影角度の変動範囲を示す図である。 上記画像投影装置の基本動作に関し、投影先の特定に係る動作の流れの一例を示すフローチャートである。 上記画像投影装置の基本動作に関し、投影先の特定に係る動作の別の例の流れを示すフローチャートである。 本発明の実施形態2に係る画像投影装置の構成を示すブロック図である。 上記画像投影装置の基本動作に関し、投影先の特定に係る動作の流れの一例を示すフローチャートである。 (a)~(c)は、それぞれ、上記画像投影装置に用いられる機能テーブルの例を示す図である。 (a)および(b)は、それぞれ、上記画像投影装置に用いられるシークレットテーブルの例を示す図である。 上記画像投影装置に用いられるコンテンツテーブルの例を示す図である。 上記画像投影装置に用いられるコンテンツテーブルの別の例を示す図である。 (a)および(b)は、それぞれ、上記画像投影装置に用いられるコンテンツテーブルのさらに別の例を示す図である。 (a)は、上記画像投影装置に用いられるコンテンツテーブルのさらに別の例を示す図であり、(b)は、上記画像投影装置に用いられる日時テーブルの例を示す図であり、(c)は、上記画像投影装置に用いられる場所テーブルの例を示す図である。
 本発明の実施の形態について図1~図13に基づいて説明すれば、次の通りである。以下、説明の便宜上、特定の実施形態にて説明した構成と同一の機能を有する構成については、同一の符号を付記し、その説明を省略する場合がある。
 〔実施形態1〕
 以下、図1~図5に基づき、本発明の実施形態1に係る画像投影装置(投影装置)100の構成および動作について説明する。図1は、画像投影装置100の構成を示すブロック図である。同図に示すように、画像投影装置100は、制御部10、入力部20、駆動部30、画像投影部40、通信部50、アラーム部60、画像入力部70、および記憶部80を備える。
 画像投影装置100は、例えば、図3の(a)~図3の(c)に示すようなプロジェクタ機能を備えたロボット形態の投影装置となっており、頭部に画像投影部40が設けられ、駆動部30を介して本体に対する頭部の向きを調整することにより画像投影部40による画像の投影方向(投影先)を変更できるようになっている。なお、画像投影装置100の形態は、このようなロボット形態に限定されず、画像の投影先を変更することができる形態であれば、どのような形態であっても良い。また、「画像」は、静止画や動画であっても良く、静止画や動画以外の単なる表示(画面)であっても良い。例えば、単なる表示の例としては、一般的な携帯電話の液晶画面に表示されるような電話帳の表示やスケジュール帳の表示などを挙示することができる。
 次に、図3の(d)に示すように、画像投影装置100は、水平面に対する投影角度(以下、「ピッチ角」という)を-90度から+90度まで任意の角度で変更できるようになっている。なお、同図に示す30度および60度は、ピッチ角の代表例を示したものである。
 但し、以下の説明では、簡単のため、画像投影装置100による投影角度(投影先)は、下記の(1)~(3)に示す「上(天井方向)」、「横(水平方向)」および「下(地面方向)」の3種類のみを取るものとする。
(1)上(天井方向):ピッチ角≧+30度、この場合、例えば、屋内であれば、天井の一部が画像の投影先となる〔図3の(a)参照〕。
(2)横(水平方向):-30度<ピッチ角<+30度、この場合、例えば、屋内であれば、部屋の側壁の一部が画像の投影先となる〔図3の(b)参照〕。
(3)下(地面方向):ピッチ角≦-60度、この場合、例えば、屋内であれば、床の一部が画像の投影先となり、屋外であれば、地面の一部が画像の投影先となる〔図3の(c)参照〕。
 次に、図1に示すように、画像投影装置100は、制御部10〔または画像投影制御装置(投影制御装置)1〕が画像投影装置100の内部に一体的に内蔵されている形態となっているが、このような形態に限定されず、制御部10(または画像投影制御装置1)が、画像投影装置100と通信可能に分離された別体となっている形態を採用しても良い。
 図1に示すように、制御部10は、画像投影装置100が備える各ブロックを統括的に制御するものであり、例えば、CPU(Central Processing Unit)などで構成される。また、本実施形態の制御部10は、画像投影制御装置1、およびテーブル生成部2を備えている。画像投影制御装置1は、画像投影装置100から画像を所定の投影先に投影するための各種処理を統括的に制御するものであり、投影画像特定部101、投影先特定部(投影先決定部)102、投影制御部(駆動部制御部)103、および通信制御部104を備えている。
 投影画像特定部101は、画像投影装置100から投影すべき画像を特定し、特定した画像を投影先特定部102に通知する。また、投影画像特定部101は、入力部20を介したユーザの入力操作の結果に基づき、投影すべき画像を特定しても良い。例えば、図示しない表示部に投影画像の候補となるサムネイル画像が表示されている状態で、入力部20を介したキー操作やタッチ操作によってユーザが投影したい画像(サムネイル画像)を選択するようにすれば良い。また、例えば、電話帳アプリが起動されている場合に、入力部20を介した入力操作に応じてユーザにより電話帳情報を表示する処理が実行された場合に、この電話帳情報に係る画像を投影すべき画像として特定しても良い。
 また、通信制御部104が通信部50を介して他の機器から受け取った通信データに基づいて、投影すべき画像を特定しても良い。例えば、画像投影装置100が電話機能を備えており、通信制御部104が通信部50を介して着信を受けたことを契機に着信相手の画像を投影すべき画像として特定するようにしても良い。この場合は、着信相手の電話番号に係る情報と、それに対応付けられた着信相手(電話番号の使用権利者)の画像とが予め記憶部80に対応付けられて記録されているものとする。
 また、画像投影装置100の内部状態の変化をもとに投影画像を特定しても良い。例えば、画像投影装置100のアラーム部60から予めセットした日時が通知されたときに、その日時に対応づけて予め選択しておいた画像を投影すべき画像として特定するようにしても良い。
 なお、本実施形態では、画像投影制御装置1が投影画像特定部101を備える形態について説明したが、これに限定されず、画像投影装置100が、投影画像特定部101を備える形態を採用しても良い。この場合、画像投影装置100の投影画像特定部101が投影すべき画像を特定し、その特定結果を、画像投影制御装置1の投影先特定部102に通知する構成とすれば良い。
 投影先特定部102は、後述する各種テーブルを参照し、投影すべき画像に係る情報である画像関係情報に基づいて、その画像の投影先(投影面、または画像が投影される対象である投影対象)を特定(決定)する。なお、上記各種テーブルでは、画像、画像関係情報、および画像の投影先のそれぞれの対応関係などが予め規定されている。
 画像関係情報としては、例えば、以下の(1)~(5)の各種情報を挙示することができる。
(1)画像を他の画像から識別するための画像識別情報:例えば、その画像のファイル名やコンテンツ名称など。
(2)画像の種別を示す画像種別情報:例えば、その画像の属性を示す情報や、その画像が属するカテゴリの名称(コンテンツカテゴリ)や、その画像が属するグループの名称など。
(3)画像を表示するアプリケーションの種別を示すアプリケーション種別情報:例えば、ユーザ設定アプリや電話帳アプリなどの各アプリケーションの種別を示す情報。
(4)画像の機密性の有無を示すシークレット情報:例えば、その画像が機密性を要する(有する)ものか否かを示すフラグ(例えば、「1」に設定されていれば機密性有りとし、「0」に設定されていれば機密性無しとする)など。
(5)画像を撮影したときの画像投影装置100の姿勢を示す情報(姿勢情報)。
 なお、画像関係情報は、投影される画像の画像データそのものを含んでいても良い。すなわち、上述した各種テーブルでは、画像データそのものとその画像の投影先との対応関係を規定しても良い。
 投影制御部103は、投影先特定部102が決定した投影先に画像を投影することが可能となるよう画像投影装置100の駆動部30を制御したり、画像投影部40に画像を投影させたりする制御を行う。なお、本実施形態では、画像投影制御装置1が投影制御部103を備える形態について説明したが、これに限定されず、画像投影装置100が、投影制御部103を備える形態を採用しても良い。この場合、画像投影制御装置1の投影先特定部102が画像の投影先を特定し、その特定結果を、画像投影装置100の投影制御部103に通知する構成とすれば良い。
 通信制御部104は、通信部50を介して外部の機器からの通信データを受信する制御を行う。特に、通信制御部104は、通信部50を介して電話の着信があった場合に、その電話番号を特定し、投影画像特定部101に通知する。このとき、投影画像特定部101は、通知された電話番号と対応付けられて記憶部80に記憶されている着信相手(その電話番号の使用権利者)の画像を、投影すべき画像として特定する。
 入力部20は、ユーザの入力操作を受付けるものであり、ユーザからの入力を入力データに変換し、投影画像特定部101に通知する処理を行う。入力部20としては、ハードウェアキーや、図示しない表示部に重畳されたタッチパネルなどを例示できる。
 駆動部30は、少なくとも画像投影部40を駆動するものであり、サーボモータで構成されている。なお、駆動部30としてその他のアクチュエータを用いることもできる。上述したように、駆動部30の駆動により画像投影部40の投影方向(投影先)を変えることができる。
 画像投影部40は、画像の投影を行うものであり、例えば、プロジェクタで構成されている。なお、画像投影部40が自身の姿勢を変更できる場合は駆動部30と画像投影部40を一体のものとして考えてもよい。
 通信部50は、外部の機器からの受信電波を通信データに変換し、通信制御部104に渡す。
 アラーム部60は、予めセットされた日時になった場合に、その旨を投影画像特定部101に通知する。投影画像特定部101は、上記の通知を受けた場合、上記日時と対応付けられて記憶部80に予め記憶されている画像を、投影すべき画像として特定する。
 画像入力部70は、画像投影装置100の外部を撮影した結果から画像データを生成し、テーブル生成部2に渡す。画像入力部70は、例えば、カメラで構成されている。 
 テーブル生成部2は、姿勢特定部3を備えている。姿勢特定部3は、例えば、図示しない加速度センサからの検出結果に基づいて、画像入力部70が画像データを生成(または撮影)したときの画像投影装置100の姿勢を特定する。テーブル生成部2は、画像入力部70から受け取った画像データと、姿勢特定部3が特定した画像投影装置100の姿勢の特定結果(姿勢情報)との対応関係に係る情報を生成し、記憶部80に記憶されているコンテンツテーブル52に含める処理を行う。
 記憶部80は、例えば、ハードディスクやフラッシュメモリなどで構成され、上述した制御部10の各制御ブロックの動作に必要な各種情報が予め記録され、さらに、画像投影装置100の動作に伴って各制御ブロックによって生成される各種情報が事後的に記録される。記憶部80に予め記録される情報の例としては、機能テーブル、コンテンツテーブル、シークレットテーブルなどの各種テーブル情報、電話番号とその電話番号の使用権利者の画像データなどを例示することができる。また、記憶部80に事後的に記録される情報の例としては、決定した画像投影部40の投影角度を示す情報(または投影先に係る情報)などを例示することができる。なお、記憶部80に記録されている各種テーブル情報の具体例については、後述する。
 (画像投影装置100の基本動作)
 次に、図2に基づき、画像投影装置100の基本動作について説明する。図2は、画像投影装置100に係る基本動作の流れを示すフローチャートである。本フローでは、例えば、図示しない表示部に表示された複数の投影すべき画像の候補に係るサムネイル画像の中から一つのサムネイル画像を選択する入力が入力部20を介して行われ、その入力の結果が入力データに変換されて投影画像特定部101に通知されたとき、ステップS(以下、「ステップ」は省略する)101が開始されるものとして説明する。この場合、S101にて、投影先特定部102は、選択されたサムネイル画像に対応する画像として記憶部80に予め記憶されている画像を特定し、特定した画像を投影先特定部102に通知してS102に進む。
 なお、S101が開始される契機は以上のようなケースに限定されない。例えば、通信制御部104が通信部50を介して電話の着信を受信し、その着信相手の電話番号が特定されて、投影画像特定部101に通知されたとき、S101に進んでも良い。この場合は、投影画像特定部101が、特定された着信相手の電話番号に基づき、その電話番号に対応付けられて予め記憶部80に記憶されている着信相手の画像を投影すべき画像として特定し、特定した画像を投影先特定部102に通知する。
 また、その他、例えば、アラーム部60が予めセットされた日時となったことを検知し、その旨が投影画像特定部101に通知されたとき、S101に進んでも良い。この場合は、投影画像特定部101が、セットされた日時に対応付けられて予め記憶部80に記憶されている画像を投影すべき画像として特定し、特定した画像を投影先特定部102に通知する。
 また、例えば、電話帳アプリが起動されている場合に、入力部20に対する入力操作により、ユーザから電話帳情報を表示する処理が実行された場合に、投影画像特定部101は、この電話帳情報に係る画像を投影すべき画像として特定しても良い。この場合、投影画像特定部101は、特定された電話帳情報に係る画像を投影先特定部102に通知する。
 S102では、投影先特定部102が、通知された画像と、記憶部80に記憶されている機能テーブル、コンテンツテーブル、およびシークレットテーブルなどの各種テーブル情報と、に基づき、画像の投影先(投影面、または画像が投影される対象である投影対象)を特定(決定)し、投影制御部103に通知する(投影先決定ステップ)。なお、S102の動作の詳細については、後述する。
 S103では、投影制御部103が特定された投影先に画像を投影すべく、駆動部30を制御して画像投影部40の投影方向(投影先)を定める(駆動部制御ステップ)。さらに、投影制御部103は、画像投影部40を制御して画像の投影を行う。
 なお、大雑把に決めた投影方向が横(水平方向)であり、投影する画像を大画面で表示すべき場合(例えば、地図情報を俯瞰したい場合等)、周囲の壁のうち、表示できる範囲の一番広い壁を選択して、画像を投影するようにしても良い。また、一定範囲以上の画面でよいのであれば、一番広い壁ではなく投影しやすい方向の壁を選択して、画像を投影するようにしても良い。この場合は、表示できる範囲の一番広い壁、投影しやすい方向の壁の位置に関する情報が、記憶部80に予め記録されており、投影先特定部102は、当該情報に基づいて、最終的な画像の投影先を決定するものとする。
 (上記の基本動作の応用例)
 上記の基本動作のフロー開始時にすでになんらかの投影を行っている場合、本フロー開始時の投影方向と、S103で新たに投影を行う際の投影方向が異なる可能性がある。その場合は少なくとも以下のいずれかの動作を行う。
(1)本フロー開始時に一旦投影を停止し、S103にて新たに投影を行う。
(2)本フロー開始時の画像を投影したままS103の投影方向を向き、その後新たな画像を投影する。
(3)S103にて本フロー開始時の投影方向と、S103で新たに投影を行う際の投影方向が異なる場合は、S103にて一旦投影を停止し、新たな投影方向へ向いた後、新たな画像を投影する。
 なお、S103にて、本フロー開始時の投影方向と、S103で新たに投影を行う際の投影方向が同じ場合は、投影状態を停止することなく新たな画像を投影すれば良い。
 (S102の動作の詳細(その1))
 次に、図4に基づき、図2に示すフローにおけるS102の動作の詳細(その1)について説明する。S120では、S101で特定した画像に基づき、投影先特定部102は、現在投影を行おうとしている画像を表示するアプリケーションの種別を示す「アプリケーション種別(情報)」を確認する。アプリケーションの種別が「静止画表示」または「動画表示」の場合は、S122に進む。一方、アプリケーションの種別が「静止画表示」または「動画表示」以外の場合は、S121に進む。
 S121では、投影先特定部102は、S101で特定した画像に基づき、記憶部80に記憶されている機能テーブル〔図8参照〕を参照し、投影を行おうとしている「アプリケーション種別」および「投影画像(画面)」に対応する「投影先」を特定し、S123に進む。なお、機能テーブルでアプリケーション種別が「通話」の場合、通話する相手に応じて投影方向(投影先)を特定してもよい。この場合、通話する相手と投影先との対応関係は、ユーザが任意に設定し、その対応関係に係る情報が機能テーブルに含められているものとする。
 S122では、投影先特定部102は、S101で特定した画像に基づき、記憶部80に記憶されているコンテンツテーブル〔図9~図12および図13の(a)〕を参照し、投影を行おうとしている「アプリケーション種別」および「投影画像(画面)」に対応する「投影先」を特定し、S123に進む。なお、上述した機能テーブルやコンテンツテーブルの「投影先」はユーザが任意に編集可能であってもよい。
 S123では、投影先特定部102が特定した「投影先」に確定し、確定した「投影先」を投影制御部103に通知する。
 (S123の変形例)
 なお、S123において、S121またはS122までで「投影先」として、大まかな方向、「上(天井方向)」「横(水平方向)」または「下(地面方向)」を決定した上で、投影先特定部102は、さらに周囲にある障害物の状況等を考慮して最終的な「投影先」を確定しても良い。障害物をどのように考慮するかなどについては、従来の手法を用いることができるが、例えば、以下のような手法を用いることができる。
 (障害物の判定)
 超音波センサ(不図示)などによって物体の有無を検知するとともに、カメラ(画像入力部70で代用しても良い)によって当該物体と画像投影装置100との距離を計測する。そして、カメラおよび超音波センサから得られた、物体の有無の検知結果および物体と画像投影装置100との距離を示す投影空間情報に基づいて、投影空間に、画像の投影を妨げる障害物があるか否かを判定する。例えば、カメラによって計測される距離を用いて、投影空間に存在する物体の形状を検知し、投影空間に存在する物体の大きさが、投影する画像の表示内容に対して大きい場合、当該物体は投影する画像の表示の妨げとなる虞があるため、投影空間に、画像の投影を妨げる障害物があると判定する。一方、投影空間に存在する物体の大きさが、投影する画像の表示内容に対して小さい場合、当該物体の形状は、投影する画像の表示の歪みが小さいため、投影空間に、画像の投影を妨げる障害物がないと判定する。
 (投影範囲の変更)
 次に、画像の投影を妨げる障害物があると判定された場合、投影範囲における障害物の位置を特定し、障害物の位置が、投影範囲において偏っていると特定された場合、投影範囲を、障害物の位置の偏りが少ない方向に変更する。このように投影範囲を変更することによって投影空間が変更され、障害物を避けて投影を行うことができる。
 (シークレット機能について)
 次に、画像投影装置100がシークレット機能をもっており、シークレット機能がONである場合には、「シークレット(情報)」を考慮して「投影先」を特定するようにしても良い。ここで「シークレット機能」とはシークレットモードの設定をオンにしたり、オフにしたりする機能のことを言う。また、「シークレット(設定)」としては、画像投影装置100のシークレット設定に影響をうけるかどうかのフラグを例示することができる。例えば、フラグが「○」(または「1」)に設定されている場合、画像投影装置100のシークレット設定に影響を受けることを示す。一方、フラグが「×」(または「0」)に設定されている場合、画像投影装置100のシークレット設定に影響を受けないことを示す。
 例えば、図8の(a)に示す機能テーブル51におけるNo.2の行の「電話帳」および「設定画面」に対応する「シークレット」は「×」である。例えば、「設定画面」は電話帳を表示するための項目を設定するための画面であり、第三者が見ても何ら影響のない画面とする。
 「シークレット」が「×」の場合、シークレット機能がONであっても影響を受けず、機能テーブル51にあるとおり、「投影先」を「任意(設定なし)」とする。ここで、「投影先」が「任意」というのは、投影先が設定されていないことを意味する。この場合、例えば、画像投影装置100の現在の位置、現在の姿勢、および現在の投影方向でそのまま画像を投影する。より具体的には、投影方向が横方向を向いていれば横に、投影方向が上方向を向いていれば上に投影する。
 一方、図8の(a)に示す機能テーブル51におけるNo.3の行の「電話帳」および「電話帳情報」に対応する「シークレット」は「○」である。例えば、「電話帳情報」は相手先の名称や電話番号等を設定したり表示したりするための画面であり、第三者に見せるべきではない画面とする。
 「シークレット」が「○」の場合、シークレット機能がONであれば、例えば、「投影先」を「下」とする。投影する画像がシークレット設定されている場合、不特定多数の人に見られないようにする必要がある。そのためには、壁に大きく表示するのではなく、ユーザのみが視認できる範囲、例えば、画像投影装置100を置いたテーブルの一部に表示させる。
 なお、横方向(または任意)に表示することが通常であり、特にアプリケーションによらないのであれば、機能テーブル51に「投影先」を保持せず常に「横」(または任意)としておいてもよい。つまり、この場合、画像投影装置100がシークレット設定をされている場合にのみ、機能テーブル51の「シークレット」を参照することで投影方向を特定するようにする。
 また、上述した機能テーブル51のように図10に示すコンテンツテーブル52にも「シークレット」の情報を保持できるようにし、S121と同様にS122にて画像投影装置100のシークレット状態によって「投影先」を決定してもよい。
 (S102の動作の詳細(その2))
 次に、図5に基づき、図2に示すフローにおけるS102の動作の詳細(その2)について説明する。ここでは、シークレットの有無を、アプリケーション種別に対して優先的に考慮して投影先を決定する形態について説明する。
 S110では、投影先特定部102が、画像投影装置100にシークレットモードが設定(以下、単に「シークレット設定」と略称する)されているかどうかを確認する。シークレットモードとは、不特定多数の者に対して不用意に情報を開示しないように情報に対してアクセス制限をかけているモードである。なお、シークレットモードのON/OFF設定は、画像投影装置100を利用するユーザが任意に行えるように構成しても良い。
 S110で、シークレットモードが設定されている(ON)の場合、S111に進む。一方、シークレットモードが設定されていない(OFF)の場合、S120に進む。
 S111では、投影先特定部102が、シークレットテーブル55-1または55-2を参照(図9参照)し、投影を行おうとしている「アプリケーション種別」および「投影画像(画面)」に対して、シークレット設定されている画像を投影しようとしているか(シークレットモードに依存するかどうか)を確認する。シークレット設定されている画像を投影しようとする場合、S112に進む。一方、シークレット設定されている画像を投影しようとしていない場合、S120に進む。
 画像投影装置100の記憶部80は、シークレットテーブル55-1、55-2を予め保持しているものとする。なお、ユーザがシークレットテーブルの「シークレット」項目を任意に設定できるようにしてもよい。
 なお、シークレットテーブルの「シークレット」項目は、画像投影装置100のシークレットモード設定に依存するかどうかをあらわす項目であり、「○」であれば「依存する」、「×」であれば「依存しない」となる。
 図9の(a)に示すシークレットテーブル55-1は、「アプリケーション種別」と「シークレット」と、を対応づけたテーブルである。一方、図9の(b)に示すシークレットテーブル55-2は、「アプリケーション種別」、「投影画像(画面)」および「シークレット」のそれぞれを対応づけたテーブルである。
 S112では、投影先特定部102は、シークレット項目を投影する場合の「投影先」を決定する。なお、シークレットモードの場合、「投影しない」としてもよいし、不特定多数の者への閲覧を回避する方向(例:下方向)を予め決めておきその方向を「投影先」として決定してもよい。
 S120以降の動作については、上述したとおりであるが、ここでは、上記で説明したS120の動作と異なる動作の例について説明する。S120で、投影先特定部102は、特定された「アプリケーション種別」について、例えば、シークレットテーブル55-1を参照して、シークレット項目であるかどうかを確認しても良い。シークレットテーブル55-1を用いた場合、アプリケーション毎にシークレット項目かどうかが決定される。
 ここで、アプリケーションによっては、アプリケーション機能内の各画面(各表示)に応じてシークレット項目の有無を決定したい場合がある。そこで、「アプリケーション種別」、「投影画像(画面)」および「シークレット」のそれぞれを対応づけたテーブルとして、シークレットテーブル55-1に代えて、シークレットテーブル55-2を保持していてもよい。この場合、投影先特定部102は、現在投影しようとしている「投影画面(画像)」について、シークレットテーブル55-2を参照して、「投影先」を特定する。
 例えば、図9の(b)に示すシークレットテーブル55-2におけるNo.4の行の「電話帳」および「設定画面」に対応する「シークレット」は「×」である。「設定画面」は電話帳を表示するための項目を設定するための画面であり、第三者が見ても何ら影響のない画面とする。「シークレット」が「×」であるため、画像投影装置100にシークレットモードが設定されていても「投影先」は影響を受けない。
 一方、図9の(b)に示すシークレットテーブル55-2におけるNo.5の行の「電話帳」および「電話帳情報」に対応する「シークレット」は「○」である。「電話帳情報」は相手先の名称や電話番号等を設定したり表示したりするための画面であり、第三者に見せるべきではない画面とする。「シークレット」が「○」であるため、画像投影装置100にシークレットモードが設定されていても「投影先」は影響を受ける。
 なお、シークレットテーブル55-2において、No.1、2、5、7、9、10はさらに投影しようとしているコンテンツ毎に、シークレット項目を設定できるようにしてもよい。例えば、No.1の行の「静止画表示」の場合は画像コンテンツ毎にシークレット項目を設定しても良い。また、No.7の行の「スケジュール」の場合スケジュールデータ毎にシークレット項目を設定できてもよい。
 S121以降についても上述したとおりであるが、ここでは、上記で説明しなかった動作について説明する。S121では、S101で特定した画像に基づいて投影先特定部102は記憶部80に記憶された機能テーブル51-1または51-2を参照し、投影を行おうとしている「アプリケーション種別」および「投影画像(画面)」に対応する「投影先」を特定する。画像投影装置100の記憶部80は、機能テーブル51-1、51-2をあらかじめ保持しているものとする。なお、ユーザが機能テーブルの「投影先」を任意に設定できるようにしてもよい。機能テーブル51-1は、「アプリケーション種別」と「投影先」とを対応づけたテーブルである。
 S121では、S120で特定された「アプリケーション種別」について、機能テーブル51-1を参照して、「投影先」を特定する。機能テーブル51-1を用いた場合、アプリケーション毎に「投影先」が決定される。アプリケーションによっては、アプリケーション機能内の各画面に応じて投影先を決定したい場合がある。
 そこで、「アプリケーション種別」、「投影画像(画面)」および「投影先」のそれぞれを対応づけたテーブルとして、機能テーブル51-1に代えて、機能テーブル51-2を保持していてもよい。この場合、投影先特定部102は、現在投影しようとしている「投影画面(画像)」を特定する。投影先特定部102は特定した「投影画面(画像)」について、機能テーブル51-2を参照して、「投影先」を特定する。
 なお、機能テーブル51-2において、No.3、5、7、8はさらに投影しようとしているコンテンツ毎に、投影先を設定できるようにしてもよい。例えば、No.7の行の「通話」の場合、通話する相手に応じて投影方向を特定してもよい。また、No.8の行の「スケジュール」の場合、スケジュール毎に投影方向を特定してもよい。これらコンテンツ毎の投影先の設定はユーザが任意に行うことが可能であり、コンテンツと投影先を対応づけたテーブルを記憶部80に保持するものとする。
 S122では、S101で特定した画像に基づいて、投影先特定部102は、記憶部80のコンテンツテーブル52ー1、コンテンツテーブル52-21、またはコンテンツテーブル52-22を参照し、投影を行おうとしている「アプリケーション種別」および「投影画像(画像データ)」に対応する「投影先」を特定する。なお、これらのテーブルの投影先はユーザが任意に編集可能であってもよい。
 コンテンツテーブル52-1は、「コンテンツ名称(ファイル名)」、「投影画像」、および「投影先」を対応づけたテーブルである。「コンテンツ名称」は他の画像データと区別するための項目である(同じコンテンツ名称をもつデータは存在しない)。
 S122では、S101で特定された画像に基づいて、コンテンツテーブル52-1を参照して、「投影先」を特定する。コンテンツテーブル52-1を用いた場合、投影画像毎に「投影先」が決定される。投影画像があるカテゴリ(グループ)に分けられるようであれば、投影画像ごとではなく、カテゴリごとに投影先を決定したい場合がある。
 そこで、コンテンツテーブル52-1に代えて、「コンテンツカテゴリ」と「投影先」とを対応づけたコンテンツテーブル52-21と、「コンテンツ名称(ファイル名)」、「投影画像」、および「コンテンツカテゴリ」を対応づけたコンテンツテーブル52-22と、を保持していてもよい。
 この場合、投影先特定部102は、まずS101で特定した「投影画面(画像)」について、コンテンツテーブル52-22を参照して、コンテンツカテゴリを特定する。次に、コンテンツテーブル52-21を参照して特定したカテゴリに対応する「投影先」を特定する。S123については、上述したとおりなので、ここでは説明を省略する。
 (コンテンツテーブルにある「投影先」の設定について)
 次に、画像投影装置100の画像入力部70(例えば、カメラ)が、静止画を撮影する場合、「投影先」は撮影したときの画像投影装置100の姿勢(姿勢情報)に対応付けて設定を行っても良い。例えば、画像入力部70を上に向けて撮影したときは「上方向」、横に向けて撮影したときは「横方向」、下に向けて撮影したときは「下方向」といった具合である。
 また、動画の場合は、画像投影装置100は撮影中様々な方向を向くと考えられる。撮影中の向きに応じて投影先を変えるとすると、コンテンツテーブル52のNo.6の行のように投影先を「動的変位」とする。投影先を固定にするのであれば、No.7の行のように例えば投影先を「横(水平方向)」としておく(図10参照)。ここで、「動的変位」とは、投影中に投影先を「上」、「横」および「下」のいずれかに動的に変更することを意味する。例えば、図13の(a)に示すコンテンツテーブル52-3の例のようにフレーム毎に投影先が変わるように設定を行っても良い。
 ここで、画像データにおいて、画像取得時の状況に応じて投影先を決定する方法について説明する。画像入力部70が静止画を撮影すると撮影した画像〔「コンテンツ名称(ファイル名)」および「投影画像」〕をコンテンツテーブル52-1に登録する。このとき、姿勢特定部3は静止画を撮影したときの画像投影装置100の姿勢をテーブル生成部2に通知し、テーブル生成部2は通知された姿勢に基づいて求めた「投影先」をコンテンツテーブル52-1に追加登録する。
 なお、画像入力部70が静止画を撮影した際、投影先特定部102が求めた投影先を画像入力部70に通知し、画像入力部70が「コンテンツ名称(ファイル名)」、「投影画像」および「投影先」をコンテンツテーブル52-1に一度に登録するようにしてもよい。
 次に、動画の場合、画像投影装置は撮影中様々な方向を向くと考えられる。動画を撮影する際には、フレーム毎に画像投影装置100の姿勢に係る情報(姿勢情報)を生成し、このフレーム毎の画像投影装置100の姿勢に係る情報を、画像に対応付けて保存しておく。投影時にはこの情報に基づいて「投影先」の設定を行う。
 図13の(a)に基づき、飛行機が離陸する状況を撮影した動画を例にコンテンツテーブル52-3を用いて説明する。フレームNo.1の時点では飛行機は滑走路に待機している。この状態のとき撮影者はカメラを水平方向に向けて撮影しているため取得できるフレームの投影先も横(水平方向)となる。
 続いて飛行機が離陸を開始し、地面と離れたときの様子がフレームNo.2000である。このときもフレームNo.1と同様に、撮影者はカメラを水平方向に向けて撮影しているため取得できるフレームの投影先も横(水平方向)となる。
 飛行機が地上から十分離れて飛行している様子がフレームNo.10000である。このとき撮影者はカメラを上方向(空の方向)に向けて撮影しているため取得できるフレームの投影先は上方向となる。
 なお、フレーム毎に投影方向(または投影先)を保持するとメモリ量が多くなることが懸念される。そこで、投影方向が切り替わったタイミングのみで投影方向を保持しておくことも考えられる。例えば、投影方向が切り替わるフレーム以外では、直前のフレームの投影方向と同じとする。
 上述した形態では、「投影先」は、原則として、「上(天井方向)」、「横(水平方向)」および「下(地面方向)」の3方向のいずれかを選択するものとしたが特にこれに限らない。撮影時の姿勢に係る情報を用いて投影先を決める場合には、撮影時の姿勢(撮影角度)を投影先(投影方向)とし、撮影方向を細かく指定するようにしても良い。例えば、水平方向を0度として、投影先を上向き30度、下向き60度とするなど。
 (画像投影装置100の効果)
 画像投影装置100によれば、画像に係る情報である画像関係情報に基づいて、画像の投影先を決定し、決定した投影先に画像を投影させることができる。これにより、投影される画像との関連性を考慮して画像関係情報と投影先との対応関係を予め定めておくことで、投影される画像との関連性を考慮した投影先に画像を投影することが可能になる。
 画像投影装置100によれば、画像に係る画像識別情報に基づいて、画像の投影先を決定し、決定した投影先に画像を投影させることができる。また、画像投影装置100によれば、画像に係る画像種別情報に基づいて、画像の投影先を決定し、決定した投影先に画像を投影させることができる。また、画像投影装置100によれば、画像に係るアプリケーション種別情報に基づいて、画像の投影先を決定し、決定した投影先に画像を投影させることができる。また、画像投影装置100によれば、画像に係るシークレット情報に基づいて、画像の投影先を決定し、決定した投影先に画像を投影させることができる。また、画像投影装置100によれば、画像を撮影したときの画像投影装置100の姿勢を示す姿勢情報に応じて、画像の投影先を決定し、決定した投影先に画像を投影させることができる。以上により、ユーザの利便性を向上させることができる。
 〔各種テーブル情報の具体例について(その1)〕
 次に、図8~図13の(a)に基づき、上述した機能テーブル、およびコンテンツテーブルなどの各種テーブル情報の具体例について説明する。なお、以下で説明する機能テーブル、およびコンテンツテーブルなどの各種テーブル情報における「投影先」は、予め設定されていたり、ユーザが任意に編集可能としたりしても良い。
 (機能テーブル)
 図8の(a)~図8の(c)は、それぞれ、上述した画像投影装置100,後述する画像投影装置200の動作に用いられる機能テーブルの具体例を示す。
 図8の(a)に示す機能テーブル51では、アプリケーションの種別、投影画像(画面)、投影先、およびシークレット(設定)がそれぞれ対応付けられている様子が示されている。
 アプリケーション種別は、画像を表示するアプリケーションの種別を示し、同図に示す例では、ユーザ設定(アプリ)、電話帳(アプリ)、スケジュール(アプリ)、地図(アプリ)、通話(アプリ)、アラーム(アプリ)などのアプリケーションの種別が例示されている。
 投影画像(画面)は、アプリケーション種別に応じて投影(表示)される画像を示し、同図に示す例では、ユーザ設定アプリに係るプロフィール情報の表示画像、電話帳アプリに係る設定画面の表示画像および電話帳情報の表示画像、スケジュールアプリに係る設定画面の表示画像およびスケジュール情報の表示画像、地図アプリに係る地図情報の表示画像、通話アプリに係る着信画面の表示画像、ならびにアラームアプリに係るアラーム通知画面の表示画像などの各表示画像が例示されている。
 投影先は、画像の投影先に係る情報を示し、図8の(a)に示す例では、「任意」および「横(水平方向)」が例示されている。シークレット(設定)は、各画像がシークレット設定されているか否かを示す情報(各画像の機密性の有無を示す情報)である。なお、機能テーブル51における「投影先」および「シークレット」は、ユーザによって任意に編集可能であって良い。
 図8の(b)に示す機能テーブル51-1は、「アプリケーション種別」と、「投影先」との対応関係に係るテーブル情報を示している。一方、図8の(c)に示す機能テーブル51-1は、「アプリケーション種別」、「投影画像(画面)」および「投影先」のそれぞれの対応関係に係るテーブル情報を示している。
 (シークレットテーブル)
 次に、図9の(a)および図9の(b)は、それぞれ、画像投影装置100,200の動作に用いられるシークレットテーブルの具体例を示す。
 図9の(a)に示すシークレットテーブル55-1は、「アプリケーション種別」と、「シークレット(設定)」との対応関係に係るテーブル情報を示している。一方、図9の(b)に示すシークレットテーブル55-2は、「アプリケーション種別」、「投影画像(画面)」および「シークレット(設定)」のそれぞれの対応関係に係るテーブル情報を示している。
 (コンテンツテーブル)
 次に、図10、図11、図12の(a)、図12の(b)、および図13の(a)は、それぞれ、画像投影装置100,200の動作に用いられるコンテンツテーブルの具体例を示す。
 図10に示すコンテンツテーブル52では、「アプリケーション種別」、「コンテンツカテゴリ」、「コンテンツ名称(ファイル名)」、「投影画像(画面)」、および「投影先」のそれぞれが対応付けられている様子が示されている。
 「コンテンツ名称(ファイル名)」は、画像を他の画像から識別するための画像識別情報である。「コンテンツ名称」は、各画像と1対1で対応付けられた情報である。
 「コンテンツカテゴリ」は、画像の種別(カテゴリ)を示す画像種別情報であり、例えば、コンテンツの属性、種別などを例示することができる。
 ここで、「コンテンツ名称」と「コンテンツカテゴリ」の違いについて説明する。例えば、コンテンツテーブル52のNo.1の行に示すように、「コンテンツ名称」が「星空」の投影画像は、三日月と星々が撮影された1枚の画像のみである。なお、投影する画像の内容が「星空」である場合、壁に表示するよりも天井に表示した方が、臨場感がでる。このため、「星空」の画像に対応する「投影先」は、「上(天井方向)」に設定されている。
 一方、コンテンツテーブル52のNo.1およびNo.2の行に示すように、「コンテンツカテゴリ」が「夜空」である画像は、ファイル名「星空」の画像と、ファイル名「花火」の画像の2枚である。以上のように、「コンテンツ名称」は、画像ごとに設定される情報であるが、「コンテンツカテゴリ」は、複数の画像に設定される情報である。図13の(a)のコンテンツテーブル52-3における「フレームNo.」は、フレーム番号(動画の場合)のことである。
 〔実施形態2〕
 次に、図6、図2および図7に基づき、本発明の実施形態2に係る画像投影装置(投影装置)200の構成および動作について説明する。図6は、画像投影装置200の構成を示すブロック図である。同図に示すように、本実施形態の画像投影装置200は、画像投影制御装置1の投影先特定部202が場所特定部21および計時部(日時特定部)204から受け取った情報に基づいて、画像の投影先を決定するケースを含む点で、画像投影装置100と異なっている。
 また、記憶部80が、上述した機能テーブル51、コンテンツテーブル52、およびシークレットテーブル55に加えて、さらに日時テーブル53および場所テーブル54を予め記憶している点で、画像投影装置100と異なっている。そこで、以下、上記の相違点の構成について説明し、その他の構成については必要に応じて説明を省略する。
 場所特定部21は、画像投影装置200の現在の場所(位置)を特定するものであり、GPS(Global Positioning System)受信機を含む。場所特定部21は、GPS受信機から取得した現在の経度および緯度に係る情報と、記憶部80に予め記憶されている地図情報とに基づいて、画像投影装置200の現在の場所を特定する。これにより、例えば、画像投影装置200が現在、屋内に存在しているか、屋外に存在しているかなどを特定することができる。場所特定部21によって特定される画像投影装置200の現在の場所に係る情報は、投影先特定部202に通知される。
 なお、上述した形態では、GPS受信機を用いて画像投影装置200の現在の場所を特定する形態について説明したが、これに限られず、GPS受信機を用いない形態を採用しても良い。例えば、WiFi(登録商標)やカメラ画像からランドマーク(目印)を検出することにより自己位置を推定するようにしても良い。
 投影先特定部202は、画像投影装置200の現在の場所に基づいて画像の投影先を決定する場合は、場所特定部21から通知された画像投影装置200の現在の場所に係る情報と、記憶部80に予め記憶されている場所テーブル54と、に基づき、画像の「投影先」を決定する。
 計時部204は、現在の日時を特定するものであり、例えば、タイマーに接続されている。投影先特定部202は、現在の日時に基づいて画像の投影先を決定する場合は、計時部204から取得した現在の日時に係る情報と、記憶部80に予め記憶されている日時テーブル53と、に基づき、画像の「投影先」を決定する。なお、上述した日時テーブル53および場所テーブル54は、ユーザが任意に設定、編集可能であっても良い。
 (画像投影装置200の基本動作)
 次に、図2に基づき、画像投影装置200の基本動作について説明する。図2は、画像投影装置200に係る基本動作の流れを示すフローチャートである。
 本フローでは、例えば、図示しない表示部に表示された複数の投影すべき画像の候補に係るサムネイル画像の中から一つのサムネイル画像を選択する入力が入力部20を介して行われ、その入力の結果が入力データに変換されて投影画像特定部101に通知されたとき、ステップS101が開始されるものとして説明する。この場合、S101にて、投影先特定部102は、選択されたサムネイル画像に対応する画像として記憶部80に予め記憶されている画像を特定し、特定した画像を投影先特定部102に通知してS102に進む。
 S102では、投影先特定部102が、通知された画像と、記憶部80に記憶されている機能テーブル、コンテンツテーブル、日時テーブル、場所テーブル、およびシークレットテーブルなどの各種テーブル情報と、に基づき、画像の投影先(投影面、または画像が投影される対象である投影対象)を特定(決定)し、投影制御部103に通知する(投影先決定ステップ)。なお、S102の動作の詳細については、後述する。
 S103では、投影制御部103が特定された投影先に画像を投影すべく、駆動部30を制御して画像投影部40の投影方向(投影先)を定める(駆動部制御ステップ)。さらに、投影制御部103は、画像投影部40を制御して画像の投影を行う。
 (S102の動作の詳細)
 次に、図7に基づき、図2に示すフローにおけるS102の動作の詳細について説明する。ここでは、シークレットの有無、画像投影装置200の現在の場所に基づいて投影先を決定するか否か、現在の日時に基づいて投影先を決定するか否かを、この順で、アプリケーション種別に対して優先的に考慮して投影先を決定する形態について説明する。しかしながら、シークレットの有無、画像投影装置200の現在の場所に基づいて投影先を決定するか否か、現在の日時に基づいて投影先を決定するか否か、アプリケーション種別で投影先を決定するか否かの優先順位については、特に上記の順序に限定されない。
 S110では、投影先特定部202が、画像投影装置200にシークレットモードが設定されているかどうかを確認する。S110で、シークレットモードが設定されている(ON)の場合、S111に進む。一方、シークレットモードが設定されていない(OFF)の場合、S113に進む。
 S111では、投影先特定部202が、シークレットテーブル55-1または55-2を参照(図9参照)し、投影を行おうとしている「アプリケーション種別」および「投影画像(画面)」に対して、シークレット設定されている画像を投影しようとしているか(シークレットモードに依存するかどうか)を確認する。シークレット設定されている画像を投影しようとする場合、S112に進む。一方、シークレット設定されている画像を投影しようとしていない場合、S113に進む。なお、S112以降の動作は図5に示すフローで説明した動作と同様なのでここでは説明を省略する。
 S113では、投影先特定部202は、画像投影装置200の現在の場所に基づいて投影先を決定するか否かを決定し、画像投影装置200の現在の場所に基づいて投影先を決定する場合、S114に進む。なお、画像投影装置200の現在の場所に基づいて投影先を決定するか否かについては、予めユーザが設定可能であるものとする。一方、画像投影装置200の現在の場所に基づいて投影先を決定しない場合、S115に進む。
 S114では、投影先特定部202は、場所特定部21が取得した場所情報と、記憶部80に記憶されている場所テーブル54とを参照して、投影画像の投影先を決定し、S123に進む。
 S115では、投影先特定部202は、現在の日時に基づいて投影先を決定するか否かを決定し、現在の日時に基づいて投影先を決定する場合、S116に進む。なお、現在の日時に基づいて投影先を決定するか否かについては、予めユーザが設定可能であるものとする。一方、現在の日時に基づいて投影先を決定しない場合、S120に進む。
 S116では、投影先特定部202は、計時部204が取得した日時情報と、記憶部80に記憶されている日時テーブル53とを参照して、投影画像の投影先を決定し、S123に進む。S120以降の動作については上述したとおりなので、ここでは説明を省略する。
 (画像投影装置200の効果)
 画像投影装置200によれば、特定された現在の日時に基づいて、画像の投影先を決定し、決定した投影先に画像を投影させることができる。また、画像投影装置200によれば、特定された投影装置の現在の存在場所に基づいて、画像の投影先を決定し、決定した投影先に画像を投影させることができる。以上により、ユーザの利便性を向上させることができる。
 〔各種テーブル情報の具体例について(その2)〕
 次に、図13の(b)および(c)に基づき、上述した日時テーブルおよび場所テーブルなどの各種テーブル情報の具体例について説明する。なお、以下で説明する日時テーブルおよび場所テーブルなどの各種テーブル情報における「投影先」は、予め設定されていたり、ユーザが任意に編集可能としたりしても良い。
 (日時テーブル)
 図13の(b)は、画像投影装置200の動作に用いられる日時テーブルの具体例を示す。同図に示す日時テーブル53では、「日時」と「投影先」とが対応付けられている様子が示されている。「日時」は、投影を行う日時に係る情報であり、No.1およびNo.2の行に示すように時間だけのデータを保持していても良いし、No.3のように日付および時間を対応づけたデータを保持していてもよい。投影するタイミングが就寝から起床までの場合、壁に表示するよりも天井に表示した方が寝ている状態から確認しやすい。このため、No1.の行の「23:00~7:00」の時間帯の「投影先」は、「上(天井方向)」に設定している。
 (場所テーブル)
 次に、図13の(c)は、画像投影装置200の動作に用いられる場所テーブルの具体例を示す。同図に示す場所テーブル54では、「場所」と「投影先」とが対応付けられている様子が示されている。「場所」は、画像投影装置200の現在の存在場所(位置)に係る情報である。画像投影装置200の現在の存在場所が寝室である場合は、天井に向けて投影することが好ましい。このため、No.1の行の「寝室」に対応する「投影先」は、「上(天井方向)」に設定している。一方、画像投影装置200の現在の存在場所が屋外である場合は、地面に向けて投影することが好ましい。このため、No.2の行の「屋外」に対応する「投影先」は、「下(地面方向)」に設定している。
 〔実施形態3〕
 画像投影装置100,200の制御ブロック(特に投影画像特定部101、投影先特定部102,202、投影制御部103、場所特定部21および計時部204)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
 後者の場合、画像投影装置100,200は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係る投影制御装置(画像投影制御装置1)は、投影装置(画像投影装置100)に画像を投影先に投影させる投影制御装置であって、上記画像に係る情報である画像関係情報に基づいて、上記画像の投影先を決定する投影先決定部(投影先特定部102)と、上記投影先決定部が決定した投影先に上記画像を投影することが可能となるよう上記投影装置の駆動部(30)を制御する駆動部制御部(投影制御部103)と、を備えている構成である。上記構成によれば、画像に係る情報である画像関係情報に基づいて、画像の投影先を決定し、決定した投影先に画像を投影させることができる。これにより、投影される画像との関連性を考慮して画像関係情報と投影先との対応関係を予め定めておくことで、投影される画像との関連性を考慮した投影先に画像を投影することが可能になる。このため、ユーザの利便性を向上させることができる。以上により、上記構成によれば、投影される画像との関連性を考慮した投影先に画像を投影することを可能とし、ユーザの利便性を向上させることができる。
 本発明の態様2に係る投影制御装置は、上記態様1において、上記画像関係情報が、上記画像を他の画像から識別するための画像識別情報であり、上記投影先決定部は、上記画像識別情報に基づいて、上記画像の投影先を決定しても良い。上記構成によれば、画像毎に、画像の投影先を決定し、決定した投影先に画像を投影させることができる。これにより、ユーザの利便性を向上させることができる。
 本発明の態様3に係る投影制御装置は、上記態様1において、上記画像関係情報が、上記画像の種別を示す画像種別情報であり、上記投影先決定部は、上記画像種別情報に基づいて、上記画像の投影先を決定しても良い。上記構成によれば、画像の種別に応じて、画像の投影先を決定し、決定した投影先に画像を投影させることができる。これにより、ユーザの利便性を向上させることができる。
 本発明の態様4に係る投影制御装置は、上記態様1において、上記画像関係情報が、上記画像を表示するアプリケーションの種別を示すアプリケーション種別情報であり、上記投影先決定部は、上記アプリケーション種別情報に基づいて、上記画像の投影先を決定しても良い。上記構成によれば、画像を表示するアプリケーションに応じて、画像の投影先を決定し、決定した投影先に画像を投影させることができる。これにより、ユーザの利便性を向上させることができる。
 本発明の態様5に係る投影制御装置は、上記態様1において、上記画像関係情報が、上記画像の機密性の有無を示すシークレット情報であり、上記投影先決定部は、上記シークレット情報に基づいて、上記画像の投影先を決定しても良い。上記構成によれば、画像の機密性の有無に応じて、画像の投影先を決定し、決定した投影先に画像を投影させることができる。これにより、ユーザの利便性を向上させることができる。
 本発明の態様6に係る投影制御装置は、上記態様1において、上記画像関係情報が、上記画像を撮影したときの上記投影装置の姿勢を示す姿勢情報であり、上記投影先決定部は、上記姿勢情報に基づいて、上記画像の投影先を決定しても良い。上記構成によれば、画像を撮影したときの投影装置の姿勢に応じて、画像の投影先を決定し、決定した投影先に画像を投影させることができる。これにより、ユーザの利便性を向上させることができる。
 本発明の態様7に係る投影制御装置の制御方法は、投影装置に画像を投影先に投影させる投影制御装置の制御方法であって、上記画像に係る情報である画像関係情報に基づいて、上記画像の投影先を決定する投影先決定ステップと、上記投影先決定ステップで決定した投影先に上記画像を投影することが可能となるよう上記投影装置の駆動部を制御する駆動部制御ステップと、を含んでいる方法である。上記構成によれば、態様1と同様の効果を奏する。
 〔付記事項〕
 本発明の各態様に係る投影制御装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記投影制御装置が備える各部(ソフトウェア要素)として動作させることにより上記投影制御装置をコンピュータにて実現させる投影制御装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 本発明は、投影装置に画像を投影先に投影させる投影制御装置などに利用することができる。
 1 画像投影制御装置(投影制御装置) 21 場所特定部
30 駆動部 100,200 画像投影装置(投影装置)
102,202 投影先特定部(投影先決定部) 103 投影制御部(駆動部制御部)204 計時部(日時特定部)

Claims (8)

  1.  投影装置に画像を投影先に投影させる投影制御装置であって、
     上記画像に係る情報である画像関係情報に基づいて、上記画像の投影先を決定する投影先決定部と、
     上記投影先決定部が決定した投影先に上記画像を投影することが可能となるよう上記投影装置の駆動部を制御する駆動部制御部と、を備えていることを特徴とする投影制御装置。
  2.  上記画像関係情報が、上記画像を他の画像から識別するための画像識別情報であり、
     上記投影先決定部は、上記画像識別情報に基づいて、上記画像の投影先を決定することを特徴とする請求項1に記載の投影制御装置。
  3.  上記画像関係情報が、上記画像の種別を示す画像種別情報であり、
     上記投影先決定部は、上記画像種別情報に基づいて、上記画像の投影先を決定することを特徴とする請求項1に記載の投影制御装置。
  4.  上記画像関係情報が、上記画像を表示するアプリケーションの種別を示すアプリケーション種別情報であり、
     上記投影先決定部は、上記アプリケーション種別情報に基づいて、上記画像の投影先を決定することを特徴とする請求項1に記載の投影制御装置。
  5.  上記画像関係情報が、上記画像の機密性の有無を示すシークレット情報であり、
     上記投影先決定部は、上記シークレット情報に基づいて、上記画像の投影先を決定することを特徴とする請求項1に記載の投影制御装置。
  6.  上記画像関係情報が、上記画像を撮影したときの上記投影装置の姿勢を示す姿勢情報であり、
     上記投影先決定部は、上記姿勢情報に基づいて、上記画像の投影先を決定することを特徴とする請求項1に記載の投影制御装置。
  7.  請求項1から6までのいずれか1項に記載の投影制御装置の動作を制御するための制御プログラムであって、上記投影制御装置における上記投影先決定部および上記駆動部制御部としてコンピュータを動作させるための制御プログラム。
  8.  投影装置に画像を投影先に投影させる投影制御装置の制御方法であって、
     上記画像に係る情報である画像関係情報に基づいて、上記画像の投影先を決定する投影先決定ステップと、
     上記投影先決定ステップで決定した投影先に上記画像を投影することが可能となるよう上記投影装置の駆動部を制御する駆動部制御ステップと、を含んでいることを特徴とする投影制御装置の制御方法。
PCT/JP2016/050731 2015-02-06 2016-01-12 投影制御装置、制御プログラムおよび制御方法 WO2016125541A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016573251A JPWO2016125541A1 (ja) 2015-02-06 2016-01-12 投影制御装置、制御プログラムおよび制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015022570 2015-02-06
JP2015-022570 2015-02-06

Publications (1)

Publication Number Publication Date
WO2016125541A1 true WO2016125541A1 (ja) 2016-08-11

Family

ID=56563892

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/050731 WO2016125541A1 (ja) 2015-02-06 2016-01-12 投影制御装置、制御プログラムおよび制御方法

Country Status (2)

Country Link
JP (1) JPWO2016125541A1 (ja)
WO (1) WO2016125541A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019235262A1 (ja) * 2018-06-06 2019-12-12 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2020020887A (ja) * 2018-07-30 2020-02-06 日本電気通信システム株式会社 情報表示装置、情報の表示方法及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009143A (ja) * 2001-06-19 2003-01-10 Hitachi Ltd 画像処理装置およびこれを用いた監視システム
JP2006003969A (ja) * 2004-06-15 2006-01-05 Sony Corp コンテンツ提示方法およびコンテンツ提示装置
JP2007279246A (ja) * 2006-04-04 2007-10-25 Sharp Corp 映像表示装置
JP2010278960A (ja) * 2009-06-01 2010-12-09 Hitachi Ltd 映像処理装置
JP2013130800A (ja) * 2011-12-22 2013-07-04 Internatl Business Mach Corp <Ibm> 情報処理装置、画面出力システム、画面出力制御方法およびプログラム
JP2014109618A (ja) * 2012-11-30 2014-06-12 Canon Inc 表示装置及びその制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009143A (ja) * 2001-06-19 2003-01-10 Hitachi Ltd 画像処理装置およびこれを用いた監視システム
JP2006003969A (ja) * 2004-06-15 2006-01-05 Sony Corp コンテンツ提示方法およびコンテンツ提示装置
JP2007279246A (ja) * 2006-04-04 2007-10-25 Sharp Corp 映像表示装置
JP2010278960A (ja) * 2009-06-01 2010-12-09 Hitachi Ltd 映像処理装置
JP2013130800A (ja) * 2011-12-22 2013-07-04 Internatl Business Mach Corp <Ibm> 情報処理装置、画面出力システム、画面出力制御方法およびプログラム
JP2014109618A (ja) * 2012-11-30 2014-06-12 Canon Inc 表示装置及びその制御方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019235262A1 (ja) * 2018-06-06 2019-12-12 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2020020887A (ja) * 2018-07-30 2020-02-06 日本電気通信システム株式会社 情報表示装置、情報の表示方法及びプログラム
JP7239138B2 (ja) 2018-07-30 2023-03-14 日本電気通信システム株式会社 情報表示装置、情報の表示方法及びプログラム

Also Published As

Publication number Publication date
JPWO2016125541A1 (ja) 2017-11-30

Similar Documents

Publication Publication Date Title
KR102108066B1 (ko) 헤드 마운트 디스플레이 디바이스 및 그 제어 방법
US9865172B2 (en) Information processing device, information processing method, program, and imaging system
US11340072B2 (en) Information processing apparatus, information processing method, and recording medium
JP6421670B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
US9304320B2 (en) Head-mounted display and method of controlling the same
US8830142B1 (en) Head-mounted display and method of controlling the same
CN107771310B (zh) 头戴式显示设备及其处理方法
CN102376295A (zh) 辅助缩放
WO2019181153A1 (ja) 情報処理装置、情報処理方法および記録媒体
JP6816492B2 (ja) 表示制御プログラム、表示制御方法および表示制御装置
US8884988B1 (en) Portable device displaying an augmented reality image and method of controlling therefor
JP6711033B2 (ja) 表示制御方法、通信装置、表示制御プログラムおよび表示制御装置
JP6711137B2 (ja) 表示制御プログラム、表示制御方法および表示制御装置
WO2016125541A1 (ja) 投影制御装置、制御プログラムおよび制御方法
KR20160071783A (ko) 컨텐트를 표시하는 방법 및 디바이스
CN105609088A (zh) 一种显示控制方法及电子设备
US10996832B2 (en) Method for displaying object on device and device therefor
US9087467B2 (en) Display control device and display control method
WO2020135106A1 (zh) 一种跟踪目标对象的方法、装置、监控设备和存储介质
US11190696B2 (en) Electronic device capable of remotely controlling image capture apparatus and control method for same
JP2019075007A (ja) 携帯端末装置、および、制御プログラム
US20170195559A1 (en) Information processing device, imaging device, imaging system, method of controlling information processing device and program
WO2016125542A1 (ja) 投影制御装置、制御プログラムおよび制御方法
JP2016200515A (ja) 表示制御装置、情報処理装置、表示制御方法、および制御プログラム
KR20170065160A (ko) 프로젝터 및 그 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16746372

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016573251

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16746372

Country of ref document: EP

Kind code of ref document: A1