WO2014068706A1 - 画像表示システム、電子機器、プログラムおよび画像表示方法 - Google Patents

画像表示システム、電子機器、プログラムおよび画像表示方法 Download PDF

Info

Publication number
WO2014068706A1
WO2014068706A1 PCT/JP2012/078192 JP2012078192W WO2014068706A1 WO 2014068706 A1 WO2014068706 A1 WO 2014068706A1 JP 2012078192 W JP2012078192 W JP 2012078192W WO 2014068706 A1 WO2014068706 A1 WO 2014068706A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
marker
content
display
event
Prior art date
Application number
PCT/JP2012/078192
Other languages
English (en)
French (fr)
Inventor
龍也 川松
剛 鹿
雄一 齋藤
Original Assignee
擴張世界有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 擴張世界有限公司 filed Critical 擴張世界有限公司
Priority to US14/440,062 priority Critical patent/US20150286871A1/en
Priority to JP2014544122A priority patent/JP5960836B2/ja
Priority to EP12887515.0A priority patent/EP2916204A4/en
Priority to CN201280076821.2A priority patent/CN104756063A/zh
Priority to PCT/JP2012/078192 priority patent/WO2014068706A1/ja
Publication of WO2014068706A1 publication Critical patent/WO2014068706A1/ja
Priority to HK15110290.9A priority patent/HK1209860A1/xx

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/1092Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices sensing by means of TV-scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Definitions

  • the present invention relates to an image display system that displays an image captured by a camera unit on a display unit.
  • AR augmented reality
  • JP 2010-238096 A Japanese Patent No. 3700021
  • this type of technology reproduces another content (for example, a still image, a moving image, etc.) corresponding to the marker in an image captured by the camera unit in a predetermined image area based on the marker.
  • another content for example, a still image, a moving image, etc.
  • the content acquired as corresponding to the marker is displayed in an image area based on the marker in the display area of the display unit. It is used for playback. According to this, it is possible to virtually create a situation in which content is reproduced in the area where the marker is located in the real space.
  • the user in the case of content that requires a certain amount of time for browsing, the user must continue to shoot an area including a marker in the real space with the camera unit in order to continuously browse the content.
  • the degree of freedom is not necessarily high. This may be a restriction on providing the service for the provider providing the service using augmented reality technology.
  • 1st aspect of this invention is an image display system provided with the display part which displays the image image
  • the marker detection unit is a detection target in advance in the captured image after the imaging by the camera unit is started or after the display of the captured image on the display unit is started.
  • the content reproduction unit detects the presence of a marker defined as the content, and determines the content corresponding to the marker with reference to the marker in a state where the marker is detected by the marker detection unit.
  • the event detection unit is configured to cause the image display system to change the display mode of the content after the content playback unit starts to play back the content in the display area of the display unit. By detecting whether or not an event has occurred, the area changing unit detects the occurrence of the event by the event detecting unit. If it is, the display area at least the content is played, change to the display area corresponding to the detected event.
  • the content reproduction unit reproduces the content that has been reproduced so far in the changed display area after the display area is changed by the area change unit.
  • the display area for reproducing the content can be changed from the display area based on the marker in the image to the display area corresponding to the event that has occurred in the image display system.
  • the playback content corresponding to this marker can be played back regardless of the display area where the previous marker is located. Accordingly, the content can be continuously reproduced regardless of whether or not the area including the marker is captured by the camera unit, and thus the degree of freedom in reproducing and browsing the content is high.
  • the marker to be detected is determined as an image region having a specific image characteristic (shape, color distribution, etc.).
  • an image region having this image characteristic may be identified from an image photographed by the camera unit, and detected as a marker.
  • the image includes the specific position in the real space.
  • the access to the content may be a location where the content is stored, and may be a storage location on the network or a storage location of the storage unit in the image display system.
  • an operation for instructing the image display system to change the display area may be performed.
  • the event detection unit should reproduce the content in the display area independent of the marker for the image display system after the content reproduction unit starts reproducing the content.
  • the region change unit displays the content when the event command operation is detected by the event detection unit. The area is changed to a predetermined display area that does not use the marker as a reference in the display unit.
  • the content can be reproduced in the display region independent of the marker. Therefore, the user can continuously browse the content corresponding to the marker by performing an area command operation on the image display system without continuously capturing an area including the marker.
  • the “display area independent of the marker” may be a display area that does not use the previous marker as a reference, and the specific area is not particularly limited.
  • a display area in a range necessary for content reproduction with reference to a predetermined position in the display area in the display unit a display area shifted up and down, left and right by a predetermined amount from the display area in which the content has been reproduced, It is conceivable that the display area that is the center of the display area is a “display area that does not depend on the marker”.
  • the entire display area is not dependent on the marker. It may be considered as a “display area”. In this case, it is conceivable to make the invention of the above aspect as a third aspect shown below.
  • the said area change part changes the display area where the said content is reproduced
  • the content can be reproduced over the entire display area in the display unit. Therefore, the user can continuously browse the content corresponding to the marker in full screen display by performing an area command operation on the image display system.
  • the “display area not based on the marker” may be a display area based on a marker different from the previous markers. In this case, it is conceivable to make the invention of each aspect as described in a fourth aspect shown below.
  • the event detection unit is determined as a detection target at that time (when playback is started) for the image display system after the content playback by the content playback unit is started.
  • An event that a marker command operation for instructing to change a marker that has been changed to another marker has been performed is detected as an event, and the region detection unit is configured to perform the marker command operation by the event detection unit.
  • the display area where the playback content was played back is changed to a display area defined based on the marker (the other marker) associated with the marker command operation, and the content playback section
  • the display area is changed by the area changing unit that has received the marker command operation, and has been reproduced until then.
  • the content in a state in which the different markers are detected by the marker detection unit, is reproduced by the display area of the display unit defined as a reference marker of said another.
  • the content can be reproduced in the display area based on another marker associated with the operation. Therefore, the user can browse the content corresponding to the original marker in a display area based on another marker by performing a marker command operation on the image display system.
  • another marker for example, a part or all of the image acquired by the camera unit at that time (the time when the marker command operation is performed) is designated as “another marker” or the image display system It is conceivable that a specific image stored in a storage unit or a network is designated as “another marker”.
  • the fifth aspect of the present invention further includes a displacement detection unit and a direction specifying unit.
  • the displacement detection unit detects that the image display system is displaced in a specific direction with a certain acceleration or more, and the direction specification unit detects the displacement direction detected by the displacement detection unit, and , Based on the orientation of the display unit defined by the relationship with the displacement direction that can be detected, to specify a direction opposite to the displacement direction detected by the displacement detection unit in the display area of the display unit,
  • the event detection unit detects, as an event, that the displacement of the image display system has been started by the displacement detection unit since the content playback unit has started playback of the content.
  • the direction specified by the direction specifying unit at that time (when the start of displacement is detected)
  • the display area where the content is being reproduced by a certain amount is displaced at a predetermined speed, then back to the original position at a predetermined speed.
  • the present invention it is possible to produce an effect that the content reproduced on the display unit follows with a delay with respect to the displacement of the image display system itself, thereby further enhancing the virtual reality. it can.
  • a sixth aspect of the present invention is an electronic device that causes a display unit to display an image photographed by a camera unit, and includes a marker detection unit, a content reproduction unit, an event detection unit, and a region change unit.
  • the marker detection unit is a detection target in advance in the captured image after the imaging by the camera unit is started or after the display of the captured image on the display unit is started.
  • the content reproduction unit detects the presence of a marker defined as the content, and determines the content corresponding to the marker with reference to the marker in a state where the marker is detected by the marker detection unit.
  • the event detection unit is configured to play an event for causing the electronic device to change the display mode of the content after the content playback unit starts to play back the content.
  • the region changing unit detects whether or not an event has been detected by the event detecting unit. In the display area at least the content is played, change to the display area corresponding to the detected event.
  • the content reproduction unit reproduces the content that has been reproduced so far in the changed display area after the display area is changed by the area change unit.
  • a part of image display system in each said aspect can be comprised.
  • either one or both of the external camera unit and the display unit may be configured to be preferentially connected or wirelessly connected via an interface to control these operations. It is good also as a structure provided with any one or both of a part as a component.
  • a seventh aspect of the present invention is a program for causing a computer to function as all the constituent elements described in any of the above aspects.
  • a computer system in which this program is implemented exhibits the same operations and effects as the inventions of the above aspects.
  • This program is provided to the image processing system or its user in a state where it is recorded on a computer-readable recording medium such as an optical disk such as a CD-ROM or DVD, a magnetic disk, or a semiconductor memory. Can do.
  • a computer-readable recording medium such as an optical disk such as a CD-ROM or DVD, a magnetic disk, or a semiconductor memory.
  • an image display method for causing at least one computer to display a camera unit and an image captured by the camera unit, a marker detection procedure, a content reproduction procedure, and an event detection procedure. And an area change procedure.
  • the marker detection procedure is a detection target in advance in the photographed image after the photographing by the camera procedure is started or after the photographed image is displayed in the display procedure.
  • the content reproduction procedure determines the content corresponding to the marker with reference to the marker.
  • the event detection procedure includes an event for causing the computer to change the display mode of the content after the content playback by the content playback procedure is started.
  • the region change procedure is detected by the event detection procedure.
  • the content that has been reproduced so far after the display region is changed by the region change procedure is reproduced in the changed display region.
  • An image display system that displays an image by such a method has the same operations and effects as the inventions of the above aspects.
  • FIG. 3A is a diagram illustrating an example of a marker
  • FIG. 3B is a diagram illustrating a marker and a reproduction display area
  • FIG. 3C is a diagram illustrating a state in which content is superimposed on the marker.
  • Fig. 2 shows the operation when the area command operation is performed.
  • the image display system 1 includes a control unit 11, a communication unit 13, a storage unit 15, a camera unit 21, an input unit 23, a display unit 25, a voice input / output unit 27, a GPS sensor. 31, an acceleration sensor 33, and the like.
  • this embodiment illustrates the case where the image display system 1 is mounted on a mobile phone terminal, the image display system 1 is one of the touch panels in the camera unit 21, the display unit 25, and the input unit 23.
  • the control part 11 controls operation
  • the communication unit 13 includes a plurality of communication modules corresponding to different communication standards (communication standards for mobile phones, wireless LAN standards, and short-range wireless communication standards), and controls wireless communication by the image display system 1.
  • the input unit 23 includes a touch panel configured integrally with the display surface of the display unit 25 and key switches provided in the main body of the image display system 1, and receives a user input operation through these.
  • the GPS sensor 31 is a sensor configured to identify the current position of the image display system 1 based on radio waves received from a plurality of GPS (Global Positioning System) satellites.
  • GPS Global Positioning System
  • the acceleration sensor 33 is a sensor configured to detect an acceleration applied to the image display system 1 and its direction.
  • the image capturing by the camera unit 21 and the display of the image thus captured (hereinafter referred to as “captured image”) on the display unit 25 are started (s110).
  • the acquisition of the content is started after the display of the captured image in s110 is started, but will be described later in the timing when the camera unit 21 starts capturing or the subsequent processing (s140). You may comprise so that acquisition of a content may be started at the timing etc. when the marker is detected.
  • a marker to be detected is set in the subsequent processing (s130).
  • a predetermined element image determined as corresponding to the content started to be acquired in s120 is set (stored in the built-in memory) as a marker to be detected in the subsequent processing.
  • the marker set in s130 is detected from the captured image (s140).
  • s140 it is determined that a marker has been detected when the captured image includes an element image as the marker set in s130.
  • an element image of an illustration made up of a rectangular area is defined as a marker (see FIG. 3A)
  • an image having the same characteristics (shape or color distribution, etc.) as the marker made up of this illustration in the captured image It is checked whether or not an area exists, and an image area whose degree of coincidence as a feature is equal to or greater than a predetermined threshold is detected as a marker.
  • This check by s140 is repeatedly performed (s150: NO ⁇ s140) until the elapsed time after the image display is started in s110 reaches a specified time (timeout) (s150: YES). .
  • the content acquired so far is discarded in s160.
  • the display area of the display unit 25 defined based on the marker in the captured image reproduces the content that has been acquired in s120.
  • the power display area (reproduction display area) is set (s180).
  • an event has occurred in the image display system 1 (s210). In the present embodiment, it is determined that an event has occurred when an operation on the touch panel in the input unit 23 is performed, or when an acceleration of a certain level or more is detected by the acceleration sensor 33.
  • s210 If it is determined that an event has occurred in s210 (s210: YES), the process corresponding to this event (event process) is performed (s220), and then the process proceeds to the next process (s230).
  • processing, processing for adding an effect as augmented reality to the content display area, and the like are performed.
  • the playback display area if the playback display area is changed to a display area that does not depend on the marker, it is determined that the playback display area can be set.
  • the setting of the playback display area is not changed to a display area that does not depend on the marker, or when the marker to be detected is changed to another marker, the above s140 and Similarly, when the marker is detected, it is determined that the playback display area can be set. Conversely, in this case, if no marker is detected, it is determined that the playback display area is not in a state that can be set.
  • the playback display area can be set (s230: YES)
  • the display area at this time when determined to be settable
  • the display area according to the marker setting state depending on the marker
  • s190 in this case, if the reproduction of the content is interrupted in the process (s250) described later, the reproduction from the interrupted reproduction position is resumed. If the playback display area is not changed to a display area that does not depend on the marker in s240, or if the marker to be detected is changed to another marker, the position of the marker in the captured image The display area of the display unit 25 defined with reference to the marker in the captured image at this time (the time when s240 is executed, that is, when it is determined that the setting can be set at s230) is set as the playback display area. Is set. If the playback display area is set to a display area that does not depend on the marker, there is no need to adjust the playback display area in accordance with the marker position in the captured image, so no processing is performed in s240. I will not.
  • s230: NO If it is determined in s230 that the playback display area is not settable (that is, no marker is detected from the captured image) (s230: NO), playback of the content started in s190 is performed. Is interrupted (s250). If the content has already been interrupted, this interrupted state is maintained in s250.
  • the check by the above s210 and s230 is repeatedly performed (s260: NO ⁇ s210) until the time during which the content reproduction is interrupted reaches the specified time (timeout) (s260: YES).
  • an area change event (s310).
  • an area command operation for instructing that content should be reproduced in a display area that does not depend on a marker (in this embodiment, an operation of touching the touch panel once regardless of location) ) Is determined as an “area change event”.
  • the display area of the display unit 25 that is not based on the marker in the captured image is set as the reproduction display area (s320).
  • a display area in a range necessary for content reproduction is set as the reproduction display area on the basis of a predetermined position in the display area in the display unit 25. Specifically, it is a display area shifted by a predetermined amount vertically or horizontally from the previous reproduction display area, or a display area in which content is located at the center of the display area in the display unit 25.
  • the range necessary for reproducing the content is similar to the entire display area of the display unit 25 (the entire area used for image display), it may be possible to set the entire display area as the reproduction display area. .
  • the shape of the entire display area in the display unit 25 and the shape of the display area necessary for content reproduction are acquired as information (in the case of a square, the aspect ratio).
  • a configuration may be adopted in which the degree of coincidence of these shapes is compared to actively confirm whether or not both shapes are similar.
  • the process returns to the content reproduction process, and the processes after s230 are performed. If the event determined to have occurred in s210 is not an area change event (s310: NO), it is checked whether the event is a marker change event (s330).
  • this “marker command operation” is performed, for example, by designating a part or all of an image photographed at that time (time when the marker command operation is to be performed) as another marker, or the storage unit 15. Or it is an operation of designating a specific image stored on the network as another marker.
  • s330 If it is determined in s330 that the event is a marker change event (s330: YES), “another marker” designated by the marker command operation is acquired as image data (s340).
  • s340 it may be determined whether or not the acquired image data can be appropriately used as a marker based on the shape or color distribution, and the process may be shifted to the subsequent processing only when it can be used. In this case, if it is determined that it cannot be used, an error message to that effect is displayed on the display unit 25, the process returns to the content reproduction process, and the processes after s230 may be performed.
  • a marker to be detected is set in the subsequent processing (s350).
  • the image as “another marker” acquired in s340 is set as a marker to be detected from the image in the subsequent processing, as in s130.
  • the process returns to the content reproduction process, and the processes after s230 are performed. If the event determined to have occurred in s210 is not a marker change event (s330: NO), it is checked whether or not the event is an effect addition event (s360). Here, it is determined as an “effect addition event” that an acceleration of a certain level or more is detected by the acceleration sensor 33.
  • the mode of effect to be added to the content display area is determined (s370).
  • the direction in which the playback display area is displaced as an effect mode is determined. Specifically, based on the direction of acceleration detected by the acceleration sensor 33 (the displacement direction of the image display system 1) and the orientation of the display unit 25 defined by the relationship with the displacement direction, A direction (opposite displacement direction) opposite to the displacement direction detected by the acceleration sensor 33 in the display area is specified.
  • the speed for displacing in the opposite displacement direction may be determined based on the acceleration detected by the acceleration sensor 33.
  • the production starts to be added to the content according to the mode determined in s370 (s380).
  • a process for adding effects such as displacing the reproduction display area by a predetermined amount at a predetermined speed in the opposite displacement direction determined at s370 and then returning to the original position at the predetermined speed is started.
  • the reproduction display area may be displaced in accordance with this speed in s380.
  • the process returns to the content reproduction process, and the processes after s230 are performed.
  • the reproduction display area for reproducing the content is changed from a display area based on the marker in the image to an event generated with respect to the image display system 1.
  • the display area can be changed accordingly (s210 to s240).
  • the playback content corresponding to this marker can be played back regardless of the display area where the previous marker is located. Accordingly, the content can be continuously played back regardless of whether or not the area including the marker is shot by the camera unit 21, and thus the degree of freedom in playing back and browsing the content is high.
  • the content can be reproduced in the display area that does not depend on the marker (s320). Therefore, as shown in FIG. 5, the user performs an area command operation (here, an operation of tapping the touch panel) on the image display system 1, so that the area including the marker is not captured and the marker is displayed. The corresponding content can be browsed continuously.
  • an area command operation here, an operation of tapping the touch panel
  • the content can be reproduced in the display area based on another marker associated with this operation (s340 to s350 ⁇ s240). . Therefore, as shown in FIG. 7, the user performs a marker command operation (here, an operation of photographing “another marker”) on the image display system 1, and thereby separates content corresponding to the original marker. Can be browsed in the display area based on the marker.
  • a marker command operation here, an operation of photographing “another marker”
  • the marker to be detected is defined as an image area having a specific image characteristic, and the image area having the image characteristic is identified from an image photographed by the camera unit 21. And it is configured to detect this as a marker.
  • the marker to be detected is information (specifically, “position”, “direction”) such as the position (specified by the GPS sensor 31) or the direction (specified by the acceleration sensor 33) of the image display system 1.
  • An image area including a specific position in the real space after specifying the position in the real space of the image area included in the image captured by the camera unit 21 based on one or more of a plurality of types of information included) It may be configured to identify (such as a place or building) and detect it as a marker. In this case, in the marker command operation, the corresponding location on the map or the position information may be designated as “another marker”.
  • the content is acquired via the network every time the content reproduction process is performed.
  • the content may be stored in advance in the storage unit 15 of the image display system 1 and acquired from here.
  • the present embodiment is configured to determine that an operation has been performed on the touch panel in the input unit 23 or that an acceleration of a certain level or more has been detected by the acceleration sensor 33 as an event occurrence. Yes.
  • an operation other than these or other changes in the external environment determined from the detection results of the sensors may be determined as the occurrence of an event, and the process (s390) corresponding thereto may be performed.
  • the reproduction display area in response to the occurrence of an effect addition event, is configured to add an effect that follows the displacement of the image display system 1 itself with a delay.
  • the effect to be added to the content may be anything that enhances virtual reality, and may be configured to add other effects.
  • the event contents are checked in the order of the area change event, the marker change event, and the production addition event, but the order of checking the event contents is this order.
  • s140 and s230 of the content reproduction process are examples of the marker detection unit in the present invention
  • s190 is an example of the content reproduction unit in the present invention.
  • Event processing s310, s330, and s360 are examples of the event detection unit in the present invention.
  • Content reproduction processing s130 and s240 and event processing s320 are examples of the area change unit in the present invention, and event processing s370 is the book. It is an example of the direction specific

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 カメラ部と該カメラ部に撮影された画像を表示させる表示部とを備えた画像表示システムであって、前記カメラ部により撮影された画像中に、予め定められたマーカーが存在することを検出するマーカー検出部と、前記マーカーに対応するコンテンツを前記表示部の表示領域にて再生するコンテンツ再生部と、前記コンテンツの表示態様を変更させるためのイベントが発生したか否かを検出するイベント検出部と、前記コンテンツが再生される表示領域を、検出されたイベントに応じた表示領域に変更する領域変更部と、を備え、前記コンテンツ再生部は、再生させていた前記コンテンツを、変更された表示領域にて再生させる、画像表示システムを提供する。

Description

画像表示システム、電子機器、プログラムおよび画像表示方法
 本発明は、カメラ部で撮影する画像を表示部に表示させる画像表示システムに関する。
 近年、カメラ部に撮影された画像に仮想的な情報を重畳して表示する、といった拡張現実(AR;Augumented Reality)技術の開発が進められている。
 具体的には、カメラ部および表示部を備えた端末装置において、カメラ部で撮影した画像を表示部に表示させつつ、その画像から検出対象のマーカーとして特定される画像領域に文字情報などを重畳させる、といった技術である(特許文献1~2など参照)。
特開2010-238096号 特許第3700021号
 また、この種の技術は、カメラ部により撮影された画像中において、マーカーに対応する別のコンテンツ(例えば静止画、動画など)を、このマーカーを基準とする所定の画像領域にて再生させる、といった用途が考えられる。
 具体的には、あらかじめ用意されたマーカーを含む領域をカメラ部で撮影させることにより、このマーカーに対応するものとして取得されたコンテンツを、表示部の表示領域においてマーカーを基準とする画像領域にて再生する、といった用途である。これによれば、実空間においてマーカーの位置する領域にてコンテンツを再生させる状況を仮想的に創り出すことができる。
 ただ、このような用途においては、実空間におけるマーカーに依存してコンテンツが再生されることから、そのコンテンツの再生および閲覧に際しての自由度が阻害されてしまう恐れがある。
 例えば、閲覧に一定以上の時間を要するコンテンツの場合、ユーザは、コンテンツの継続的な閲覧のために、実空間においてマーカーを含む領域をカメラ部で撮影し続けなければならず、その閲覧姿勢などにおいて必ずしも自由度が高いとはいえない。このことは、拡張現実技術を用いたサービスを提供する事業者側にとっても、サービスを提供する上の制約になる恐れがある。
 拡張現実技術において、コンテンツの再生および閲覧に際しての自由度が阻害されないことが望ましい。
 本発明の第1局面は、カメラ部と該カメラ部に撮影された画像を表示させる表示部とを備えた画像表示システムであって、マーカー検出部と、コンテンツ再生部と、イベント検出部と、領域変更部と、を備える。
 これらのうち、前記マーカー検出部は、前記カメラ部による撮影が開始されて以降または該撮影された画像の前記表示部への表示が開始されて以降、該撮影された画像中に、あらかじめ検出対象として定められたマーカーが存在していることを検出して、前記コンテンツ再生部は、前記マーカー検出部によりマーカーが検出されている状態において、該マーカーに対応するコンテンツを、そのマーカーを基準として定められる前記表示部の表示領域にて再生させて、前記イベント検出部は、前記コンテンツ再生部によるコンテンツの再生が開始されて以降、当該画像表示システムに対し、該コンテンツの表示態様を変更させるためのイベントが発生したか否かを検出して、前記領域変更部は、前記イベント検出部によりイベントの発生が検出された場合に、少なくとも前記コンテンツが再生される表示領域を、その検出されたイベントに応じた表示領域へと変更する。
 さらに、前記コンテンツ再生部は、前記領域変更部により前記表示領域が変更されて以降、それまで再生させていた前記コンテンツを、その変更された表示領域にて再生させる。
 この発明では、コンテンツを再生する表示領域を、画像中のマーカーを基準とする表示領域から、画像表示システムに対して発生したイベントに応じた表示領域へと変更することができる。
 このように、イベントに応じた表示領域へと変更することにより、それまでのマーカーが位置する表示領域とは無関係に、このマーカーに対応する再生コンテンツを再生させることができる。これにより、カメラ部によりマーカーを含む領域が撮影されているか否かに拘らず、継続的にコンテンツを再生させることができるため、コンテンツの再生およびその閲覧に際しての自由度が高い。
 この第1局面において、検出対象となるマーカーは、特定の画像的な特徴(形状または色分布など)を有する画像領域として定めておくことが考えられる。この場合、カメラ部に撮影される画像から、この画像的な特徴を有する画像領域を識別し、これをマーカーとして検出するとよい。
 また、画像表示システムの位置または向きなどの情報に基づいて、カメラ部に撮影される画像に含まれる画像領域の実空間における位置を特定できる場合であれば、実空間における特定の位置を含む画像領域(場所または建造物など)を識別し、これをマーカーとして検出することを考えることもできる。
 また、上記局面においては、カメラ部による画像の撮影が開始された、または、マーカーが検出されたタイミングで、マーカーに対応するコンテンツに適宜アクセスし、これを再生することとなる。このとき、コンテンツへのアクセスは、このコンテンツが格納された場所であればよく、ネットワーク上の格納場所または画像表示システムにおける記憶部の格納場所とすることが考えられる。
 また、上記局面において、画像の表示領域を変更させるためのイベントとしては、例えば、画像表示システムに対し、表示領域の変更を指令するための操作が行われたこと、などが考えられる。
 具体的には、マーカーに依存しない表示領域での再生を指令するための操作を考えることができる。この場合、上記局面の発明を以下に示す第2局面のようにすることが考えられる。
 本発明の第2局面において、前記イベント検出部は、前記コンテンツ再生部によるコンテンツの再生が開始されて以降、当該画像表示システムに対し、前記コンテンツを前記マーカーに依存しない表示領域にて再生すべき旨を指令するための領域指令操作が行われたことをイベントとして検出して、前記領域変更部は、前記イベント検出部により前記領域指令操作が検出された場合に、前記コンテンツが再生される表示領域を、前記表示部において前記マーカーを基準としない所定の表示領域へと変更する。
 この発明では、領域指令操作が検出された以降、コンテンツをマーカーに依存しない表示領域にて再生させることができる。そのため、ユーザは、画像表示システムに対し、領域指令操作を行うことにより、マーカーを含む領域を撮影し続けることなく、そのマーカーに対応するコンテンツを継続的に閲覧することができるようになる。
 また、上記局面において、「マーカーに依存しない表示領域」は、それまでのマーカーを基準としない表示領域であればよく、その具体的な領域については特に限定されない。
 例えば、表示部における表示領域中の所定位置を基準としてコンテンツの再生に必要な範囲の表示領域、それまでコンテンツを再生していた表示領域から上下左右に所定量だけズラした表示領域、表示部における表示領域の中心となる表示領域などを、「マーカーに依存しない表示領域」とすることが考えられる。
 また、検出対象として定められたマーカーにつき、該マーカーに対応するコンテンツの再生に必要な範囲が前記表示部の表示領域全体と相似形である場合には、この表示領域全体を「マーカーに依存しない表示領域」とすることも考えられる。この場合、上記局面の発明を以下に示す第3局面のようにすることが考えられる。
 本発明の第3局面において、前記領域変更部は、前記イベント検出部により前記領域指令操作が検出された場合に、前記コンテンツが再生される表示領域を、前記表示部における表示領域全体に変更する。
 この発明であれば、領域指令操作が検出された以降、コンテンツを表示部における表示領域全体にて再生させることができる。そのため、ユーザは、画像表示システムに対し、領域指令操作を行うことにより、そのマーカーに対応するコンテンツを全画面表示にて継続的に閲覧することができるようになる。
 また、上記各局面において「マーカーを基準としない表示領域」としては、それまでのマーカーとは別のマーカーを基準とする表示領域とすることも考えられる。この場合、上記各局面の発明を以下に示す第4局面のようにすることが考えられる。
 本発明の第4局面において、前記イベント検出部は、前記コンテンツ再生部によるコンテンツの再生が開始されて以降、当該画像表示システムに対し、その時点(再生が開始された時点)で検出対象として定められているマーカーを別のマーカーへと変更すべき旨を指令するためのマーカー指令操作が行われたことをイベントとして検出しており、前記領域変更部は、前記イベント検出部により前記マーカー指令操作が検出された場合に、前記再生コンテンツが再生されていた表示領域を、該マーカー指令操作に伴うマーカー(前記別のマーカー)を基準として定められる表示領域へと変更して、前記コンテンツ再生部は、前記マーカー指令操作を受けた前記領域変更部により前記表示領域が変更されて以降、それまで再生させていた前記コンテンツを、前記別のマーカーが前記マーカー検出部により検出されている状態において、該別のマーカーを基準として定められる前記表示部の表示領域にて再生させる。
 この発明であれば、マーカー指令操作が検出された以降、この操作に伴う別のマーカーを基準とする表示領域にてコンテンツを再生させることができる。そのため、ユーザは、画像表示システムに対してマーカー指令操作を行うことにより、元のマーカーに対応するコンテンツを、別のマーカーを基準とする表示領域にて閲覧することができるようになる。
 この局面におけるマーカー指令操作では、例えば、その時点(マーカー指令操作が行われる時点)でカメラ部により取得されている画像の一部または全部を「別のマーカー」として指定させたり、画像表示システムの記憶部またはネットワーク上などに格納された特定画像を「別のマーカー」として指定させたりすることが考えられる。
 ところで、上述した画像表示システムでは、カメラ部に撮影された画像にコンテンツを重畳させて仮想現実を実現しているが、より仮想現実感を高めるために、こうして再生されるコンテンツに対して画像表示システムの動きに合わせた何らかの演出を行うことが考えられる。
 具体的な例としては、上記各局面の発明を以下に示す第5の局面のようにすることが考えられる。
 本発明の第5局面においては、さらに、変位検出部と、方向特定部と、を備えている。
 そして、前記変位検出部は、当該画像表示システムが一定以上の加速度をもって特定方向へと変位していることを検出して、前記方向特定部は、前記変位検出部により検出された変位方向、および、該検出されうる変位方向との関係で規定される前記表示部の向きに基づいて、前記表示部の表示領域において前記変位検出部に検出された変位方向と反対となる方向を特定して、前記イベント検出部は、前記コンテンツ再生部によるコンテンツの再生が開始されて以降、前記変位検出部により当該画像表示システムの変位が開始されたことをイベントとして検出しており、前記領域変更部は、前記領域変更イベント検出部により変位開始が検出された際、その時点(変位開始が検出された時点)で前記方向特定部により特定される方向へ、前記コンテンツが再生されている表示領域を一定量だけ所定速度で変位させ、その後、所定速度で元の位置へと戻す。
 この発明であれば、表示部で再生されているコンテンツが、画像表示システムそのものの変位に対して遅れて追随してくるような演出を行うことができ、これにより仮想現実感を一層高めることができる。
 また、本発明の第6局面は、カメラ部に撮影させた画像を表示部に表示させる電子機器であって、マーカー検出部と、コンテンツ再生部と、イベント検出部と、領域変更部と、を備えている。これらのうち、前記マーカー検出部は、前記カメラ部による撮影が開始されて以降または該撮影された画像の前記表示部への表示が開始されて以降、該撮影された画像中に、あらかじめ検出対象として定められたマーカーが存在していることを検出して、前記コンテンツ再生部は、前記マーカー検出部によりマーカーが検出されている状態において、該マーカーに対応するコンテンツを、そのマーカーを基準として定められる前記表示部の表示領域にて再生させて、前記イベント検出部は、前記コンテンツ再生部によるコンテンツの再生が開始されて以降、当該電子機器に対し、該コンテンツの表示態様を変更させるためのイベントが発生したか否かを検出して、前記領域変更部は、前記イベント検出部によりイベントの発生が検出された場合に、少なくとも前記コンテンツが再生される表示領域を、その検出されたイベントに応じた表示領域へと変更する。
 さらに、前記コンテンツ再生部は、前記領域変更部により前記表示領域が変更されて以降、それまで再生させていた前記コンテンツを、その変更された表示領域にて再生させる。
 この電子機器であれば、上記各局面における画像表示システムの一部を構成することができる。
 なお、この局面では、外付けのカメラ部および表示部のいずれか一方または両方をインタフェース経由で優先接続または無線接続し、これらの動作を制御するように構成してもよいし、カメラ部および表示部のいずれか一方または両方を構成要素として備えた構成としてもよい。
 また、本発明の第7局面は、コンピュータを上記各局面のいずれかに記載の全ての構成要素として機能させるためのプログラムである。
 このプログラムを実装したコンピュータシステムは、上記各局面の発明と同様の作用、効果を奏するものとなる。
 なお、このプログラムは、例えば、CD-ROMまたはDVD等の光ディスク、磁気ディスク、半導体製メモリ等の、コンピュータにて読み取り可能な記録媒体に記録した状態で、画像処理システムまたはそのユーザに提供することができる。
 また、本発明の第8局面は、少なくとも1つのコンピュータに、カメラ部と該カメラ部に撮影された画像を表示させる画像表示方法であって、マーカー検出手順と、コンテンツ再生手順と、イベント検出手順と、領域変更手順と、からなる。
 これらのうち、前記マーカー検出手順は、前記カメラ手順による撮影が開始されて以降または該撮影された画像の前記表示手順への表示が開始されて以降、該撮影された画像中に、あらかじめ検出対象として定められたマーカーが存在していることを検出して、前記コンテンツ再生手順は、前記マーカー検出手順によりマーカーが検出されている状態において、該マーカーに対応するコンテンツを、そのマーカーを基準として定められる前記表示手順の表示領域にて再生させて、前記イベント検出手順は、前記コンテンツ再生手順によるコンテンツの再生が開始されて以降、当該コンピュータに対し、該コンテンツの表示態様を変更させるためのイベントが発生したか否かを検出して、前記領域変更手順は、前記イベント検出手順によりイベントの発生が検出された場合に、少なくとも前記コンテンツが再生される表示領域を、その検出されたイベントに応じた表示領域へと変更する。
 さらに、前記コンテンツ再生手順は、前記領域変更手順により前記表示領域が変更されて以降、それまで再生させていた前記コンテンツを、その変更された表示領域にて再生させる。
 このような方法により画像を表示させる画像表示システムは、上記各局面の発明と同様の作用、効果を奏するものとなる。
画像表示システムの全体構成を示すブロック図 コンテンツ再生処理を示すフローチャート 図3Aはマーカーの例を示す図、図3Bはマーカーおよび再生表示領域を示す図、図3Cはマーカーにコンテンツが重畳された状態を示す図 イベント処理を示すフローチャート 領域指令操作を行った場合の動作を示す図(1) 領域指令操作を行った場合の動作を示す図(2) マーカー指令操作を行った場合の動作を示す図
 1…画像表示システム、11…制御部、13…通信部、15…記憶部、21…カメラ部、23…入力部、25…表示部、27…音声入出力部、31…GPSセンサ、33…加速度センサ。
 以下に本発明の実施形態を図面と共に説明する。
(1)全体構成
 画像表示システム1は、図1に示すように、制御部11、通信部13、記憶部15、カメラ部21、入力部23、表示部25、音声入出力部27、GPSセンサ31、加速度センサ33などを備えている。なお、本実施形態では、画像表示システム1が携帯電話端末に実装された場合を例示するが、この画像表示システム1は、カメラ部21、表示部25および入力部23におけるタッチパネルのうちのいずれか1以上の構成要素を備えていない電子機器と、これら構成要素とをインタフェース経由で有線接続または無線接続することにより実現してもよい。
 これらのうち、制御部11は、内蔵されたマイコンおよびメモリにより、画像表示システム1全体の動作を制御する。
 また、通信部13は、それぞれ異なる通信規格(携帯電話向け通信規格、無線LAN規格、近距離無線通信規格)に対応した複数の通信モジュールからなり、画像表示システム1による無線通信を制御する。
 また、入力部23は、表示部25の表示面と一体に構成されたタッチパネルおよび画像表示システム1本体に設けられたキースイッチ類からなり、これらを介してユーザの入力操作を受け付ける。
 また、GPSセンサ31は、複数のGPS(Global Positioning System)衛星からの受信電波に基づき、画像表示システム1の現在位置を特定するように構成されたセンサである。
 また、加速度センサ33は、画像表示システム1に加えられる加速度とその向きを検出するように構成されたセンサである。
(2)コンテンツ再生処理
 ここで、制御部11が記憶部15に格納されたアプリケーションプログラムに従って実行するコンテンツ再生処理の処理手順を図2に基づいて説明する。このコンテンツ再生処理は、この処理を起動するための操作が入力部23に対して行われた際に実行される。
 このコンテンツ再生処理が起動されると、まず、カメラ部21による画像の撮影、および、こうして撮影された画像(以降「撮影画像」という)の表示部25への表示が開始される(s110)。
 次に、通信部13を介してあらかじめ定められたネットワーク上の格納場所へのアクセスが行われ、この格納場所に格納されている所定コンテンツの取得(ダウンロード)が開始される(s120)。
 なお、ここでは、上記s110による撮影画像の表示開始後にコンテンツの取得が開始されるように構成されているが、カメラ部21による撮影が開始されたタイミングまたは、以降の処理(s140)で後述するマーカーが検出されたタイミングなどで、コンテンツの取得が開始されるように構成してもよい。
 次に、以降の処理で検出対象となるマーカーが設定される(s130)。ここでは、上記s120にて取得が開始されたコンテンツに対応するものとして定められた所定の要素画像が、以降の処理で検出対象となるマーカーとして設定(内蔵メモリへ格納)される。
 次に、撮影画像中から、上記s130にて設定されたマーカーが検出されたか否かがチェックされる(s140)。ここでは、撮影画像に、上記s130にて設定されたマーカーとしての要素画像が含まれている場合に、マーカーが検出されたと判定される。
 例えば、矩形の領域からなるイラストの要素画像がマーカーとして定められている場合を例示すると(図3A参照)、撮影画像中に、このイラストからなるマーカーと同じ特徴(形状または色分布など)の画像領域が存在しているか否かがチェックされ、特徴としての一致度が所定のしきい値以上となっている画像領域がマーカーとして検出される。
 このs140によるチェックは、上記s110にて画像の表示が開始された以降の経過時間が、規定時間に到達する(タイムアウトとなる)まで(s150:YES)、繰り返し行われる(s150:NO→s140)。
 この繰り返しにおいて、タイムアウトとなった場合には(s150:YES)、上記s120にて開始されたコンテンツの取得が終了され(s160)、上記s110にて開始された撮影および表示が終了された後(s170)、本コンテンツ再生処理が終了する。
 なお、ここまでに取得されたコンテンツは、上記s160にて破棄される。
 一方、上記s140によるチェックでマーカーが検出された場合は(s140:YES)、撮影画像中のマーカーを基準として定められる表示部25の表示領域が、上記s120で取得が開始されたコンテンツを再生すべき表示領域(再生表示領域)として設定される(s180)。
 次に、表示部25の表示領域のうち、上記s180にて設定された再生表示領域にて、上記s120で取得が開始されたコンテンツの再生が開始される(s190)。
 例えば、上記と同様に、矩形の領域からなるイラストがマーカーとして定められ、コンテンツが矩形で再生すべき静止画または動画である場合を例示すると、上記s180にて、このマーカー上における矩形の領域を再生表示領域として設定し(図3B参照)、上記s190にて、ここにコンテンツを再生することが考えられる(図3C参照)。
 こうしてコンテンツの再生が開始された後、画像表示システム1に対してイベントが発生したか否かがチェックされる(s210)。本実施形態では、入力部23におけるタッチパネルへの操作が行われたこと、または、加速度センサ33により一定以上の加速度が検出されたこと、がイベントの発生と判定される。
 このs210においてイベントが発生したと判定された場合(s210:YES)、このイベントに応じた処理(イベント処理)が実施された後(s220)、次の処理(s230)へと移行する。
 詳細な処理は後述するが、このイベント処理では、発生したイベントに応じて、コンテンツの表示領域をマーカーに依存しない表示領域に設定変更する処理、検出対象となるマーカーを別のマーカーに設定変更する処理、コンテンツの表示領域に拡張現実としての演出を付加する処理などが実施される。
 一方、上記s210においてイベントが発生していないと判定されたら(s210:NO)、上述したイベント処理が実施されることなく、次の処理(s230)へ移行する。
 次に、この時点(s230に移行してきた時点)で再生表示領域を設定可能な状態となっているか否かがチェックされる(s230)。
 ここでは、上記イベント処理において、再生表示領域がマーカーに依存しない表示領域に設定変更されている場合には、そのことをもって、再生表示領域を設定可能な状態になっていると判定される。また、上記イベント処理において、再生表示領域がマーカーに依存しない表示領域へと設定変更されていない場合、または、検出対象となるマーカーが別のマーカーに設定変更されている場合には、上記s140と同様、マーカーが検出されていることをもって、再生表示領域を設定可能な状態になっていると判定される。逆に、この場合において、マーカーが検出されなければ、再生表示領域を設定可能な状態にはなっていないと判定される。
 このs230で再生表示領域を設定可能と判定された場合には(s230:YES)、この時点(設定可能と判定した時点)における表示領域、またはマーカーの設定状態に応じた表示領域(マーカーに依存しない表示領域、マーカーに基づく表示領域)が、再生表示領域として設定された後(s240)、プロセスがs190へと戻る。
 この場合のs190では、後述する処理(s250)でコンテンツの再生が中断されていれば、その中断された再生位置からの再生が再開される。
 このs240で、再生表示領域がマーカーに依存しない表示領域へと設定変更されていない場合、または、検出対象となるマーカーが別のマーカーに設定変更されている場合には、撮影画像におけるマーカーの位置に応じて再生表示領域を調整すべく、この時点(s240実施時点、つまりs230で設定可能と判定した時点)における撮影画像中のマーカーを基準として定められる表示部25の表示領域が再生表示領域として設定される。なお、再生表示領域がマーカーに依存しない表示領域に設定変更されている場合には、撮影画像におけるマーカーの位置に応じて再生表示領域を調整する必要がないため、このs240では何らの処理も行われない。
 また、上記s230で再生表示領域を設定可能な状態にはなっていないと判定された(つまり、撮影画像からマーカーが検出されない)場合(s230:NO)、上記s190にて開始されたコンテンツの再生が中断される(s250)。なお、既にコンテンツが中断されている場合、このs250では、こうして中断された状態が維持される。
 この上記s210,s230によるチェックは、コンテンツの再生中断が維持されている時間が規定時間に到達する(タイムアウトとなる)まで(s260:YES)、繰り返し行われる(s260:NO→s210)。
 この繰り返しにおいて、タイムアウトとなった場合には(s260:YES)、上記s190にて開始されたコンテンツの再生が終了され(s270)、プロセスがs170へと移行して撮影および表示が終了された後(s170)、本コンテンツ再生処理が終了する。ここまでに取得されたコンテンツは、このs170にて破棄される。
 なお、上記s270では、その時点(s260でタイムアウトとなり「YES」と判定された時点)でコンテンツの取得が終了していなければ、上記s160と同様に、その取得も終了される。
(2)イベント処理
 次に、コンテンツ再生処理におけるs220であるイベント処理の処理手順を図4に基づいて説明する。
 このイベント処理では、まず、上記s210にて発生したと判定されたイベントが、領域変更イベントであるか否かがチェックされる(s310)。ここでは、入力部23への操作として、コンテンツをマーカーに依存しない表示領域にて再生すべき旨を指令するための領域指令操作(本実施形態では、場所を問わずタッチパネルを1回タッチする操作)が行われたことが、「領域変更イベント」として判定される。
 このs310で領域変更イベントであると判定された場合(s310:YES)、撮影画像中のマーカーを基準としない表示部25の表示領域が、再生表示領域として設定される(s320)。
 ここでは、例えば、表示部25における表示領域中の所定位置を基準として、コンテンツの再生に必要な範囲の表示領域が再生表示領域として設定される。具体的には、それまでの再生表示領域から上下左右に所定量だけズラした表示領域、または表示部25における表示領域の中心にコンテンツが位置するような表示領域などである。
 また、コンテンツの再生に必要な範囲が表示部25の表示領域全体(画像表示に用いられる領域全域)と相似形である場合には、この表示領域全体を再生表示領域として設定することも考えられる。なお、この場合(相似形である場合)には、表示部25における表示領域全体の形状、および、コンテンツの再生に必要な表示領域の形状を情報(四角形であれば縦横比)として取得したうえで、これら形状の一致度を比較することで、両形状が相似形であるか否かを積極的に確認する構成としてもよい。
 こうして、s320を終えたら、コンテンツ再生処理へと戻り、上記s230以降の処理が行われる。
 また、上記s210にて発生したと判定されたイベントが、領域変更イベントではない場合(s310:NO)、そのイベントがマーカー変更イベントであるか否かがチェックされる(s330)。
 ここでは、入力部23におけるタッチパネルへの操作として、その時点(s330にてチェックをしようとする時点)で検出対象として定められているマーカーを別のマーカーへと変更すべき旨を指令するためのマーカー指令操作が行われたことが、「マーカー変更イベント」として判定される。
 本実施形態において、この「マーカー指令操作」は、例えば、その時点(マーカー指令操作を行おうとする時点)で撮影されている画像の一部または全部を別のマーカーとして指定させたり、記憶部15またはネットワーク上に格納された特定画像を別のマーカーとして指定させたりする操作のことである。
 このs330でマーカー変更イベントであると判定された場合(s330:YES)、マーカー指令操作にて指定された「別のマーカー」が画像データとして取得される(s340)。
 なお、このs340では、取得された画像データがマーカーとして適切に使用できるか否かを形状または色分布などに基づいて判定し、使用できる場合のみ以降の処理へと移行することとしてもよい。この場合、使用できないと判定された場合には、その旨のエラーメッセージを表示部25に表示後、コンテンツ再生処理へと戻り、上記s230以降の処理が行われることとすればよい。
 次に、以降の処理で検出対象となるマーカーが設定される(s350)。ここでは、上記s340にて取得された「別のマーカー」としての画像が、上記s130と同様に、以降の処理で画像からの検出対象となるマーカーとして設定される。
 こうして、s350を終えたら、コンテンツ再生処理へと戻り、上記s230以降の処理が行われる。
 また、上記s210にて発生したと判定されたイベントが、マーカー変更イベントではない場合(s330:NO)、そのイベントが演出付加イベントであるか否かがチェックされる(s360)。ここでは、加速度センサ33により一定以上の加速度が検出されたことが「演出付加イベント」として判定される。
 このs360で演出付加イベントであると判定された場合(s360:YES)、コンテンツの表示領域に付加すべき演出の態様が決定される(s370)。
 本実施形態では、再生表示領域が画像表示システム1そのものの変位に対して反対方向に変位した後で元の位置に戻る、といった演出を付加すべく、その演出態様として再生表示領域を変位させる方向が決定される。具体的には、加速度センサ33により検出された加速度の方向(画像表示システム1の変位方向)、および、その変位方向との関係で規定される表示部25の向きに基づいて、表示部25の表示領域において加速度センサ33に検出された変位方向と反対となる方向(反対変位方向)が特定される。
 ここでは、反対変位方向と共に、この反対変位方向へと変位させる際の速度を、加速度センサ33に検出された加速度に基づいて決定することとしてもよい。
 次に、上記s370で決定された態様により、コンテンツへの演出の付加が開始される(s380)。ここでは、上記s370にて決定された反対変位方向へと、再生表示領域を一定量だけ所定速度で変位させ、その後、所定速度で元の位置まで戻す、といった演出付加のための処理が開始される。
 なお、上記s370にて、変位方向へと変位させる際の速度を決定した場合、このs380では、この速度に従って再生表示領域を変位させることとすればよい。
 こうして、s380を終えたら、コンテンツ再生処理へと戻り、上記s230以降の処理が行われる。
 また、上記s210にて発生したと判定されたイベントが、上述したいずれのイベントでもないと判定された場合には(s360:NO)、そのイベントに対応する処理(その他の処理)が行われた後(s380)、コンテンツ再生処理へと戻り、上記s230以降の処理が行われる。
(4)作用,効果
 このように構成された画像表示システム1では、コンテンツを再生する再生表示領域を、画像中のマーカーを基準とする表示領域から、画像表示システム1に対して発生したイベントに応じた表示領域へと変更することができる(s210~s240)。
 このように、イベントに応じた再生表示領域へと変更することにより、それまでのマーカーが位置する表示領域とは無関係に、このマーカーに対応する再生コンテンツを再生させることができる。これにより、カメラ部21によりマーカーを含む領域が撮影されているか否かに拘らず、継続的にコンテンツを再生させることができるため、コンテンツの再生およびその閲覧に際しての自由度が高い。
 また、上記構成では、領域指令操作が検出された以降(s310「YES」)、コンテンツをマーカーに依存しない表示領域にて再生させることができる(s320)。そのため、ユーザは、図5に示すように、画像表示システム1に対して領域指令操作(ここではタッチパネルをタップする操作)を行うことにより、マーカーを含む領域を撮影し続けることなく、そのマーカーに対応するコンテンツを継続的に閲覧することができるようになる。
 また、上記構成において、コンテンツの再生に必要な範囲を表示部25の表示領域全体と相似形とした場合には、領域指令操作が検出された以降(s310「YES」)、コンテンツを表示部25における表示領域全体にて再生させることができる(s320)。そのため、ユーザは、図6に示すように、画像表示システム1に対して領域指令操作(同上)を行うことにより、そのマーカーに対応するコンテンツを全画面表示にて継続的に閲覧することができるようになる。
 また、上記構成では、マーカー指令操作が検出された以降(s330「YES」)、この操作に伴う別のマーカーを基準とする表示領域にてコンテンツを再生させることができる(s340~s350→s240)。そのため、ユーザは、図7に示すように、画像表示システム1に対してマーカー指令操作(ここでは「別のマーカー」を撮影する操作)を行うことにより、元のマーカーに対応するコンテンツを、別のマーカーを基準とする表示領域にて閲覧することができるようになる。
 また、上記構成では、演出付加イベントの発生が検出された際(s360「YES」)、表示部25で再生されているコンテンツが、画像表示システム1そのものの変位に対して遅れて追随してくるような演出を行うことができ、これにより仮想現実感を一層高めることができる。
(5)変形例
 以上、本発明の実施の形態について説明したが、本発明は、上記実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態をとり得ることはいうまでもない。
 例えば、上記実施形態においては、検出対象となるマーカーが、特定の画像的な特徴を有する画像領域として定められ、カメラ部21に撮影される画像から、この画像的な特徴を有する画像領域を識別し、これをマーカーとして検出するように構成されている。
 しかし、検出対象となるマーカーは、画像表示システム1の位置(GPSセンサ31にて特定)または向き(加速度センサ33にて特定)などの情報(具体的には、「位置」、「向き」を含む複数種類の情報のうちの1つ以上)に基づいて、カメラ部21に撮影される画像に含まれる画像領域の実空間における位置を特定したうえで、実空間における特定の位置を含む画像領域(場所または建造物など)を識別し、これをマーカーとして検出するように構成してもよい。この場合、マーカー指令操作では、地図等における該当箇所または位置情報などを「別のマーカー」として指定することとすればよい。
 また、上記実施形態では、コンテンツ再生処理の都度、ネットワーク経由でコンテンツを取得するように構成されている。しかし、コンテンツは、あらかじめ画像表示システム1の記憶部15内に格納しておき、ここから取得するように構成してもよい。
 また、上記本実施形態では、入力部23におけるタッチパネルへの操作が行われたこと、または、加速度センサ33により一定以上の加速度が検出されたことを、イベントの発生として判定するように構成されている。しかし、これら以外の操作、またはその他センサ類の検出結果から判定される外部環境の変化などについても、イベントの発生として判定し、それに応じた処理(s390)を行うように構成してもよい。
 また、上記実施形態では、演出付加イベントの発生を受け、再生表示領域が画像表示システム1そのものの変位に対して遅れて追随してくる演出を付加するように構成されている。しかし、コンテンツに付加する演出としては、仮想現実感を高めるためのものであればよく、これ以外の演出を付加する構成としてもよい。
 また、上記実施形態においては、マーカー指令操作が行われた際、検索対象のマーカーのみが「別のマーカー」に設定変更され、再生させるべきコンテンツは変更されないように構成されている。しかし、このマーカー指令操作を受けた際、マーカーと共にコンテンツも変更されるように構成してもよく、このためには、上記s340において、マーカーとなる画像と共に、このマーカーに対応するコンテンツの取得を開始し、ここまでに取得されていたコンテンツを破棄するように構成することが考えられる。
 また、上記実施形態では、イベント処理において、領域変更イベント、マーカー変更イベント、演出付加イベント、といった順番でイベント内容をチェックするように構成されているが、このイベント内容をチェックする順番は、この順番に限られない。
(6)本発明との対応関係
 上記実施形態において、コンテンツ再生処理のs140,s230は本発明におけるマーカー検出部の一例であり、同s190は本発明におけるコンテンツ再生部の一例であり、同s210およびイベント処理のs310,s330,s360は本発明におけるイベント検出部の一例であり、コンテンツ再生処理のs130,s240およびイベント処理のs320は本発明における領域変更部の一例であり、イベント処理のs370は本発明における方向特定部の一例である。

Claims (8)

  1.  カメラ部と該カメラ部に撮影された画像を表示させる表示部とを備えた画像表示システムであって、
     マーカー検出部と、コンテンツ再生部と、イベント検出部と、領域変更部と、を備え、
     前記マーカー検出部は、前記カメラ部による撮影が開始されて以降または該撮影された画像の前記表示部への表示が開始されて以降、該撮影された画像中に、あらかじめ検出対象として定められたマーカーが存在していることを検出して、
     前記コンテンツ再生部は、前記マーカー検出部によりマーカーが検出されている状態において、該マーカーに対応するコンテンツを、そのマーカーを基準として定められる前記表示部の表示領域にて再生させて、
     前記イベント検出部は、前記コンテンツ再生部によるコンテンツの再生が開始されて以降、当該画像表示システムに対し、該コンテンツの表示態様を変更させるためのイベントが発生したか否かを検出して、
     前記領域変更部は、前記イベント検出部によりイベントの発生が検出された場合に、少なくとも前記コンテンツが再生される表示領域を、その検出されたイベントに応じた表示領域へと変更して、
     さらに、
     前記コンテンツ再生部は、前記領域変更部により前記表示領域が変更されて以降、それまで再生させていた前記コンテンツを、その変更された表示領域にて再生させる
     ことを特徴とする画像表示システム。
  2.  前記イベント検出部は、前記コンテンツ再生部によるコンテンツの再生が開始されて以降、当該画像表示システムに対し、前記コンテンツを前記マーカーに依存しない表示領域にて再生すべき旨を指令するための領域指令操作が行われたことをイベントとして検出して、
     前記領域変更部は、前記イベント検出部により前記領域指令操作が検出された場合に、前記コンテンツが再生される表示領域を、前記表示部において前記マーカーを基準としない所定の表示領域へと変更する
     ことを特徴とする請求項1に記載の画像表示システム。
  3.  検出対象として定められたマーカーにつき、該マーカーに対応するコンテンツの再生に必要な範囲が前記表示部の表示領域全体と相似形である場合において、
     前記領域変更部は、前記イベント検出部により前記領域指令操作が検出された場合に、前記コンテンツが再生される表示領域を、前記表示部における表示領域全体に変更する
     ことを特徴とする請求項2に記載の画像表示システム。
  4.  前記イベント検出部は、前記コンテンツ再生部によるコンテンツの再生が開始されて以降、当該画像表示システムに対し、その時点で検出対象として定められているマーカーを別のマーカーへと変更すべき旨を指令するためのマーカー指令操作が行われたことをイベントとして検出するものであり、
     前記領域変更部は、前記イベント検出部により前記マーカー指令操作が検出された場合に、前記再生コンテンツが再生されていた表示領域を、該マーカー指令操作に伴うマーカー(前記別のマーカー)を基準として定められる表示領域へと変更して、
     前記コンテンツ再生部は、前記マーカー指令操作を受けた前記領域変更部により前記表示領域が変更されて以降、それまで再生させていた前記コンテンツを、前記別のマーカーが前記マーカー検出部により検出されている状態において、該別のマーカーを基準として定められる前記表示部の表示領域にて再生させる
     ことを特徴とする請求項1から3のいずれかに記載の画像表示システム。
  5.  さらに、変位検出部と、方向特定部と、を備えており、
     前記変位検出部は、当該画像表示システムが一定以上の加速度をもって特定方向へと変位していることを検出して、
     前記方向特定部は、前記変位検出部により検出された変位方向、および、該検出されうる変位方向との関係で規定される前記表示部の向きに基づいて、前記表示部の表示領域において前記変位検出部に検出された変位方向と反対となる方向を特定して、
     前記イベント検出部は、前記コンテンツ再生部によるコンテンツの再生が開始されて以降、前記変位検出部により当該画像表示システムの変位が開始されたことをイベントとして検出するものであり、
     前記領域変更部は、前記領域変更イベント検出部により変位開始が検出された際、その変位開始が検出された時点で前記方向特定部により特定される方向へ、前記コンテンツが再生されている表示領域を一定量だけ所定速度で変位させ、その後、所定速度で元の位置へと戻す
     ことを特徴とする請求項1から4のいずれかに記載の画像表示システム。
  6.  カメラ部に撮影させた画像を表示部に表示させる電子機器であって、
     マーカー検出部と、コンテンツ再生部と、イベント検出部と、領域変更部と、を備え、
     前記マーカー検出部は、前記カメラ部による撮影が開始されて以降または該撮影された画像の前記表示部への表示が開始されて以降、該撮影された画像中に、あらかじめ検出対象として定められたマーカーが存在していることを検出して、
     前記コンテンツ再生部は、前記マーカー検出部によりマーカーが検出されている状態において、該マーカーに対応するコンテンツを、そのマーカーを基準として定められる前記表示部の表示領域にて再生させて、
     前記イベント検出部は、前記コンテンツ再生部によるコンテンツの再生が開始されて以降、当該電子機器に対し、該コンテンツの表示態様を変更させるためのイベントが発生したか否かを検出して、
     前記領域変更部は、前記イベント検出部によりイベントの発生が検出された場合に、少なくとも前記コンテンツが再生される表示領域を、その検出されたイベントに応じた表示領域へと変更して、
     さらに、
     前記コンテンツ再生部は、前記領域変更部により前記表示領域が変更されて以降、それまで再生させていた前記コンテンツを、その変更された表示領域にて再生させる
     ことを特徴とする電子機器。
  7.  コンピュータを
     請求項1から6のいずれかに記載の全ての構成要素として機能させる
     ためのプログラム。
  8.  少なくとも1つのコンピュータに、カメラ部と該カメラ部に撮影された画像を表示させる画像表示方法であって、
     マーカー検出手順と、コンテンツ再生手順と、イベント検出手順と、領域変更手順と、からなり、
     前記マーカー検出手順は、前記カメラ手順による撮影が開始されて以降または該撮影された画像の前記表示手順への表示が開始されて以降、該撮影された画像中に、あらかじめ検出対象として定められたマーカーが存在していることを検出して、
     前記コンテンツ再生手順は、前記マーカー検出手順によりマーカーが検出されている状態において、該マーカーに対応するコンテンツを、そのマーカーを基準として定められる前記表示手順の表示領域にて再生させて、
     前記イベント検出手順は、前記コンテンツ再生手順によるコンテンツの再生が開始されて以降、当該コンピュータに対し、該コンテンツの表示態様を変更させるためのイベントが発生したか否かを検出して、
     前記領域変更手順は、前記イベント検出手順によりイベントの発生が検出された場合に、少なくとも前記コンテンツが再生される表示領域を、その検出されたイベントに応じた表示領域へと変更して、
     さらに、
     前記コンテンツ再生手順は、前記領域変更手順により前記表示領域が変更されて以降、それまで再生させていた前記コンテンツを、その変更された表示領域にて再生させる
     ことを特徴とする画像表示方法。
PCT/JP2012/078192 2012-10-31 2012-10-31 画像表示システム、電子機器、プログラムおよび画像表示方法 WO2014068706A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US14/440,062 US20150286871A1 (en) 2012-10-31 2012-10-31 Image display system, electronic device, program, and image display method
JP2014544122A JP5960836B2 (ja) 2012-10-31 2012-10-31 画像表示システム、電子機器、プログラムおよび画像表示方法
EP12887515.0A EP2916204A4 (en) 2012-10-31 2012-10-31 IMAGE DISPLAY SYSTEM, ELECTRONIC DEVICE, PROGRAM, AND IMAGE DISPLAY METHOD
CN201280076821.2A CN104756063A (zh) 2012-10-31 2012-10-31 图像显示系统、电子设备、程序以及图像显示方法
PCT/JP2012/078192 WO2014068706A1 (ja) 2012-10-31 2012-10-31 画像表示システム、電子機器、プログラムおよび画像表示方法
HK15110290.9A HK1209860A1 (en) 2012-10-31 2015-10-20 Image display system, electronic device, program, and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/078192 WO2014068706A1 (ja) 2012-10-31 2012-10-31 画像表示システム、電子機器、プログラムおよび画像表示方法

Publications (1)

Publication Number Publication Date
WO2014068706A1 true WO2014068706A1 (ja) 2014-05-08

Family

ID=50626674

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/078192 WO2014068706A1 (ja) 2012-10-31 2012-10-31 画像表示システム、電子機器、プログラムおよび画像表示方法

Country Status (6)

Country Link
US (1) US20150286871A1 (ja)
EP (1) EP2916204A4 (ja)
JP (1) JP5960836B2 (ja)
CN (1) CN104756063A (ja)
HK (1) HK1209860A1 (ja)
WO (1) WO2014068706A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019059725A1 (en) 2017-09-22 2019-03-28 Samsung Electronics Co., Ltd. METHOD AND DEVICE FOR PROVIDING SERVICE OF INCREASED REALITY
JP6887131B2 (ja) * 2017-11-06 2021-06-16 パナソニックIpマネジメント株式会社 再生装置、再生方法及び再生プログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3700021B2 (ja) 1993-09-10 2005-09-28 ジオヴェクター・コーポレーション 位置及び姿勢を利用した電子光学式視覚システム
JP2006020294A (ja) * 2004-05-31 2006-01-19 Casio Comput Co Ltd 情報受信装置、情報伝送システム及び情報受信方法
JP2007323637A (ja) * 2006-05-30 2007-12-13 Samsung Electronics Co Ltd イメージ検索方法及び装置
JP2010238096A (ja) 2009-03-31 2010-10-21 Ntt Docomo Inc 端末装置、拡張現実感システム及び端末画面表示方法
JP2011135556A (ja) * 2009-12-23 2011-07-07 Fuji Xerox Co Ltd 表示物の生成方法、デジタルメディア提供システム、それらのためのコンピュータプログラムおよび表示物体
JP2011141828A (ja) * 2010-01-08 2011-07-21 Sony Corp 情報処理装置、情報処理システム及び情報処理方法
US20110216206A1 (en) * 2009-12-31 2011-09-08 Sony Computer Entertainment Europe Limited Media viewing
EP2508975A2 (en) * 2011-04-08 2012-10-10 Sony Corporation Display control device, display control method, and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090259204A1 (en) * 2008-04-14 2009-10-15 Shabty Galdeti Method and Device for Applying Eye Drops
US9183675B2 (en) * 2010-08-06 2015-11-10 Bizmodeline Co., Ltd. Apparatus and method for augmented reality
KR101690955B1 (ko) * 2010-10-04 2016-12-29 삼성전자주식회사 증강 현실을 이용한 영상 데이터 생성 방법 및 재생 방법, 그리고 이를 이용한 촬영 장치
US9572539B2 (en) * 2011-04-08 2017-02-21 Imactis Device and method for determining the position of an instrument in relation to medical images
JP5230778B2 (ja) * 2011-07-14 2013-07-10 株式会社エヌ・ティ・ティ・ドコモ オブジェクト情報提供装置、オブジェクト情報提供システム、端末及びオブジェクト情報提供方法
JP5791433B2 (ja) * 2011-08-31 2015-10-07 任天堂株式会社 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
JP2013186691A (ja) * 2012-03-08 2013-09-19 Casio Comput Co Ltd 画像処理装置及び画像処理方法並びにプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3700021B2 (ja) 1993-09-10 2005-09-28 ジオヴェクター・コーポレーション 位置及び姿勢を利用した電子光学式視覚システム
JP2006020294A (ja) * 2004-05-31 2006-01-19 Casio Comput Co Ltd 情報受信装置、情報伝送システム及び情報受信方法
JP2007323637A (ja) * 2006-05-30 2007-12-13 Samsung Electronics Co Ltd イメージ検索方法及び装置
JP2010238096A (ja) 2009-03-31 2010-10-21 Ntt Docomo Inc 端末装置、拡張現実感システム及び端末画面表示方法
JP2011135556A (ja) * 2009-12-23 2011-07-07 Fuji Xerox Co Ltd 表示物の生成方法、デジタルメディア提供システム、それらのためのコンピュータプログラムおよび表示物体
US20110216206A1 (en) * 2009-12-31 2011-09-08 Sony Computer Entertainment Europe Limited Media viewing
JP2011141828A (ja) * 2010-01-08 2011-07-21 Sony Corp 情報処理装置、情報処理システム及び情報処理方法
EP2508975A2 (en) * 2011-04-08 2012-10-10 Sony Corporation Display control device, display control method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2916204A4

Also Published As

Publication number Publication date
CN104756063A (zh) 2015-07-01
EP2916204A1 (en) 2015-09-09
HK1209860A1 (en) 2016-04-08
US20150286871A1 (en) 2015-10-08
JPWO2014068706A1 (ja) 2016-09-08
EP2916204A4 (en) 2016-06-29
JP5960836B2 (ja) 2016-08-02

Similar Documents

Publication Publication Date Title
EP3164987B1 (en) Mobile camera system
US11521654B2 (en) Recording and playing video using orientation of device
US9973722B2 (en) Systems, devices and methods for displaying pictures in a picture
EP3136705B1 (en) Mobile terminal and method for controlling the same
JP6128123B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
KR20140143725A (ko) 이미지 상관 방법 및 그 전자 장치
JP6149862B2 (ja) 表示制御装置、表示制御システムおよび表示制御方法
CN109743438B (zh) 一种发送多媒体信息的方法和装置
TWI706332B (zh) 圖形編碼展示方法和裝置以及電腦設備
US20210092279A1 (en) Apparatus and method for controlling auto focus function in electronic device
JP6400293B2 (ja) 電子装置でコンテンツを制御する装置及びその方法
CN108012101B (zh) 视频录制方法和视频录制终端
EP2793462B1 (en) Method and apparatus for video call in communication system
JP4724242B2 (ja) 電子機器および画像表示方法
JP5960836B2 (ja) 画像表示システム、電子機器、プログラムおよび画像表示方法
JP2006148514A (ja) 画像再生装置及び画像再生装置の制御方法
JP6447615B2 (ja) 画像表示装置及び方法、画像生成装置及び方法、並びにプログラム
JP2017084161A (ja) 画像処理装置、表示装置及びその制御方法
KR102081659B1 (ko) 시각 효과 적용을 위한 촬영 방법 및 장치
CN105765960A (zh) 拍摄装置、拍摄方法以及程序
JP2007208596A (ja) データ再生機器、データ再生方法およびプログラム
JP2015097041A (ja) 画像再生装置、画像再生方法及び画像再生プログラム
JP2013081018A (ja) 動画編集装置、動画編集方法、およびプログラム
JP2005236374A (ja) 再生装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12887515

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014544122

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14440062

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2012887515

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012887515

Country of ref document: EP