WO2020262261A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2020262261A1
WO2020262261A1 PCT/JP2020/024249 JP2020024249W WO2020262261A1 WO 2020262261 A1 WO2020262261 A1 WO 2020262261A1 JP 2020024249 W JP2020024249 W JP 2020024249W WO 2020262261 A1 WO2020262261 A1 WO 2020262261A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
model
information processing
captured image
control unit
Prior art date
Application number
PCT/JP2020/024249
Other languages
English (en)
French (fr)
Inventor
尚子 菅野
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP20830863.5A priority Critical patent/EP3982331A4/en
Priority to CN202080045553.2A priority patent/CN114008582A/zh
Priority to US17/618,647 priority patent/US11842453B2/en
Priority to JP2021526948A priority patent/JPWO2020262261A1/ja
Publication of WO2020262261A1 publication Critical patent/WO2020262261A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1407General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Definitions

  • the present disclosure relates to information processing devices, information processing methods and programs, and in particular, information processing devices, information processing methods and programs capable of causing 3D objects to perform interactive movements and reactions according to the movements of an observer. Regarding the program.
  • Fourth Embodiment 4-1 Functional configuration of mobile terminals 4-2. Flow of processing performed by mobile terminals 4-3. Effect of the fourth embodiment 5.
  • Fifth Embodiment 5-1 Functional configuration of mobile terminals 5-2. Flow of processing performed by mobile terminals 5-3. Effect of the fifth embodiment 6.
  • Sixth Embodiment 6-1 Functional configuration of mobile terminals 6-2. Flow of processing performed by mobile terminals 6-3. Effect of the sixth embodiment 7.
  • Functional configuration of mobile terminals 7-2 Flow of processing performed by mobile terminals 7-3. Effect of the seventh embodiment 8.
  • Eighth Embodiment 8-1 Outline of information processing device 8-2.
  • Functional configuration of information processing device 8-3 Functional configuration of processing performed by the information processing device 8-4. Effect of the eighth embodiment 9.
  • Ninth Embodiment 9-1 Outline of information processing device 9-2.
  • Functional configuration of information processing device 9-3 Functional configuration of processing performed by the information processing device 9-4. Effect of 9th Embodiment 9-1.
  • FIG. 2 is a diagram illustrating an AR application.
  • FIG. 7A shows an enlarged view of the left eye of the subject 92 detected from the captured image I captured by the camera 84.
  • the distance dp between the center of the pupil P and the inner corner of the eye Q changes according to the line-of-sight direction. Specifically, as shown in FIG. 7A, when the line of sight turns to the left (toward the outer corner S side of the eye), the distance dp increases. On the other hand, when the line of sight turns to the right (toward the inner Q side of the eye), the distance dp becomes smaller. Therefore, when the distance dp is measured, the approximate line-of-sight direction can be calculated.
  • FIG. 7B is an example of capturing the face of the subject 92 with the camera 84 while irradiating the infrared LED 86. It is assumed that the camera 84 has sensitivity to light having a wavelength emitted by the infrared LED 86.
  • the line-of-sight measurement method shown in FIG. 7B detects the region of the eyeball from the captured face image, and based on the position of the reflected image (corneal reflex image) of the infrared LED86 in the detected cornea of the eyeball, the line-of-sight.
  • the direction E is detected. Since the wavelength of the light emitted by the infrared LED 86 is an invisible wavelength, the line-of-sight direction can be detected without disturbing the subject 92.
  • FIG. 7B shows an enlarged view of the left eye of the subject 92 detected from the captured image I captured by the camera 84.
  • the positional relationship between the center of the pupil P and the corneal reflex image R changes according to the line-of-sight direction. Specifically, as shown in FIG. 7B, when the line of sight turns to the left (toward the outer corner S side of the eye), the pupil P is located on the outer corner S side of the corneal reflex image R. On the other hand, when the line of sight is directed to the right (facing the inner corner Q side of the eye), the pupil P is located closer to the inner corner Q side of the corneal reflex image R. Therefore, when the positional relationship between the pupil P and the corneal reflex image R is measured, an approximate line-of-sight direction can be detected.
  • the 3D model frame selection unit 54a selects the 3D model 90M of the differential default determined in advance according to the AR marker 85 from the 3D model M stored in the storage unit 38. .. Then, the 3D model drawing direction control unit 54b superimposes and displays the selected 3D model 90M at a position corresponding to the AR marker 85 of the captured image I (step S13).
  • the line-of-sight direction detection unit 53b determines whether the subject 92 is looking at the camera, that is, whether the line-of-sight direction E of the subject 92 is facing the direction of the camera 84 (step S17).
  • step S17: Yes the process proceeds to step S19.
  • step S17: No the process proceeds to step S18.
  • the subject feature detection unit 53 detects the line-of-sight direction E, which is a feature of the subject 92
  • the display control unit 54 detects it.
  • the line-of-sight direction F (face direction) of the 3D model 90M is changed according to the line-of-sight direction E of the subject 92.
  • the 3D model 90M perform an interactive operation or reaction according to the line-of-sight direction E of the subject 92.
  • the 3D model 90M can be made to perform interactive movements and reactions according to the subject 92.
  • the second embodiment of the present disclosure is an example of a mobile terminal 80 (information processing device) having a function of allowing the subject 92 and the 3D model 90M to look at each other with their eyes aligned.
  • step S37 the 3D model drawing direction control unit 54b directs the drawing position of the 3D model 90M toward the face of the subject 92 (step S39).
  • the smile detection unit 53c detects whether the subject 92 reflected in the captured image I is a smile.
  • the smile detection unit 53c extracts the facial region of the subject 92 detected by the subject detection unit 53a. Then, the smile detection unit 53c collates the extracted facial area with a sample showing a smile among a large number of facial expression samples stored in the facial expression database (not shown in FIG. 12).
  • the smile detection unit 53c determines that the subject 92 is a smile when the extracted facial region shows a high degree of collation with the sample showing a smile.
  • the smile detection unit 53c may determine whether or not the person is smiling by using another image processing algorithm.
  • step S50 to step S55 in FIG. 13 Since the processing flow from step S50 to step S55 in FIG. 13 is the same as the processing flow from step S10 to step S15 in FIG. 9 described in the first embodiment, the description thereof will be omitted.
  • step S55 When it is determined in step S55 that the subject 92 has been detected (step S55: Yes), the line-of-sight direction detection unit 53b detects the line-of-sight direction E of the subject 92. Then, the smile detection unit 53c determines whether the subject 92 is a smile (step S56).
  • step S57 determines whether the line-of-sight direction E of the subject 92 is facing the direction of the camera 84 (step S57).
  • step S57: Yes the process proceeds to step S59.
  • step S58 the process proceeds to step S58.
  • FIG. 14 is a functional block diagram showing an example of the functional configuration of the mobile terminal according to the fourth embodiment.
  • the mobile terminal 80 of the fourth embodiment has a functional configuration in which some functions are exchanged with the mobile terminal 80 of the first embodiment (see FIG. 6).
  • FIG. 6 shows the mobile terminal 80 of the first embodiment.
  • the subject feature detection unit 53 includes a shooting environment evaluation unit 53d instead of the line-of-sight direction detection unit 53b.
  • the 3D model brightness control unit 54c determines that the skin brightness and skin tone of the 3D model 90M are the skin brightness of the subject 92 based on the skin brightness and skin tone of the subject 92 reflected in the captured image I.
  • the texture of the 3D model 90M may be corrected to be comparable to the shade of the pods.
  • FIG. 15 is a flowchart showing an example of the flow of processing performed by the mobile terminal according to the fourth embodiment. Hereinafter, the processing flow will be described step by step.
  • the imaging / recording processing unit 51b performs self-shooting in a state where both the subject 92 and the 3D model 90N are projected (step S79).
  • the drawing position (distance from the camera 84) of the 3D model 90M is corrected according to the position of the subject 92 (distance from the camera 84), and the subject 92 and the 3D model 90M are corrected.
  • This is an example of a mobile terminal 80 (information processing device) having a function of performing self-portrait photography in a state where both are in focus. That is, the mobile terminal 80 of the present embodiment changes the display mode (drawing position) of the 3D model 90M according to the position (distance from the camera 84), which is a feature of the subject 92.
  • the subject detection unit 53a detects the subject 92 from the captured image I (step S85).
  • the depth of field calculation unit 53e calculates the distance between the camera 84 and the subject 92.
  • FIG. 19 is a flowchart showing an example of the flow of processing performed by the mobile terminal according to the sixth embodiment. Hereinafter, the processing flow will be described step by step.
  • step S90 to step S92 in FIG. 19 Since the processing flow from step S90 to step S92 in FIG. 19 is the same as the processing flow from step S10 to step S12 in FIG. 9 described in the first embodiment, the description thereof will be omitted.
  • each of the above-described embodiments may have the functions of a plurality of different embodiments. Then, in that case, the mobile terminal 80 is provided with all the functional configurations of the plurality of embodiments.
  • the camera 84 connected to the information processing device 81a captures the user who is the subject 92 and generates an captured image Ia (virtual image).
  • the generated captured image Ia is wirelessly transmitted and displayed on the head-mounted display 89 (HMD) worn by the subject 92.
  • the captured image Ia displayed on the head-mounted display 89 displays the avatar 92a (first avatar), which is the alter ego of the subject 92, and the 3D model 90M described in each embodiment of the present disclosure is superimposed. Is displayed.
  • the avatar 92a is a full CG movie.
  • the avatar 92a has a function of capturing an image using a virtual camera 84V in a virtual space. That is, when the subject 92 issues an instruction to operate the virtual camera 84V via the controller 88, the avatar 92a takes out the virtual camera 84V and captures an image in the direction instructed by the subject 92 in the virtual space.
  • the 3D model frame selection unit 54a selects a predetermined 3D model 90M from a plurality of 3D model M stored in the storage unit 38. Further, the 3D model frame selection unit 54a selects the 3D model 90M having the line-of-sight direction F corresponding to the line-of-sight direction E of the avatar 92a detected by the line-of-sight direction detection unit 53b. More specifically, the 3D model frame selection unit 54a selects the 3D model 90M in which the line-of-sight direction F of the 3D model 90M faces the virtual camera 84V when the avatar 92a is looking at the virtual camera.
  • the line-of-sight direction detection unit 53b determines whether the avatar 93a is looking at the virtual camera 84V, that is, is looking at the virtual camera (step S136). When it is determined that the avatar 93a is looking at the virtual camera (step S136: Yes), the process proceeds to step S137. On the other hand, if it is not determined that the avatar 93a is looking at the virtual camera (step S136: No), the process returns to step S135.
  • the subject 92 (user) can make another subject 93 perform an interactive operation or reaction in the virtual space.
  • a control unit that controls the 3D model displayed in the captured image The captured image is provided with a detection unit for detecting the characteristics of the subject displayed at the same time as the 3D model.
  • the control unit is an information processing device that changes the display mode of the 3D model according to the characteristics of the subject detected by the detection unit.
  • the detection unit detects the line-of-sight direction, which is a feature of the subject.
  • the control unit changes the orientation of the 3D model according to the detected line-of-sight direction of the subject.
  • the information processing device according to (1) above.
  • the control unit changes the orientation of the 3D model by rotating the 3D model according to the line-of-sight direction of the subject.
  • the control unit changes the orientation of the 3D model by rotating the coordinate system in which the 3D model is placed according to the line-of-sight direction of the subject.
  • the information processing device according to (2) above.
  • the control unit changes the orientation of the 3D model to the direction in which the captured image is captured.
  • the information processing device according to any one of (1) to (4).
  • (6) When the detection unit detects that the line-of-sight direction of the subject is facing the 3D model, The control unit changes the orientation of the 3D model to face the subject.
  • the information processing device according to any one of (1) to (4).
  • the information processing device according to any one of (1) to (8).
  • the detection unit detects the position of the subject in the captured image, which is a feature of the subject. When the position of the subject and the position of the 3D model are predicted to overlap, the control unit changes the display position of the 3D model to a position that does not overlap with the subject.
  • the information processing device according to any one of (1) to (9) above.
  • the detection unit detects the position and size of the subject in the captured image, which is a feature of the subject.
  • the control unit adjusts the display position and size of the 3D model according to the position and size of the subject.
  • the information processing device according to any one of (1) to (10).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Ophthalmology & Optometry (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

携帯端末(80)(情報処理装置)の被写体特徴検出部(53)(検出部)が、撮像画像(I)に3Dモデル(90M)と同時に表示された被写体(92)の視線方向(E)(特徴)を検出する。そして、表示制御部(54)(制御部)が、被写体特徴検出部(53)が検出した被写体(92)の視線方向(E)に応じて、3Dモデル(90M)がカメラ(84)を向くように、3Dモデル(90M)の視線方向(F)(表示態様)を変更する。

Description

情報処理装置、情報処理方法及びプログラム
 本開示は、情報処理装置、情報処理方法及びプログラムに関し、特に、3Dオブジェクトに対して、観察者の動作に応じた、インタラクティブな動作や反応を行わせることができる情報処理装置、情報処理方法及びプログラムに関する。
 従来、現実の3D空間をセンシングした情報、例えば異なる視点から被写体を撮像した多視点映像を用いて、視聴空間内に3Dオブジェクトを生成し、そのオブジェクトが視聴空間内に存在しているかのように見える映像(Volumetric Videoとも言う)を生成する方法が提案されている(例えば、特許文献1)。
国際公開第2017/082076号
 上述した方法により生成された映像は、被写体の実際の映像を用いて生成された3D形状映像であるため、当該3D形状映像を観察する観察者は、被写体がより身近にいるような没入感や臨場感を味わうことができる。
 しかしながら、生成された3Dオブジェクトに対して、観察者の動作や状態に応じた動作や反応を行わせることはできなかった。すなわち、3Dオブジェクトは、観察者に対してインタラクティブな動作や反応を行うことはできなかった。
 そこで、本開示では、観察者である被写体を含む撮像画像に表示した3Dオブジェクトに、被写体に対してインタラクティブな動作や反応を行わせることが可能な情報処理装置、情報処理方法及びプログラムを提案する。
 上記の課題を解決するために、本開示に係る一形態の情報処理装置は、撮像画像の中に表示された3Dモデルを制御する制御部と、前記撮像画像に前記3Dモデルと同時に表示された被写体の特徴を検出する検出部と、を備え、前記制御部は、前記検出部が検出した前記被写体の特徴に応じて、前記3Dモデルの表示態様を変更する情報処理装置である。
撮像から3Dモデルの生成までの流れの概要を示す図である。 ARアプリケーションについて説明する図である。 第1の実施形態に係る携帯端末の動作状態の一例を示す第1の図である。 第1の実施形態に係る携帯端末の動作状態の一例を示す第2の図である。 第1の実施形態に係る携帯端末のハードウエア構成の一例を示すハードウエアブロック図である。 第1の実施形態に係る携帯端末の機能構成の一例を示す機能ブロック図である。 視線方向の計測方法について説明する図である。 3Dモデルの描画方向の変更方法について説明する図である。 第1の実施形態に係る携帯端末が行う処理の流れの一例を示すフローチャートである。 第2の実施形態に係る携帯端末の動作状態の一例を示す図である。 第2の実施形態に係る携帯端末が行う処理の流れの一例を示すフローチャートである。 第3の実施形態に係る携帯端末の機能構成の一例を示す機能ブロック図である。 第3の実施形態に係る携帯端末が行う処理の流れの一例を示すフローチャートである。 第4の実施形態に係る携帯端末の機能構成の一例を示す機能ブロック図である。 第4の実施形態に係る携帯端末が行う処理の流れの一例を示すフローチャートである。 第5の実施形態に係る携帯端末の機能構成の一例を示す機能ブロック図である。 第5の実施形態に係る携帯端末が行う処理の流れの一例を示すフローチャートである。 第6の実施形態に係る携帯端末の機能構成の一例を示す機能ブロック図である。 第6の実施形態に係る携帯端末が行う処理の流れの一例を示すフローチャートである。 第7の実施形態に係る携帯端末の機能構成の一例を示す機能ブロック図である。 第7の実施形態に係る携帯端末が行う処理の流れの一例を示すフローチャートである。 第8の実施形態の情報処理装置の概要を説明する図である。 第8の実施形態に係る情報処理装置の機能構成の一例を示す機能ブロック図である。 第8の実施形態に係る情報処理装置が行う処理の流れの一例を示すフローチャートである。 第9の実施形態の情報処理装置の概要を説明する図である。 第9の実施形態に係る情報処理装置の機能構成の一例を示す機能ブロック図である。 第9の実施形態に係る情報処理装置が行う処理の流れの一例を示すフローチャートである。
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
 また、以下に示す項目順序に従って本開示を説明する。
  1.第1の実施形態
   1-1.前提事項の説明-3Dモデル
   1-2.前提事項の説明-ARアプリケーション
   1-3.携帯端末の概要
   1-4.携帯端末のハードウエア構成
   1-5.携帯端末の機能構成
   1-6.視線方向の計測方法
   1-7.3Dモデルの描画方向の変更方法
   1-8.携帯端末が行う処理の流れ
   1-9.第1の実施形態の効果
  2.第2の実施形態
   2-1.第2の実施形態の概要
   2-2.携帯端末が行う処理の流れ
   2-3.第2の実施形態の効果
  3.第3の実施形態
   3-1.携帯端末の機能構成
   3-2.携帯端末が行う処理の流れ
   3-3.第3の実施形態の効果
  4.第4の実施形態
   4-1.携帯端末の機能構成
   4-2.携帯端末が行う処理の流れ
   4-3.第4の実施形態の効果
  5.第5の実施形態
   5-1.携帯端末の機能構成
   5-2.携帯端末が行う処理の流れ
   5-3.第5の実施形態の効果
  6.第6の実施形態
   6-1.携帯端末の機能構成
   6-2.携帯端末が行う処理の流れ
   6-3.第6の実施形態の効果
  7.第7の実施形態
   7-1.携帯端末の機能構成
   7-2.携帯端末が行う処理の流れ
   7-3.第7の実施形態の効果
  8.第8の実施形態
   8-1.情報処理装置の概要
   8-2.情報処理装置の機能構成
   8-3.情報処理装置が行う処理の流れ
   8-4.第8の実施形態の効果
  9.第9の実施形態
   9-1.情報処理装置の概要
   9-2.情報処理装置の機能構成
   9-3.情報処理装置が行う処理の流れ
   9-4.第9の実施形態の効果 
(1.第1の実施形態)
 本開示の実施形態を説明する前に、実施形態を実現するために必要な前提事項を説明する。
[1-1.前提事項の説明-3Dモデル]
 図1は、撮像から3Dモデルの生成までの流れの概要を示す図である。
 図1に示されるように、3Dモデルの生成には、複数の撮像装置1-1乃至1-3による被写体90(オブジェクト)の撮像と、3Dモデリングにより被写体90の3D情報を有する3Dモデル90Mを生成する処理とが含まれる。
 具体的には、複数の撮像装置1-1乃至1-3は、図1に示すように、現実世界に存在する被写体90を取り囲むように、被写体90の外側に、内側向きに配置される。図1は、撮像装置の台数が3台の例を示しており、撮像装置1-1乃至1-3が被写体90の周りに配置されている。図1の例においては、所定の動作を行う人物が被写体90とされている。
 異なる視点から、同期して撮像された3台の撮像装置1-1乃至1-3によってVolumetric撮影された複数の視点画像を用いて3Dモデリングが行われ、3台の撮像装置1-1乃至1-3の映像フレーム単位で被写体90の3Dモデルが生成される。
 3Dモデルは、被写体90の3D情報を有するモデルである。3Dモデル90Mは、被写体90のジオメトリ情報を、ポリゴンメッシュと呼ばれる、頂点(Vertex)と頂点との繋がりで表現したメッシュデータと、各ポリゴンメッシュに対応した、テクスチャ情報とデプス情報(距離情報)とを有する。なお、3Dモデル90Mが有する情報はこれらに限定されるものではなく、その他の情報を有してもよい。
 また、3Dモデル90Mには、メッシュ位置に応じて、当該メッシュの色や模様や質感を表すテクスチャを貼り付ける、いわゆるテクスチャマッピングが施される。テクスチャマッピングは、3Dモデル90Mのリアリティを向上させるために、視点位置に応じた(View Dependent)テクスチャを貼り付けるのが望ましい。しかし、計算量が増大するため、視線位置に依存しない(View Independent)テクスチャを貼り付けてもよい。
 生成された3Dモデル90Mには、当該3Dモデル90Mが有する属性(特徴)に応じた識別番号が付与される。例えば、3Dモデル90Mが人物である場合には、当該人物の顔の向き、視線の向き、表情等の各属性項目について、当該属性の属性値を示す識別番号が付与される。付与された識別番号は、所定の属性テーブルで一括管理される。そして、外部から所定の属性項目の属性値を与えた場合に、属性テーブルが参照されて、与えられた属性項目の属性値に対応する3Dモデル90Mが読み出される。なお、属性テーブルの具体的な書式は問わない。
 読み出された3Dモデルを含むコンテンツデータは、再生側の装置に伝送されて再生される。3Dモデルを含むコンテンツデータが再生されて、当該3Dモデルのレンダリングが行われることにより、視聴者の視聴デバイスに3D形状映像が表示される。
 図1の例では、スマートフォンやタブレット端末等の携帯端末80が視聴デバイスとして用いられる。携帯端末80の表示画面82には、撮像画像Iが表示される。撮像画像Iには、携帯端末80が備えるカメラ84が撮像した被写体92が表示される。さらに、撮像画像Iには、携帯端末80で動作する、後述するARアプリケーションの作用によって、3Dモデル90Mが重畳表示される。詳しくは後述する。
[1-2.前提事項の説明-ARアプリケーション]
 図2は、ARアプリケーションについて説明する図である。
 AR(Augmented Reality)アプリケーションは、携帯端末80上で動作して、何らかのトリガが発生したタイミングで、携帯端末80の表示画面82に、3Dモデル90Mを重畳表示するアプリケーションである。
 具体的には、図2に示すように、携帯端末80がモニタしている撮像画像Iの中から、所定の表示であるARマーカ85が検出された場合に、当該ARマーカ85に応じた位置に、3Dモデル90Mが表示される。すなわち、前記したトリガは、撮像画像Iの中から所定の表示を検出することである。なお、ARマーカ85は、文字列、記号列、図形、写真、バーコード、2次元コード等のいずれの形態であってもよい、また、これらの形態に限定されるものではない。さらに、ARマーカ85は、2D表示であっても3D表示であってもよい。
 また、携帯端末80が表示画面82でモニタしている撮像画像Iに対して空間解析等を行って、所定の物標(構造物や自然物)が検出されたことをトリガにしてもよい(マーカレス)。さらに、携帯端末80がGPS受信機で取得した現在位置が、所定の位置であるかをトリガにしてもよい。
[1-3.携帯端末の概要]
 図3を用いて、本実施形態に係る携帯端末80の概要を説明する。なお、携帯端末80は、本開示における情報処理装置の一例である。図3は、第1の実施形態に係る携帯端末の動作状態の一例を示す第1の図である。携帯端末80は、ユーザが操作する例えばスマートフォンである。携帯端末80は、画像や映像を表示する表示画面82と、表示画面82の近傍に、当該表示画面82と同じ方向を向いて設置されたカメラ84とを備える。
 携帯端末80には、前記したARアプリケーションが実装されている。当該ARアプリケーションが実行されると、携帯端末80は、カメラ18が撮像した撮像画像Iを、リアルタイムで表示画面82に表示する(いわゆるライブビュー)ともに、撮像画像Iの中にARマーカ85が映っているかを判定する。そして、撮像画像Iの中にARマーカ85が映っている場合に、携帯端末80は、ARマーカ85に応じた位置に、3Dモデル90Mを重畳表示する。
 さらに、携帯端末80は、撮像画像Iに映った被写体92の特徴を検出して、検出された特徴に応じて、3Dモデル90Mの表示態様を変更する。なお、携帯端末80が使用される代表的な場面として、ユーザ自らが被写体92となって、携帯端末80のカメラ84によって自撮り(セルフィ)する場面を想定している。
 本実施形態では、携帯端末80は、撮像画像Iに映った被写体92の視線方向Eを検出する。そして、携帯端末80は、被写体92の視線方向Eが、カメラ84の方向を向いていると判定した場合に、3Dモデル90Mの視線方向Fをカメラ84の方向に向ける。
 そして、携帯端末80は、被写体92の視線方向Eと3Dモデル90Mの視線方向Fとが、ともにカメラ84の方向を向いた場合に、セルフィ撮像を行う。
 これによって、携帯端末80は、3Dモデル90Mに対して、被写体92の動作や状態に応じた動作や反応を行わせることができる。このように、3Dモデル90Mに何らかの反応や状態遷移を行わせることを、インタラクション付3DモデルARと呼ぶ。
 図4は、第1の実施形態に係る携帯端末の動作状態の一例を示す第2の図である。携帯端末80は、自身の表示画面82に表示された撮像画像Iに映っている被写体92の視線方向Eを検出する。そして、携帯端末80は、検出された視線方向Eがカメラ84の方向に向いている場合に、カメラ84の方向に向かう視線方向Fを有する3Dモデル90Nを選択して、撮像画像Iに重畳して表示する。
 そして、携帯端末80は、被写体92と3Dモデル90Nがともにカメラ目線である状態でセルフィ撮影を行う。このように、被写体92の特徴である視線方向Eがカメラ84の方向を向いた場合に、3Dモデル90Nの表示態様を、当該3Dモデル90Nの視線方向Fがカメラ84の方向を向くように変更することができる。
[1-4.携帯端末のハードウエア構成]
 図5は、第1の実施形態に係る携帯端末のハードウエア構成の一例を示すハードウエアブロック図である。特に、図4は、本実施形態の携帯端末80が備えるハードウエア構成要素のうち、本実施形態に関連する要素のみを示したものである。すなわち、携帯端末80は、CPU(Central Processing Unit)32と、ROM(Read Only Memory)34と、RAM(Random Access Memory)36と、記憶部38と、通信インタフェース40と、が内部バス39で接続された構成を有する。
 CPU32は、記憶部38やROM34に格納されている制御プログラムP1をRAM36上に展開して実行することによって、携帯端末80全体の動作を制御する。すなわち、携帯端末80は、制御プログラムP1によって動作する一般的なコンピュータの構成を有する。なお、制御プログラムP1は、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供してもよい。また、携帯端末80は、一連の処理をハードウエアによって実行してもよい。なお、CPU32が実行する制御プログラムP1は、本開示で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
 記憶部38は、例えばフラッシュメモリにより構成されて、CPU32が実行する制御プログラムP1と、3DモデルM等の情報を記憶する。なお、3DモデルMは一般に大容量であるため、携帯端末80とインターネット等で接続された非図示の外部サーバから、必要に応じてダウンロードして、記憶部38に記憶するようにしてもよい。
 通信インタフェース40は、タッチパネルインタフェース42を介して、携帯端末80の表示画面82を構成する液晶ディスプレイ16に積層されたタッチパネル14の操作情報を取得する。また、通信インタフェース40は、ディスプレイインタフェース43を介して、液晶ディスプレイ16に画像情報や映像情報を表示する。また、通信インタフェース40は、カメラインタフェース44を介して、カメラ84の動作を制御する。
 さらに、通信インタフェース40は、無線通信又は有線通信によって、非図示の外部サーバ等との間で通信を行う。これによって、携帯端末80は、新たに作成された3DモデルM等の受信や、生成された撮像画像Iの外部への送信等を行う。
[1-5.携帯端末の機能構成]
 図6は、第1の実施形態に係る携帯端末の機能構成の一例を示す機能ブロック図である。携帯端末80のCPU32は、制御プログラムP1をRAM36上に展開して動作させることによって、図6に示す撮像部51と、ARマーカ検出部52と、被写体特徴検出部53と、表示制御部54とを機能部として実現する。
 撮像部51は、携帯端末80が備えるカメラ84によって、映像のモニタや、画像の撮像、映像の録画を行う。撮像部51は、さらに、映像モニタ部51aと、撮像・録画処理部51bとを備える。なお、カメラ84は、現実世界に存在する実際のカメラであって、本開示における第1の撮像部の一例である。
 映像モニタ部51aは、カメラ84が観測した映像を携帯端末D1の表示画面82にリアルタイムで表示する、いわゆるライブビューを行う。
 撮像・録画処理部51bは、カメラ84が撮像した撮像画像Iを記憶する。また、撮像・録画処理部51bは、セルフィ撮影を行う。
 ARマーカ検出部52は、映像モニタ部51aの処理によってモニタされた撮像画像Iの中から、ARマーカ85を検出する。具体的には、ARマーカ検出部52は、テンプレートマッチング等を行うことによって、予め決められた所定のARマーカ85の検出を行う。
 被写体特徴検出部53は、映像モニタ部51aの処理によってモニタされた撮像画像Iに3Dモデル90Mと同時に表示された被写体を検出する。そして、被写体特徴検出部53は、検出された被写体92の特徴を検出する。被写体特徴検出部53は、さらに、被写体検出部53aと、視線方向検出部53bとを備える。なお、被写体特徴検出部53は、本開示における検出部の一例である。
 被写体検出部53aは、撮像部51がモニタした撮像画像Iに3Dモデル90Mと同時に表示された被写体92を検出する。
 そして、視線方向検出部53bは、被写体検出部53aが検出した被写体92の視線方向Eを検出する。なお、視線方向Eは、本開示における被写体92の特徴の一例である。
 表示制御部54は、撮像画像Iの中に表示された3Dモデル90Mを制御する。より具体的には、表示制御部54は、被写体特徴検出部53が検出した被写体92の視線方向Eに応じて、3Dモデル90Mの表示態様を変更する。本実施形態では、表示制御部54は、被写体92の視線方向Eがカメラ84を向いている場合、すなわち被写体92がカメラ目線である場合に、3Dモデル90Mの視線方向Fを、カメラ84を向く向きに変更する。すなわち、視線方向Fは、本開示における表示態様の一例である。表示制御部54は、さらに、3Dモデルフレーム選択部54aと、3Dモデル描画方向制御部54bと、を備える。なお、表示制御部54は、本開示における制御部の一例である。
 3Dモデルフレーム選択部54aは、記憶部38に記憶された複数の3DモデルMの中から、ARマーカ85に応じて予め決められたデフフォルトの3Dモデル90Mを選択する。また、3Dモデルフレーム選択部54aは、記憶部38に記憶された複数の3DモデルMの中から、視線方向検出部53bが検出した、被写体92の視線方向Eに応じた視線方向Fを有する3Dモデル90Mを選択する。より具体的には、3Dモデルフレーム選択部54aは、被写体92がカメラ目線である場合に、3Dモデル90Mの視線方向Fがカメラ84を向く向きである3Dモデル90Mを選択する。
 3Dモデル描画方向制御部54bは、3Dモデルフレーム選択部54aが選択したデフフォルトの3Dモデル90Mを、携帯端末80の表示画面82に表示された撮像画像Iに重畳して表示する。また、3Dモデル描画方向制御部54bは、3Dモデル90Mを回転させることによって、当該3Dモデル90Mの向きを変更する。また、3Dモデル描画方向制御部54bは、3Dモデル90Mが置かれた座標系を回転させることによって、当該3Dモデル90Mの向きを変更して、3Dモデル90Nを生成する。さらに、3Dモデル描画方向制御部54bは、向きが変更された3Dモデル90Nを、携帯端末80の表示画面82に表示された撮像画像Iに重畳して表示する。
[1-6.視線方向の計測方法]
 図7は、視線方向の計測方法について説明する図である。被写体92の顔画像から視線方向Eを検出する方法には、様々なものが提案されており、本実施形態では、そのいずれの方法を利用してもよい。
 図7は、視線方向を計測する代表的な3つの方法を説明するものである。図7Aは、被写体92の顔をカメラ84で撮像して、撮像された顔画像の中から眼球の領域を検出して、検出された眼球の形状特徴に基づいて、視線方向Eを検出する方法である。
 図7Aには、カメラ84で撮像した撮像画像Iの中から検出した被写体92の左眼の拡大図を示す。視線方向に応じて、瞳孔Pの中心と目頭Qとの距離dpが変化する。具体的には、図7Aに示すように、視線が左を向く(目尻S側を向く)と、距離dpが大きくなる。一方、視線が右を向く(目頭Q側を向く)と、距離dpが小さくなる。したがって、距離dpを計測すると、おおよその視線方向を算出することができる。
 図7Bは、赤外LED86を照射した状態で、被写体92の顔をカメラ84で撮像する例である。なお、カメラ84は、赤外LED86が放射する波長の光に対して感度を有しているものとする。図7Bに示す視線計測方法は、撮像された顔画像の中から眼球の領域を検出して、検出された眼球の角膜における赤外LED86の反射像(角膜反射像)の位置に基づいて、視線方向Eを検出するものである。なお、赤外LED86が放射する光の波長は、目に見えない波長であるため、被写体92の邪魔にならずに視線方向を検出することができる。
 図7Bには、カメラ84で撮像した撮像画像Iの中から検出した被写体92の左眼の拡大図を示す。視線方向に応じて、瞳孔Pの中心と角膜反射像Rとの位置関係が変化する。具体的には、図7Bに示すように、視線が左を向く(目尻S側を向く)と、瞳孔Pは角膜反射像Rよりも目尻S側に位置する。一方、視線が右を向く(目頭Q側を向く)と、瞳孔Pは角膜反射像Rよりも目頭Q側に位置する。したがって、瞳孔Pと角膜反射像Rとの位置関係を計測すると、おおよその視線方向を検出することができる。
 図7Cは、被写体92の顔をカメラ84で撮像して、撮像された顔の向きに基づいて、視線方向を検出するものである。人間は、一般に、視線方向を素早く動かす場合や大きく動かす場合には、眼球そのものを動かさずに頭部を動かすことによって視線方向を変更する。したがって、顔の向きと視線方向とはほぼ一致すると見做せる場合が多い。当該近似が成り立つ場合は、図7Cに示す方法によって視線方向を検出することができる。
 図7Cの左部に示すように、被写体92が正面を向いている場合には、被写体92の顔面を縦方向に貫く中心線C1と、右眼を通る、中心線C1と平行な直線C2との距離a1と、中心線C1と、左眼を通る、中心線C1と平行な直線C3との距離a2とが略等しくなる。
 また、図7Cの中央部に示すように、被写体92が右方向を向いている場合には、前記した距離a1が、距離a2よりも大きくなる。さらに、図7Cの右部に示すように、被写体92が左方向を向いている場合には、前記した距離a1が、距離a2よりも小さくなる。
 このように、距離a1と距離a2との大小関係を比較することによって、おおよその視線方向を検出することができる。
 なお、眼球の形状や動きには個人差がある。そのため、最近では、被写体92の眼球を安定して検出するために、機械学習等の手法を用いて作成した、ロバスト性の高い眼球モデルを利用する方法が用いられている。
[1-7.3Dモデルの描画方向の変更方法]
 図8は、3Dモデルの描画方向の変更方法について説明する図である。3Dモデル90Mは方向性を有するため、3Dモデル90Mを表示画面82に描画する際に、3Dモデル90Mをデフォルトの方向、例えばZ軸の正方向に向けて描画する。そして、本実施形態では、被写体92の特徴である視線方向Eに応じて、3Dモデル90Mの向きを変更して、3Dモデル90Nとして描画する。そのため、本実施形態では、以下に説明する2種類の描画方向の制御方法を併用する。
 第1の方法は、図8Aに示すように、3Dモデル90M自身を、目的とする方向に回転して3Dモデル90Nとする方法である。
 第2の方法は、図8Bに示すように、3Dモデル90Mが置かれた座標系XYZを、目的とする方向に回転して、回転した座標系に3Dモデル90Nを描画する方法である。
 なお、本実施形態においては、いずれの方法を用いてもよいが、3Dモデル90Mが置かれた座標系XYZを回転する方法は、計算量が少なくて済むが、3Dモデル90Mが視点位置に依存しないテクスチャを有している場合には、3Dモデル90Mのリアリティが低下する可能性がある。一方、3Dモデル90M自身を回転する方法によると、計算量は多くなるが、3Dモデル90Mが視線位置に応じたテクスチャを有している場合には、3Dモデル90Mのリアリティは維持される。そのため、いずれの方法を適用するかを、充分に考慮した上で、描画方向を変更するのが望ましい。
 例えば、3Dモデル90Mの回転量が小さい場合は、回転に伴う3Dモデル90Mのリアリティの低下が小さいと考えられる、座標系を回転させる方法を適用するのが望ましい。一方、3Dモデル90Mの回転量が大きい場合は、3Dモデル90Mのリアリティを維持するために、3Dモデル90M自身を回転させる方法を適用するのが望ましい。
[1-8.携帯端末が行う処理の流れ]
 図9は、第1の実施形態に係る携帯端末が行う処理の流れの一例を示すフローチャートである。以下、処理の流れを、順を追って説明する。
 映像モニタ部51aは、カメラ84を起動する(ステップS10)。以降、カメラ84は、撮像画像Iをリアルタイムでモニタするライブビュー状態となる。
 ARマーカ検出部52は、撮像画像Iの中から、ARマーカ85を検出する(ステップS11)。
 続いて、ARマーカ検出部52は、ARマーカ85が検出されたかを判定する(ステップS12)。ARマーカ85が検出されたと判定される(ステップS12:Yes)と、ステップS13に進む。一方、ARマーカ85が検出されたと判定されない(ステップS12:No)と、ステップS11に戻る。
 ステップS12においてYesと判定されると、3Dモデルフレーム選択部54aは、記憶部38に記憶された3DモデルMの中から、ARマーカ85に応じて予め決められたデフフォルトの3Dモデル90Mを選択する。そして、3Dモデル描画方向制御部54bは、選択された3Dモデル90Mを、撮像画像IのARマーカ85に応じた位置に重畳して表示する(ステップS13)。
 次に、被写体検出部53aは、撮像画像Iの中から、被写体92を検出する(ステップS14)。
 被写体検出部53aは、被写体92が検出されたかを判定する(ステップS15)。被写体92が検出されたと判定される(ステップS15:Yes)と、ステップS16に進む。一方、被写体92が検出されたと判定されない(ステップS15:No)と、ステップS14に戻る。
 ステップS15においてYesと判定されると、視線方向検出部53bは、被写体92の視線方向を検出する(ステップS16)。
 続いて、視線方向検出部53bは、被写体92がカメラ目線であるか、すなわち、被写体92の視線方向Eが、カメラ84の方向を向いているかを判定する(ステップS17)。被写体92の視線方向Eが、カメラ84の方向を向いていると判定される(ステップS17:Yes)と、ステップS19に進む。一方、被写体92の視線方向Eが、カメラ84の方向を向いていると判定されない(ステップS17:No)と、ステップS18に進む。
 ステップS17においてNoと判定されると、3Dモデルフレーム選択部54aは、記憶部38に記憶された3DモデルMの中から、3Dモデル90Mの動画フレームを選択する。そして、3Dモデル描画方向制御部54bは、3Dモデルフレーム選択部54aが選択した動画フレームをループ再生する(ステップS18)。その後、ステップS16に戻る。
 一方、ステップS17においてYesと判定されると、3Dモデル描画方向制御部54bは、3Dモデル90Mの向きをカメラ84の方向に向ける(ステップS19)。なお、3Dモデル描画方向制御部54bは、3Dモデル90Mを描画する座標系の方向を回転させることによって3Dモデル90Mの向きを設定してもよいし、3Dモデル90M自身を回転させることによって向きを設定してもよい。
 次に、3Dモデル描画方向制御部54bは、3Dモデルフレーム選択部54aが選択した、目が開いて、視線方向Fがカメラ84の方向を向いている3Dモデル90Nを、ステップS19で設定した描画位置に描画する(ステップS20)。
 そして、撮像・録画処理部51bは、被写体92と3Dモデル90Nとがともにカメラ目線の状態でセルフィ撮影を行う(ステップS21)。
[1-9.第1の実施形態の効果]
 以上説明したように、第1の実施形態の携帯端末80によると、被写体特徴検出部53(検出部)が、撮像画像Iに3Dモデル90Mと同時に表示された被写体92の視線方向E(特徴)を検出する。そして、表示制御部54(制御部)が、被写体特徴検出部53が検出した被写体92の視線方向Eに応じて、3Dモデル90Mがカメラ84を向くように、3Dモデル90Mの視線方向F(表示態様)を変更する。
 これにより、被写体92を含む撮像画像Iに表示した3Dモデル90Mに対して、被写体92と一緒にカメラ目線になるという、インタラクティブな動作や反応を行わせることができる。
 また、第1の実施形態の携帯端末80によると、被写体特徴検出部53(検出部)が、被写体92の特徴である視線方向Eを検出して、表示制御部54(制御部)が、検出された被写体92の視線方向Eに応じて、3Dモデル90Mの視線方向F(顔の向き)を変更する。
 これにより、被写体92の視線方向Eに応じて、3Dモデル90Mに対してインタラクティブな動作や反応を行わせることができる。
 また、第1の実施形態の携帯端末80によると、表示制御部54(制御部)は、被写体92の視線方向Eに応じて、3Dモデル90Mを回転させることによって、当該3Dモデル90Mの向きを変更する。
 これにより、3Dモデル90Mを回転させた場合であっても、視点位置に応じたテクスチャを有する3Dモデル90Mのリアリティを維持することができる。
 また、第1の実施形態の携帯端末80によると、表示制御部54(制御部)は、被写体92の視線方向Eに応じて、3Dモデル90Mが置かれた座標系を回転させることによって、当該3Dモデル90Mの向きを変更する。
 これにより、3Dモデル90Mを回転させる処理を少ない計算量で高速に実行することができる。
 また、第1の実施形態の携帯端末80によると、被写体特徴検出部53(検出部)が、被写体92の視線方向Eが、撮像画像Iが撮像された方向を向いていると検出した場合に、表示制御部54(制御部)は、3Dモデル90Mの向きを、撮像画像Iが撮像された方向に変更する。
 これにより、3Dモデル90Mに対して、被写体92に応じたインタラクティブな動作や反応を行わせることができる。
 また、第1の実施形態の携帯端末80において、撮像部51は、表示制御部54(制御部)が表示態様を変更した後の3Dモデル90Mと被写体92とを撮像する。
 これにより、例えば、カメラ84によって、被写体92と3Dモデル90Mとでセルフィ撮影を行うことができる。
 また、第1の実施形態の携帯端末80において、撮像部51は、現実世界に存在するカメラ84、または仮想世界に存在する仮想カメラ84V(第8の実施形態参照)である。
 これにより、カメラ84によって、被写体92と3Dモデル90Mとでセルフィ撮影を行うことができる。また、詳しくは第8の実施形態で説明するが、仮想カメラ84Vによって、被写体92の分身であるアバター92aと3Dモデル90Mとでセルフィ撮影を行うことができる。
 また、第1の実施形態の携帯端末80によると、3Dモデル90Mは、現実世界に存在する被写体90(オブジェクト)を、異なる視点から撮像した複数の視点画像を用いて生成された、被写体90の3D情報を有するモデルである。
 これにより、複数の異なる方向から、同じ品質で観測可能な3Dモデル90Mを生成することができる。したがって、撮像画像Iに重畳して表示した3Dモデル90Mを、表示品質を維持して、自由に向きを変更することができる。
 また、第1の実施形態の携帯端末80によると、表示制御部54(制御部)は、撮像画像Iの中にARマーカ85(所定の表示)が表示された際に、撮像画像Iに重畳して3Dモデル90Mを表示する。
 これにより、3Dモデル90Mの表示を、複雑な操作や手続きを行うことなく、容易かつ速やかに行うことができる。
(2.第2の実施形態)
 本開示の第2の実施形態は、被写体92と3Dモデル90Mとが視線を合わせて見つめ合うことができる機能を備えた携帯端末80(情報処理装置)の例である。
 本実施形態の携帯端末80のハードウエア構成及び機能構成は、第1の実施形態で説明した携帯端末80と同じであるため、説明は省略する。ただし、本実施形態独自の機能を発揮させるために、記憶部38が備える制御プログラムは、制御プログラムP1(図5参照)とは異なるプログラムが使用される。
[2-1.第2の実施形態の概要]
 図10は、第2の実施形態に係る携帯端末の動作状態の一例を示す図である。携帯端末80は、自身の表示画面82に表示された撮像画像Iに映っている被写体92の視線方向Eを検出する。そして、携帯端末80は、検出された視線方向EがARマーカ85の近傍に向いている場合に、被写体92の方向に向かう視線方向Fを有する3Dモデル90Nを選択して、撮像画像Iに重畳して表示する。
 そして、携帯端末80は、被写体92と3Dモデル90Nが視線を合わせた状態でセルフィ撮影を行う。このように、被写体92の特徴である視線方向EがARマーカ85の近傍を向いた場合に、3Dモデル90Nの表示態様を、当該3Dモデル90Nの視線方向Fが被写体92の方向を向くように変更することができる。
[2-2.携帯端末が行う処理の流れ]
 図11は、第1の実施形態に係る携帯端末が行う処理の流れの一例を示すフローチャートである。以下、処理の流れを、順を追って説明する。
 図11のステップS30からステップS36までの処理の流れは、第1の実施形態で説明した、図9のステップS10からステップS16までの処理の流れと同じであるため、説明を省略する。
 ステップS36において、視線方向検出部53bが、被写体92の視線方向を検出した後で、視線方向検出部53bは、被写体92がARマーカ85の方向を向いているかを判定する(ステップS37)。被写体92の視線方向が、ARマーカ85の方向を向いていると判定される(ステップS37:Yes)と、ステップS39に進む。一方、被写体92の視線方向が、ARマーカ85の方向を向いていると判定されない(ステップS37:No)と、ステップS38に進む。
 ステップS37においてNoと判定されると、3Dモデルフレーム選択部54aは、記憶部38に記憶された3DモデルMの中から、3Dモデル90Mの動画フレームを選択する。そして、3Dモデル描画方向制御部54bは、3Dモデルフレーム選択部54aが選択した動画フレームをループ再生する(ステップS38)。その後、ステップS36に戻る。
 一方、ステップS37においてYesと判定されると、3Dモデル描画方向制御部54bは、3Dモデル90Mの描画位置を被写体92の顔方向に向ける(ステップS39)。
 次に、3Dモデル描画方向制御部54bは、3Dモデルフレーム選択部54aが選択した、目が開いて視線方向が被写体92の顔方向を向いている3Dモデル90Nを、ステップS39で設定した描画位置に描画する(ステップS40)。
 そして、撮像・録画処理部51bは、被写体92と3Dモデル90Nとが視線を合わせた状態でセルフィ撮影を行う(ステップS41)。
[2-3.第2の実施形態の効果]
 以上説明したように、第2の実施形態の携帯端末80によると、被写体特徴検出部53(検出部)が、被写体92の視線方向Eが、3Dモデル90Mの方向を向いていると検出した場合に、表示制御部54(制御部)は、被写体92を向く向きに変更された3Dモデル90Nを描画する。
 これにより、被写体92と3Dモデル90Nとが視線を合わせた状態でセルフィ撮影を行うことができる。
(3.第3の実施形態)
 本開示の第3の実施形態は、被写体92が笑顔でカメラ84を見ている場合に、3Dモデル90Mを、笑顔の状態でカメラ84の方向に向けてセルフィ撮影を行う機能を備えた携帯端末80(情報処理装置)の例である。すなわち、本実施形態の携帯端末80は、被写体92の特徴である、視線方向と表情とに応じて、3Dモデル90Mの表示態様(視線方向と表情)を変更するものである。
 本実施形態の携帯端末80のハードウエア構成は、第1の実施形態で説明した携帯端末80と同じであるため、説明は省略する。なお、本実施形態独自の機能を発揮させるために、記憶部38が備える制御プログラムは、制御プログラムP1(図5参照)とは異なるプログラムが使用される。
[3-1.携帯端末の機能構成]
 図12は、第3の実施形態に係る携帯端末の機能構成の一例を示す機能ブロック図である。第3の実施形態の携帯端末80は、第1の実施形態の携帯端末80(図6参照)に、一部の機能を付加した機能構成を有する。以下、第1の実施形態の携帯端末80との機能構成の違いのみを説明する。
 すなわち、被写体特徴検出部53は、被写体検出部53aと視線方向検出部53bに加えて、笑顔検出部53cを備える。
 笑顔検出部53cは、撮像画像Iに映った被写体92が笑顔であるかを検出する。笑顔検出部53cは、被写体検出部53aが検出した被写体92の顔面領域を抽出する。そして、笑顔検出部53cは、抽出された顔面領域を、図12に非図示の表情データベースに格納された、多数の表情サンプルのうち、笑顔を示すサンプルと照合する。笑顔検出部53cは、抽出された顔面領域が、笑顔を示すサンプルと高い照合度合いを示す場合に、被写体92が笑顔であると判定する。
 なお、笑顔検出部53cは、その他の画像処理アルゴリズムを利用して笑顔であるかを判定してもよい。
[3-2.携帯端末が行う処理の流れ]
 図13は、第3の実施形態に係る携帯端末が行う処理の流れの一例を示すフローチャートである。以下、処理の流れを、順を追って説明する。
 図13のステップS50からステップS55までの処理の流れは、第1の実施形態で説明した、図9のステップS10からステップS15までの処理の流れと同じであるため、説明を省略する。
 ステップS55において、被写体92が検出されたと判定される(ステップS55:Yes)と、視線方向検出部53bは、被写体92の視線方向Eを検出する。そして、笑顔検出部53cは、被写体92が笑顔であるかを判定する(ステップS56)。
 続いて、ステップS56において被写体92が笑顔であると判定された場合に、視線方向検出部53bは、被写体92の視線方向Eがカメラ84の方向を向いているかを判定する(ステップS57)。被写体92が笑顔であって、視線方向Eがカメラ84の方向を向いていると判定される(ステップS57:Yes)と、ステップS59に進む。一方、被写体92が笑顔であって、視線方向Eがカメラ84の方向を向いていると判定されない(ステップS57:No)と、ステップS58に進む。
 ステップS57においてNoと判定されると、3Dモデルフレーム選択部54aは、記憶部38に記憶された3DモデルMの中から、3Dモデル90Mの動画フレームを選択する。そして、3Dモデル描画方向制御部54bは、3Dモデルフレーム選択部54aが選択した動画フレームをループ再生する(ステップS58)。その後、ステップS56に戻る。
 一方、ステップS57においてYesと判定されると、3Dモデル描画方向制御部54bは、3Dモデル90Mの描画位置をカメラ84の方向に向ける(ステップS59)。
 次に、3Dモデル描画方向制御部54bは、3Dモデルフレーム選択部54aが選択した、目が開いて視線方向がカメラ84の方向を向いており、尚且つ笑顔の3Dモデル90Nを、ステップS59で設定した描画位置に描画する(ステップS60)。
 そして、撮像・録画処理部51bは、被写体92と3Dモデル90Nとがともにカメラ目線の状態でセルフィ撮影を行う(ステップS61)。
[3-3.第3の実施形態の効果]
 以上説明したように、第3の実施形態の携帯端末80によると、被写体特徴検出部53(検出部)は、被写体92の特徴である笑顔(表情)を検出する。そして、表示制御部54(制御部)は、被写体92の表情が笑顔であると判定された場合に、3Dモデル90Mの向きを、カメラ84の方向、すなわち撮像画像Iが撮像された方向に変更する。
 これにより、被写体92と3Dモデル90Nとがともに笑顔で、尚且つカメラ目線の状態でセルフィ撮影を行うことができる。
(4.第4の実施形態)
 本開示の第4の実施形態は、被写体92の撮影環境に応じて、3Dモデル90Mの明るさや肌の色を自動補正してセルフィ撮影を行う機能を備えた携帯端末80(情報処理装置)の例である。すなわち、本実施形態の携帯端末80は、被写体92の特徴である、明るさ(例えば肌の明るさ)に応じて、3Dモデル90Mの表示態様(明るさ)を変更するものである。
 本実施形態の携帯端末80のハードウエア構成は、第1の実施形態で説明した携帯端末80と同じであるため、説明は省略する。なお、本実施形態独自の機能を発揮させるために、記憶部38が備える制御プログラムは、制御プログラムP1(図5参照)とは異なるプログラムが使用される。
[4-1.携帯端末の機能構成]
 図14は、第4の実施形態に係る携帯端末の機能構成の一例を示す機能ブロック図である。第4の実施形態の携帯端末80は、第1の実施形態の携帯端末80(図6参照)と一部の機能を入れ替えた機能構成を有する。以下、第1の実施形態の携帯端末80との機能構成の違いのみを説明する。
 被写体特徴検出部53は、視線方向検出部53bの代わりに、撮影環境評価部53dを備える。
 撮影環境評価部53dは、撮像画像Iの撮影環境の明るさと、撮像画像Iに映った被写体92の明るさとを測定する。撮影環境評価部53dは、例えば、撮像画像Iを被写体92の領域と、被写体92以外の領域とに領域分割して、各領域の平均的な明るさを求める。また、撮影環境評価部53dは、被写体92の肌の色合いを測定してもよい。
 また、表示制御部54は、3Dモデル描画方向制御部54bの代わりに、3Dモデル明るさ制御部54cを備える。
 3Dモデル明るさ制御部54cは、3Dモデル90Mのテクスチャの明るさを補正する。3Dモデル明るさ制御部54cは、例えば、撮影環境評価部53dが測定した撮影環境の明るさと、3Dモデル90Mを生成した際の環境の明るさとを比較する。そして、3Dモデル90Mを生成した際の環境の明るさが、撮影環境評価部53dが測定した撮影環境の明るさよりも明るい場合は、3Dモデル90Mのテクスチャを暗く補正する。一方、3Dモデル90Mを生成した際の環境の明るさが、撮影環境評価部53dが測定した撮影環境の明るさよりも暗い場合は、3Dモデル90Mのテクスチャを明るく補正する。
 また、3Dモデル明るさ制御部54cは、撮像画像Iに映った被写体92の肌の明るさや肌の色合いに基づいて、3Dモデル90Mの肌の明るさや肌の色合いが、被写体92の肌の明るさや肌の色合いと同程度になるように、3Dモデル90Mのテクスチャを補正してもよい。
[4-2.携帯端末が行う処理の流れ]
 図15は、第4の実施形態に係る携帯端末が行う処理の流れの一例を示すフローチャートである。以下、処理の流れを、順を追って説明する。
 図15のステップS70からステップS73までの処理の流れは、第1の実施形態で説明した、図9のステップS10からステップS13までの処理の流れと同じであるため、説明を省略する。
 ステップS73に続いて、被写体検出部53aは、撮像画像Iの中から、被写体92を検出する。そして、撮影環境評価部53dは、撮像画像Iの撮影環境の明るさと、撮像画像Iに映った被写体92の明るさとを検出する(ステップS74)。
 次に、撮影環境評価部53dは、撮像画像Iの中に被写体92が映っていて、尚且つ、撮影環境の明るさが、3Dモデル90Mの撮影環境よりも明るいかを判定する(ステップS75)。条件を満足すると判定される(ステップS75:Yes)と、ステップS76に進む。一方、条件を満足すると判定されない(ステップS75:No)と、ステップS77に進む。
 ステップS75においてYesと判定されると、3Dモデル明るさ制御部54cは、3Dモデル90Mのテクスチャを明るく補正する(ステップS76)。その後、ステップS78に進む。
 一方、ステップS75においてNoと判定されると、3Dモデル明るさ制御部54cは、3Dモデル90Mのテクスチャを暗く補正する(ステップS77)。
 ステップS76又はステップS77に引き続き、3Dモデル描画方向制御部54bは、3Dモデルフレーム選択部54aが選択した3Dモデル90Mに対して、ステップS76又はステップS77に対応するテクスチャの明るさ補正がなされた3Dモデル90Nを、撮像画像Iに描画する(ステップS78)。
 そして、撮像・録画処理部51bは、被写体92と3Dモデル90Nとがともに映った状態でセルフィ撮影を行う(ステップS79)。
[4-3.第4の実施形態の効果]
 以上説明したように、第4の実施形態の携帯端末80によると、被写体特徴検出部53(検出部)は、被写体92の特徴である明るさを検出する。そして、表示制御部54(制御部)は、被写体92の明るさに応じて、3Dモデル90Mの明るさを変更する。
 これにより、被写体92の顔のトーンに合わせて、テクスチャの明るさが補正された3Dモデル90Nとセルフィ撮影を行うことができる。
(5.第5の実施形態)
 本開示の第5の実施形態は、被写体92の位置(カメラ84からの距離)に応じて、3Dモデル90Mの描画位置(カメラ84からの距離)を補正して、被写体92と3Dモデル90Mの両方にピントが合った状態でセルフィ撮影を行う機能を備えた携帯端末80(情報処理装置)の例である。すなわち、本実施形態の携帯端末80は、被写体92の特徴である、位置(カメラ84からの距離)に応じて、3Dモデル90Mの表示態様(描画位置)を変更するものである。
 本実施形態の携帯端末80のハードウエア構成は、第1の実施形態で説明した携帯端末80と同じであるため、説明は省略する。なお、本実施形態独自の機能を発揮させるために、記憶部38が備える制御プログラムは、制御プログラムP1(図5参照)とは異なるプログラムが使用される。
[5-1.携帯端末の機能構成]
 図16は、第5の実施形態に係る携帯端末の機能構成の一例を示す機能ブロック図である。第5の実施形態の携帯端末80は、第1の実施形態の携帯端末80(図6参照)と一部の機能を入れ替えた機能構成を有する。以下、第1の実施形態の携帯端末80との機能構成の違いのみを説明する。
 被写体特徴検出部53は、視線方向検出部53bの代わりに、被写界深度算出部53eを備える。
 被写界深度算出部53eは、カメラ84から、撮像画像Iに映った被写体92及びARマーカ85までの距離を算出する。また、被写界深度算出部53eは、撮像画像Iの被写界深度を算出する。被写界深度算出部53eは、カメラ84の絞り(F値)と、レンズの焦点距離と、被写体92までの距離と、から被写界深度を算出する。
 また、表示制御部54は、3Dモデル描画方向制御部54bの代わりに、3Dモデル描画距離制御部54dを備える。
 3Dモデル描画距離制御部54dは、3Dモデル90Mの描画位置(カメラ84から3Dモデル90Mを描画する位置までの距離)を制御する。より具体的には、3Dモデル描画距離制御部54dは、3Dモデル90Mが、被写体92と同じ被写界深度内に収まるように、3Dモデル90Mの描画位置を制御する。
[5-2.携帯端末が行う処理の流れ]
 図17は、第5の実施形態に係る携帯端末が行う処理の流れの一例を示すフローチャートである。以下、処理の流れを、順を追って説明する。
 図17のステップS80からステップS83までの処理の流れは、第1の実施形態で説明した、図9のステップS10からステップS13までの処理の流れと同じであるため、説明を省略する。
 ステップS83に続いて、被写界深度算出部53eは、カメラ84と撮像画像Iに映ったARマーカ85との距離を算出する(ステップS84)。
 次に、被写体検出部53aは、撮像画像Iの中から、被写体92を検出する(ステップS85)。このとき、被写界深度算出部53eは、カメラ84と被写体92との距離を算出する。
 被写界深度算出部53eは、撮像画像Iの中に被写体92が映っており、尚且つ、ARマーカ85と被写体92とが同じ被写界深度内にあるかを判定する(ステップS86)。条件を満足すると判定される(ステップS86:Yes)と、ステップS88に進む。一方、条件を満足すると判定されない(ステップS86:No)と、ステップS87に進む。なお、ARマーカ85と被写体92とが同じ被写界深度内にあるかは、ステップS84とステップS85の結果に基づいて算出される、ARマーカ85と被写体92との距離が、被写体92の撮像条件から算出される被写界深度内に収まっているかによって判定すればよい。
 ステップS86でNoと判定される、すなわち、ARマーカ85と被写体92とが同じ被写界深度内に収まっていない場合は、3Dモデル描画距離制御部54dは、撮像画像Iにおける3Dモデル90Mの描画位置を、被写体92と同じ被写界深度に収まる距離の位置に描画する(ステップS87)。
 次に、3Dモデル描画方向制御部54bは、3Dモデルフレーム選択部54aが選択した3Dモデル90Mを、ステップS87で設定した描画位置に描画する(ステップS88)。
 そして、撮像・録画処理部51bは、被写体92と3Dモデル90Mとが同じ被写界深度に収まった状態でセルフィ撮影を行う(ステップS89)。
[5-3.第5の実施形態の効果]
 以上説明したように、第5の実施形態の携帯端末80によると、被写体特徴検出部53(検出部)は、被写体92の特徴である、カメラ84から被写体92までの距離を検出する。そして、表示制御部54(制御部)は、3Dモデル90Mまでの距離を、当該3Dモデル90Mと被写体92とが撮像画像Iの被写界深度に入るように変更する。
 これにより、被写体92と3Dモデル90Mとの両方にピントが合った状態でセルフィ撮影を行うことができる。
(6.第6の実施形態)
 本開示の第6の実施形態は、撮像画像Iにおける被写体92の位置に応じて、3Dモデル90Mの描画位置を補正して、被写体92と3Dモデル90Mとが重複しない状態でセルフィ撮影を行う機能を備えた携帯端末80(情報処理装置)の例である。すなわち、本実施形態の携帯端末80は、被写体92の特徴である位置に応じて、3Dモデル90Mの表示態様(描画位置)を変更するものである。
 本実施形態の携帯端末80のハードウエア構成は、第1の実施形態で説明した携帯端末80と同じであるため、説明は省略する。なお、本実施形態独自の機能を発揮させるために、記憶部38が備える制御プログラムは、制御プログラムP1(図5参照)とは異なるプログラムが使用される。
[6-1.携帯端末の機能構成]
 図18は、第6の実施形態に係る携帯端末の機能構成の一例を示す機能ブロック図である。第6の実施形態の携帯端末80は、第1の実施形態の携帯端末80(図6参照)と一部の機能を入れ替えた機能構成を有する。以下、第1の実施形態の携帯端末80との機能構成の違いのみを説明する。
 被写体特徴検出部53は、視線方向検出部53bの代わりに、重複判定部53fを備える。
 重複判定部53fは、撮像画像Iにおいて、被写体92とARマーカ85とが重複していないかを判定する。重複判定部53fは、具体的には、撮像画像Iにおける被写体92の位置を検出する。そして、重複判定部53fは、検出された被写体92の位置と、ARマーカ検出部52が検出したARマーカ85の位置とを比較する。重複判定部53fは、被写体92とARマーカ85とが重複している場合には、撮像画像IのARマーカ85に応じた位置に3Dモデル90Mを描画すると、被写体92と3Dモデル90Mとが重複すると予測する。
 また、表示制御部54は、3Dモデル描画方向制御部54bの代わりに、3Dモデル描画位置制御部54eを備える。
 3Dモデル描画位置制御部54eは、重複判定部53fが、被写体92と3Dモデル90Mとが重複すると予測した場合には、3Dモデル90Mを、被写体92と重複しない位置に描画する。
[6-2.携帯端末が行う処理の流れ]
 図19は、第6の実施形態に係る携帯端末が行う処理の流れの一例を示すフローチャートである。以下、処理の流れを、順を追って説明する。
 図19のステップS90からステップS92までの処理の流れは、第1の実施形態で説明した、図9のステップS10からステップS12までの処理の流れと同じであるため、説明を省略する。
 ステップS92において、ARマーカ85が検出されたと判定される(ステップS92:Yes)と、被写体検出部53aは、撮像画像Iの中から、被写体92を検出する(ステップS93)。
 次に、重複判定部53fは、ARマーカ85と被写体92との位置関係を検出する(ステップS94)。
 さらに、重複判定部53fは、撮像画像Iの中に被写体92が映っており、ARマーカ85と被写体92とが重複していないかを判定する(ステップS95)。条件を満足すると判定される(ステップS95:Yes)と、ステップS97に進む。一方、条件を満足すると判定されない(ステップS95:No)と、重複判定部53fは、ARマーカ85に応じた位置に3Dモデル90Mを描画すると、被写体92と3Dモデル90Mとが重複すると予測して、ステップS96の処理を行う。
 ステップS95においてNoと判定されると、3Dモデル描画位置制御部54eは、本来ARマーカ85に応じた位置に描画する3Dモデル90Mの描画位置を、被写体92と重複しない位置(例えば、被写体92から遠ざかる位置)に変更する(ステップS96)。
 そして、3Dモデル描画位置制御部54eは、ステップS96で変更した位置に、選択された3Dモデル90Mを描画する。また、3Dモデル描画位置制御部54eは、ステップS95でYesと判定された場合には、ARマーカ85に応じた位置に、選択された3Dモデル90Mを描画する(ステップS97)。
 そして、撮像・録画処理部51bは、被写体92と3Dモデル90Mとが重複しない状態でセルフィ撮影を行う(ステップS98)。
[6-3.第6の実施形態の効果]
 以上説明したように、第6の実施形態の携帯端末80によると、被写体特徴検出部53(検出部)は、被写体92の特徴である、撮像画像Iにおける被写体92の位置を検出する。そして、表示制御部54(制御部)は、被写体92の位置と3Dモデル90Mの位置とが重複すると予測される場合に、3Dモデル90Mの表示位置を、被写体92と重複しない位置に変更する。
 これにより、被写体92と3Dモデル90Mとが重複しない状態でセルフィ撮影を行うことができる。
(7.第7の実施形態)
 本開示の第7の実施形態は、撮像画像Iにおける被写体92のサイズに応じて、3Dモデル90Mのサイズやスケールを補正して、被写体92と3Dモデル90Mとが同じ背丈に見える状態、或いは被写体92が3Dモデル90Mよりも小顔に見える状態でセルフィ撮影を行う機能を備えた携帯端末80(情報処理装置)の例である。すなわち、本実施形態の携帯端末80は、被写体92の特徴であるサイズに応じて、3Dモデル90Mの表示態様(サイズやスケール)を変更するものである。
 本実施形態の携帯端末80のハードウエア構成は、第1の実施形態で説明した携帯端末80と同じであるため、説明は省略する。なお、本実施形態独自の機能を発揮させるために、記憶部38が備える制御プログラムは、制御プログラムP1(図5参照)とは異なるプログラムが使用される。
[7-1.携帯端末の機能構成]
 図20は、第6の実施形態に係る携帯端末の機能構成の一例を示す機能ブロック図である。第7の実施形態の携帯端末80は、第1の実施形態の携帯端末80(図6参照)と一部の機能を入れ替えた機能構成を有する。以下、第1の実施形態の携帯端末80との機能構成の違いのみを説明する。
 被写体特徴検出部53は、視線方向検出部53bの代わりに、位置関係検出部53gを備える。
 位置関係検出部53gは、ARマーカ検出部52が検出したARマーカ85の位置と、被写体検出部53aが検出した被写体92の位置との位置関係を検出する。また、位置関係検出部53gは、カメラ84の画角に占める被写体92の顔サイズを検出する。
 また、表示制御部54は、3Dモデル描画方向制御部54bの代わりに、3Dモデル描画位置制御部54eを備える。
 3Dモデル描画位置制御部54eは、撮像画像Iの中に3Dモデル90Mを描画する際の、3Dモデル90Mのスケール及び描画位置を設定する。具体的には、3Dモデル90Mの描画位置を、被写体92の背丈に合うように設定する。また、3Dモデル90Mの描画位置を、被写体92の顔の位置と3Dモデル90Mの顔の位置とが同じ高さになるように設定する。もちろん、これら以外の条件に基づいて描画位置を設定してもよい。
[7-2.携帯端末が行う処理の流れ]
 図21は、第7の実施形態に係る携帯端末が行う処理の流れの一例を示すフローチャートである。以下、処理の流れを、順を追って説明する。
 図21のステップS100からステップS102までの処理の流れは、第1の実施形態で説明した、図9のステップS10からステップS12までの処理の流れと同じであるため、説明を省略する。
 ステップS102において、ARマーカ85が検出されたと判定される(ステップS102:Yes)と、被写体検出部53aは、撮像画像Iの中から、被写体92を検出する(ステップS103)。
 次に、位置関係検出部53gは、ARマーカ85と被写体92との位置関係を検出する(ステップS104)。
 さらに、位置関係検出部53gは、カメラ84の画角に占める被写体92の顔サイズを検出する(ステップS105)。
 そして、位置関係検出部53gは、撮像画像Iは、被写体92の胸から上が映ったバストアップ写真であるかを判定する(ステップS106)。バストアップ写真であると判定される(ステップS106:Yes)と、ステップS107に進む。一方、バストアップ写真であると判定されない(ステップS106:No)と、ステップS108に進む。
 ステップS106においてYesと判定されると、3Dモデル描画位置制御部54eは、3Dモデル動画の顔の位置が、被写体92の顔と同じ高さにくるように、3Dモデル90Mを描画する際のスケールと描画位置を設定する(ステップS107)。その後、ステップS109に進む。
 一方、ステップS106においてNoと判定されると、3Dモデル描画位置制御部54eは、被写体92の背丈に合うように、3Dモデル動画のスケールと描画位置を設定する(ステップS108)。
 そして、3Dモデル描画位置制御部54eは、ステップS107又はステップS108で設定した条件で、撮像画像Iの中に、選択された3Dモデル90Mを描画する(ステップS109)。
 そして、撮像・録画処理部51bは、被写体92と3Dモデル90Mとがバランスよく並んだ状態でセルフィ撮影を行う(ステップS110)。
[7-3.第7の実施形態の効果]
 以上説明したように、第7の実施形態の携帯端末80によると、被写体特徴検出部53(検出部)は、被写体92の特徴である、撮像画像Iにおける被写体92の位置及びサイズを検出する。そして、表示制御部54(制御部)は、被写体92の位置及びサイズに応じて、3Dモデル90Mの表示位置及びサイズを調整する。
 これにより、被写体92と3Dモデル90Mとが、バランスよく並んだ状態でセルフィ撮影を行うことができる。
 なお、以上説明した各実施形態は、異なる複数の実施形態の機能を併せ持つものであってもよい。そして、その場合、携帯端末80は、複数の実施形態の機能構成を全て備えるものとなる。
(8.第8の実施形態)
 本開示の第8の実施形態は、カメラ84で撮像した撮像画像の中に仮想空間を形成して、当該仮想空間の中に、被写体92のアバターと3Dモデル90Mとを表示する機能を備える情報処理装置81aの例である。なお、撮像画像の中に表示された被写体92のアバターは、被写体92の操作に基づいて、仮想空間で動作可能とされる。
[8-1.情報処理装置の概要]
 図22は、第8の実施形態の情報処理装置の概要を説明する図である。
 情報処理装置81aと接続されたカメラ84は、被写体92であるユーザを撮像して撮像画像Ia(仮想画像)を生成する。生成された撮像画像Iaは、無線送信されて、被写体92が装着したヘッドマウントディスプレイ89(HMD)に表示される。ヘッドマウントディスプレイ89に表示される撮像画像Iaには、被写体92の分身であるアバター92a(第1のアバター)が表示されるとともに、本開示の各実施形態で説明した3Dモデル90Mが重畳して表示される。なお、アバター92aはフルCGの動画である。また、ヘッドマウントディスプレイ89は、被写体92の頭部の動きや視線方向を検出する機能を備えるとともに、情報処理装置81aが出力する音声情報を、被写体92に伝達する音声出力機能も備える。
 被写体92は、さらに、自身の位置や姿勢や動き等を検出する加速度センサや、情報処理装置に対して操作指示を出す操作スイッチの機能を備えたコントローラ88を身に付けている。ヘッドマウントディスプレイ89が検出した被写体92の視線方向や頭部の動き、及びコントローラ88が検出した被写体92の動きや操作情報は、情報処理装置81aに無線送信されて、アバター92aの動作や情報処理装置81aの動作に反映される。すなわち、被写体92であるユーザは、撮像画像Iaを見ながら、撮像画像Ia内に形成された仮想空間を自由に動き回ることができる。すなわち、被写体92の動きは、アバター92aの動きに反映される。
 特に、本実施形態の情報処理装置81aにおいて、アバター92aは、仮想空間で仮想カメラ84Vを用いて画像を撮像する機能を備える。すなわち、被写体92が、コントローラ88を介して仮想カメラ84Vを操作する指示を出すと、アバター92aが仮想カメラ84Vを取り出して、仮想空間の被写体92が指示した方向の画像を撮像する。
 仮想カメラ84Vが撮像した撮像画像Iaに映ったアバター92aの視線方向Eが仮想カメラ84Vを向くと、3Dモデル90Mは、視線方向Fが仮想カメラ84Vを向いた3Dモデル90Nに変更される。そして、情報処理装置81aは、アバター92aと3Dモデル90Nとがともに仮想カメラ84Vを見ている状態をセルフィ撮影する。
 なお、情報処理装置81aのハードウエア構成は、第1の実施形態で説明した携帯端末80のハードウエア構成(図5)に対して、液晶ディスプレイ16をヘッドマウントディスプレイ89に置き換えて、タッチパネル14をコントローラ88に置き換えたものとなる(図示省略)。なお、情報処理装置81aのCPU32は、ヘッドマウントディスプレイ89及びコントローラ88と、無線通信又は有線通信によって接続される。
[8-2.情報処理装置の機能構成]
 図23は、第8の実施形態に係る情報処理装置の機能構成の一例を示す機能ブロック図である。第8の実施形態の情報処理装置81aは、撮像部51と、被写体特徴検出部53と、表示制御部54とを備える。なお、情報処理装置81aは、さらに、被写体92のアバター92aを、フルCGによって生成する処理を行うが、アバター92aの生成処理は公知の方法に従って行えばよいため、説明は省略する。
 撮像部51は、被写体92の操作指示に従って、被写体92のアバター92aが操作する仮想カメラ84Vによって、映像のモニタや、画像の撮像、映像の録画を行う。撮像部51は、さらに、仮想映像生成部51cと、仮想映像モニタ部51dと、仮想カメラ映像生成部51eと、撮像・録画処理部51bとを備える。
 仮想映像生成部51cは、仮想カメラ84Vが撮像した撮像画像Ia(仮想画像)を生成する。
 仮想映像モニタ部51dは、撮像画像Iaをヘッドマウントディスプレイ89にリアルタイムで表示する、いわゆるライブビューを行う。
 撮像・録画処理部51bは、仮想カメラ84Vが撮像した撮像画像Iaを記憶する。また、撮像・録画処理部51bは、セルフィ撮影を行う。
 被写体特徴検出部53は、仮想カメラ84Vが撮像した撮像画像Iaの中から、被写体92のアバター92aを検出する。被写体特徴検出部53は、さらに、アバター検出部53hと、視線方向検出部53bとを備える。
 アバター検出部53hは、仮想カメラ84Vが撮像した撮像画像Iaの中から、アバター92aを検出する。
 視線方向検出部53bは、アバター検出部53hが検出したアバター92aの視線方向Eを検出する。
 表示制御部54は、被写体特徴検出部53が検出したアバター92aの視線方向Eに応じて、3Dモデル90Mの表示態様を変更する。具体的には、表示制御部54は、アバター92aの視線方向Eが仮想カメラ84Vを向いている場合、すなわちアバター92aが仮想カメラ目線である場合に、3Dモデル90Mの視線方向Fを、仮想カメラ84Vを向く向きに変更する。表示制御部54は、さらに、3Dモデルフレーム選択部54aと、3Dモデル描画方向制御部54bとを備える。なお、表示制御部54は、本開示における制御部の一例である。
 3Dモデルフレーム選択部54aは、記憶部38に記憶された複数の3DモデルMの中から、予め決められた3Dモデル90Mを選択する。また、3Dモデルフレーム選択部54aは、視線方向検出部53bが検出した、アバター92aの視線方向Eに応じた視線方向Fを有する3Dモデル90Mを選択する。より具体的には、3Dモデルフレーム選択部54aは、アバター92aが仮想カメラ目線である場合に、3Dモデル90Mの視線方向Fが仮想カメラ84Vを向く向きである3Dモデル90Mを選択する。
 3Dモデル描画方向制御部54bは、3Dモデルフレーム選択部54aが選択した3Dモデル90Mを、撮像画像Iaに重畳して表示する。また、3Dモデル描画方向制御部54bは、3Dモデル90Mを回転させることによって、当該3Dモデル90Mの向きを変更して、3Dモデル90Nを生成する。さらに、3Dモデル描画方向制御部54bは、向きが変更された3Dモデル90Nを、撮像画像Iaに重畳して表示する。
[8-3.情報処理装置が行う処理の流れ]
 図24は、第8の実施形態に係る情報処理装置が行う処理の流れの一例を示すフローチャートである。以下、処理の流れを、順を追って説明する。
 仮想映像モニタ部51dは、被写体92によるコントローラ88の操作指示を受けて、仮想カメラ84Vを起動する(ステップS120)。
 仮想映像生成部51cは、仮想カメラ84Vから見た撮像画像Ia(仮想画像)を生成する(ステップS121)。
 アバター検出部53hは、撮像画像Iaの中からアバター92aを検出する。そして、視線方向検出部53bは、検出されたアバター92aの視線方向Eを検出する(ステップS122)。
 続いて、視線方向検出部53bは、アバター92aが仮想カメラ84Vを見ている、すなわち仮想カメラ目線かを判定する(ステップS123)。アバター92aが仮想カメラ目線であると判定される(ステップS123:Yes)と、ステップS125に進む。一方、アバター92aが仮想カメラ目線であると判定されない(ステップS123:No)と、ステップS124に進む。
 ステップS123においてNoと判定されると、3Dモデルフレーム選択部54aは、記憶部38に記憶された3DモデルMの中から、3Dモデル90Mの動画フレームを選択する。そして、3Dモデル描画方向制御部54bは、3Dモデルフレーム選択部54aが選択した3Dモデル90Mを、撮像画像Iaの予め決められた所定の位置に描画するとともに、動画フレームをループ再生する(ステップS124)。その後、ステップS122に戻る。
 一方、ステップS123においてYesと判定されると、3Dモデル描画方向制御部54bは、撮像画像Iaの予め決められた所定の位置に3Dモデル90Mを描画するとともに、当該3Dモデル90Mの向きを仮想カメラ84Vの方向に向ける(ステップS125)。
 次に、3Dモデル描画方向制御部54bは、3Dモデルフレーム選択部54aが選択した、目が開いて、視線方向が仮想カメラ84Vの方向を向いている3Dモデル90Nを、ステップS125で設定した描画位置の描画する(ステップS126)。すなわち、図22に示す撮像画像Ib(仮想画像)が生成される。
 そして、撮像・録画処理部51bは、アバター92aと3Dモデル90Nとがともに仮想カメラ目線の状態でセルフィ撮影を行う(ステップS127)。
[8-4.第8の実施形態の効果]
 以上説明したように、第8の実施形態の情報処理装置81aによると、被写体特徴検出部53(検出部)は、仮想空間に存在する仮想カメラ84V(第2の撮像部)が撮像する撮像画像Iaに表示された、3Dモデル90Mと同一の仮想空間に存在して、被写体92(ユーザ)の操作に基づいて仮想空間で動作するアバター92a(第1のアバター)の視線方向E(特徴)を検出する。そして、表示制御部54(制御部)は、検出されたアバター92aの視線方向Eに応じて、3Dモデル90Mの表示態様を変更する。
 これにより、被写体92の分身であるアバター92a(第1のアバター)を含む撮像画像Iaに表示した3Dモデル90Mに対して、インタラクティブな動作や反応を行わせることができる。
(9.第9の実施形態)
 本開示の第9の実施形態は、第8の実施形態において、撮像画像Ia(仮想画像)に、3Dモデル90Mを重畳して表示する代わりに、被写体92とは異なる被写体のアバター(第2のアバター)を重畳して表示する機能を備える情報処理装置の例である。
[9-1.情報処理装置の概要]
 図25は、第9の実施形態の情報処理装置の概要を説明する図である。
 情報処理装置81bは、第8の実施形態で説明した機能を有するカメラ84aに加えて、カメラ84aと同じ機能を有するカメラ84bを備える。カメラ84bは、被写体92とは異なる被写体93を撮像する。なお、図25は、被写体92と被写体93とが並んで立っているが、被写体92と被写体93とは離れた位置に存在してもよい。すなわち、カメラ84aとカメラ84bとは、互いに離れた位置に存在して、撮像した画像を情報処理装置81bに無線送信する機能を備えていてもよい。
 被写体93は、被写体92と同様に、ヘッドマウントディスプレイ89を装着している。ヘッドマウントディスプレイ89には、情報処理装置81bが生成した撮像画像Iaがリアルタイムで表示される。なお、被写体92,93が装着している、ヘッドマウントディスプレイ89は、撮像画像Iaのみならず、情報処理装置81bが出力した音声情報を出力する機能も備えている。また、被写体93は、被写体92と同じコントローラ88を身に付けている。
 情報処理装置81bは、第8の実施形態で説明した通り、被写体92のアバター92a(第1のアバター)が表示された撮像画像Ia(仮想画像)を生成する。さらに、情報処理装置81bは、撮像画像Iaの中に、被写体93のアバター93a(第2のアバター)を表示する。すなわち、被写体92と被写体93とは、それぞれがアバター92a,93aとなって、撮像画像Iaという同じ仮想空間に存在することになる。
 被写体92の動きは、コントローラ88及びヘッドマウントディスプレイ89で検出されて、情報処理装置81bに送信される。そして、被写体92の動きは、アバター92aの動きとして、撮像画像Iaに反映される。同様に、被写体93の動きは、コントローラ88及びヘッドマウントディスプレイ89で検出されて、情報処理装置81bに送信される。そして、被写体93の動きは、アバター93aの動きとして、撮像画像Iaに反映される。このように、被写体92と被写体93とは、それぞれ、アバター92a,93aとして、撮像画像Iaの中を自由に動き回る。
 情報処理装置81bは、アバター92aが、仮想空間で仮想カメラ84Vを用いて画像を撮像する機能を備える。すなわち、被写体92が、コントローラ88を介して仮想カメラ84Vを操作する指示を出すと、アバター92aが仮想カメラ84Vを取り出して、仮想空間の被写体92が指示した方向の画像を撮像する。撮像された撮像画像Iaは、情報処理装置81bによって、被写体92,93が装着したヘッドマウントディスプレイ89に送信される。そして、被写体92,93は、ともに、撮像画像Iaをリアルタイムで観測する。
 情報処理装置81bは、仮想カメラ84Vが撮像した撮像画像Iaに映った、アバター92aの視線方向と、アバター93aの視線方向とを検出する。そして、アバター92a,93aがともに仮想カメラ84Vを見ているとき、情報処理装置81bは、被写体92の操作指示に従って、アバター92a,93aがともに仮想カメラ84Vを見ている状態の撮像画像Ibをセルフィ撮影する。
 なお、情報処理装置81bのハードウエア構成は、第8の実施形態で説明した情報処理装置81aのハードウエア構成に、カメラ84bと、被写体93用のコントローラ88と、ヘッドマウントディスプレイ89とを追加したものとなる。
[9-2.情報処理装置の機能構成]
 図26は、第9の実施形態に係る情報処理装置の機能構成の一例を示す機能ブロック図である。第9の実施形態の情報処理装置81bは、撮像部51と、被写体特徴検出部53と、表示制御部54とを備える。
 撮像部51は、第8の実施形態と同じ機能を備えるため、説明は省略する。被写体特徴検出部53は、アバター検出部53hと視線方向検出部53bとを有する、第8の実施形態で説明した被写体特徴検出部53と同じ構成を備える。しかしながら、本実施形態においては、アバター検出部53hは、仮想カメラ84Vが撮像した撮像画像Iaの中から、アバター92aとアバター93aとを検出する点が異なる。また、視線方向検出部53bは、アバター検出部53hが検出したアバター92aの視線方向Eと、アバター93aの視線方向Fと、を検出する。
 表示制御部54は、アバター92aとアバター93aとを、撮像画像Iaに重畳して表示する。
[9-3.情報処理装置が行う処理の流れ]
 図27は、第9の実施形態に係る情報処理装置が行う処理の流れの一例を示すフローチャートである。以下、処理の流れを、順を追って説明する。
 ステップS130及びステップS131の処理は、第8の実施形態で説明したステップS120及びステップS121の処理と同じであるため、説明は省略する。
 続いて、アバター検出部53hは、撮像画像Iaの中からアバター92a(第1のアバター)を検出する。そして、視線方向検出部53bは、検出されたアバター92aの視線方向Eを検出する(ステップS132)。
 続いて、視線方向検出部53bは、アバター92aが仮想カメラ84Vを見ている、すなわち仮想カメラ目線かを判定する(ステップS133)。アバター92aが仮想カメラ目線であると判定される(ステップS133:Yes)と、ステップS135に進む。一方、アバター92aが仮想カメラ目線であると判定されない(ステップS133:No)と、ステップS134に進む。
 ステップS133においてNoと判定されると、表示制御部54は、撮像画像Iaの中にアバター93aをループ再生(ライブビュー表示)する(ステップS134)。その後、ステップS132に戻る。
 一方、ステップS133においてYesと判定されると、アバター検出部53hは、撮像画像Iaの中からアバター93a(第2のアバター)を検出する。そして、視線方向検出部53bは、検出されたアバター93aの視線方向Fを検出する(ステップS135)。なお、アバター92aが仮想カメラ目線であると判定された際に、情報処理装置81bは、ヘッドマウントディスプレイ89を介して、被写体93に対して、「一緒に写真を撮ろうよ」という指示を与えてもよい。
 続いて、視線方向検出部53bは、アバター93aが仮想カメラ84Vを見ている、すなわち仮想カメラ目線かを判定する(ステップS136)。アバター93aが仮想カメラ目線であると判定される(ステップS136:Yes)と、ステップS137に進む。一方、アバター93aが仮想カメラ目線であると判定されない(ステップS136:No)と、ステップS135に戻る。
 ステップS136においてYesと判定されると、撮像・録画処理部51bは、アバター92aとアバター93aとがともに仮想カメラ目線の状態でセルフィ撮影を行う(ステップS137)。
[9-4.第9の実施形態の効果]
 以上説明したように、第9の実施形態の情報処理装置81bによると、表示制御部54(制御部)は、撮像画像Iaの中に、被写体92とは異なる被写体93のアバター93a(第2のアバター)を表示する。
 これによって、被写体92(ユーザ)は、仮想空間で、別の被写体93に対して、インタラクティブな動作や反応を行わせることができる。
 なお、本明細書に記載された効果は、あくまで例示であって限定されるものではなく、他の効果があってもよい。また、本開示の実施形態は、上述した実施形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本開示は、以下のような構成もとることができる。
 (1)
 撮像画像の中に表示された3Dモデルを制御する制御部と、
 前記撮像画像に前記3Dモデルと同時に表示された被写体の特徴を検出する検出部と、を備え、
 前記制御部は、前記検出部が検出した前記被写体の特徴に応じて、前記3Dモデルの表示態様を変更する情報処理装置。
 (2)
 前記検出部は、前記被写体の特徴である視線方向を検出するものであり、
 前記制御部は、検出された前記被写体の視線方向に応じて、前記3Dモデルの向きを変更する、
 前記(1)に記載の情報処理装置。
 (3)
 前記制御部は、前記被写体の視線方向に応じて、前記3Dモデルを回転させることによって、当該3Dモデルの向きを変更する、
 前記(2)に記載の情報処理装置。
 (4)
 前記制御部は、前記被写体の視線方向に応じて、前記3Dモデルが置かれた座標系を回転させることによって、当該3Dモデルの向きを変更する、
 前記(2)に記載の情報処理装置。
 (5)
 前記検出部が、前記被写体の視線方向が、前記撮像画像が撮像された方向を向いていると検出した場合に、
 前記制御部は、前記3Dモデルの向きを、前記撮像画像が撮像された方向に変更する、
 前記(1)乃至(4)のいずれか1項に記載の情報処理装置。
 (6)
 前記検出部が、前記被写体の視線方向が、前記3Dモデルを向いていると検出した場合に、
 前記制御部は、前記3Dモデルの向きを、前記被写体を向く向きに変更する、
 前記(1)乃至(4)のいずれか1項に記載の情報処理装置。
 (7)
 前記検出部は、前記被写体の特徴である表情を検出するものであって、
 前記制御部は、前記被写体の表情が笑顔であると検出された場合に、前記3Dモデルの向きを、前記撮像画像が撮像された方向に変更する、
 前記(1)乃至(6)のいずれか1項に記載の情報処理装置。
 (8)
 前記検出部は、前記被写体の特徴である明るさを検出するものであり、
 前記制御部は、前記被写体の明るさに応じて、前記3Dモデルの明るさを変更する、
 前記(1)乃至(7)のいずれか1項に記載の情報処理装置。
 (9)
 前記検出部は、前記被写体の特徴である被写体までの距離を検出するものであって、
 前記制御部は、前記3Dモデルまでの距離を、当該3Dモデルと前記被写体とが前記撮像画像の被写界深度に入るように変更する、
 前記(1)乃至(8)のいずれか1項に記載の情報処理装置。
 (10)
 前記検出部は、前記被写体の特徴である、前記撮像画像における前記被写体の位置を検出するものであって、
 前記制御部は、前記被写体の位置と前記3Dモデルの位置とが重複すると予測される場合に、前記3Dモデルの表示位置を、前記被写体と重複しない位置に変更する、
 前記(1)乃至(9)のいずれか1項に記載の情報処理装置。
 (11)
 前記検出部は、前記被写体の特徴である、前記撮像画像における前記被写体の位置及びサイズを検出するものであって、
 前記制御部は、前記被写体の位置及びサイズに応じて、前記3Dモデルの表示位置及びサイズを調整する、
 前記(1)乃至(10)のいずれか1項に記載の情報処理装置。
 (12)
 前記制御部が前記3Dモデルの表示態様を変更した後の前記3Dモデルと前記被写体とを撮像する、撮像部を更に備える、
 前記(1)乃至(11)のいずれか1項に記載の情報処理装置。
 (13)
 前記撮像部は、現実世界に存在するカメラ、または仮想世界に存在する仮想カメラである、
 前記(12)に記載の情報処理装置。
 (14)
 前記被写体は、前記3Dモデルと同一の仮想空間に存在して、ユーザの操作に基づいて当該仮想空間で動作する第1のアバターであって、
 前記検出部は、前記仮想空間に存在する第2の撮像部が撮像する撮像画像に表示された前記第1のアバターの特徴を検出する、
 前記(1)乃至(13)のいずれか1項に記載の情報処理装置。
 (15)
 前記3Dモデルは、前記被写体とは異なる被写体の操作に基づいて、前記仮想空間で動作する第2のアバターである、
 前記(14)に記載の情報処理装置。
 (16)
 前記3Dモデルは、現実世界に存在するオブジェクトを、異なる視点から撮像した複数の視点画像を用いて生成された、前記オブジェクトの3D情報を有するモデルである、
 前記(1)乃至(14)のいずれか1項に記載の情報処理装置。
 (17)
 前記制御部は、
 前記撮像画像の中に所定の表示が表示された際に、前記撮像画像に重畳して、前記3Dモデルを表示する、
 前記(1)乃至(13)のいずれか1項に記載の情報処理装置。
 (18)
 撮像画像の中に表示された3Dモデルを制御する制御プロセスと、
 前記撮像画像に前記3Dモデルと同時に表示された被写体の特徴を検出する検出プロセスと、を備え、
 前記制御プロセスは、前記検出プロセスが検出した前記被写体の特徴に応じて、前記3Dモデルの表示態様を変更する情報処理方法。
 (19)
 コンピュータを、
 撮像画像の中に表示された3Dモデルを制御する制御部と、
 前記撮像画像に前記3Dモデルと同時に表示された被写体の特徴を検出する検出部と、して機能させるとともに、
 前記制御部に、前記検出部が検出した前記被写体の特徴に応じて、前記3Dモデルの表示態様を変更させるプログラム。 
 51…撮像部、52…ARマーカ検出部、53…被写体特徴検出部(検出部)、54…表示制御部(制御部)、80…携帯端末(情報処理装置)、81a,81b…情報処理装置、82…表示画面、84,84a,84b…カメラ(第1の撮像部)、84V…仮想カメラ(第2の撮像部)、85…ARマーカ(所定の表示),90…被写体(オブジェクト),90M,90N,M…3Dモデル、92…被写体(ユーザ)、92a…アバター(第1のアバター)、93…被写体、93a…アバター(第2のアバター)、Ia,Ib…撮像画像(仮想画像)、E,F…視線方向、I…撮像画像

Claims (19)

  1.  撮像画像の中に表示された3Dモデルを制御する制御部と、
     前記撮像画像に前記3Dモデルと同時に表示された被写体の特徴を検出する検出部と、を備え、
     前記制御部は、前記検出部が検出した前記被写体の特徴に応じて、前記3Dモデルの表示態様を変更する情報処理装置。
  2.  前記検出部は、前記被写体の特徴である視線方向を検出するものであり、
     前記制御部は、検出された前記被写体の視線方向に応じて、前記3Dモデルの向きを変更する、
     請求項1に記載の情報処理装置。
  3.  前記制御部は、前記被写体の視線方向に応じて、前記3Dモデルを回転させることによって、当該3Dモデルの向きを変更する、
     請求項2に記載の情報処理装置。
  4.  前記制御部は、前記被写体の視線方向に応じて、前記3Dモデルが置かれた座標系を回転させることによって、当該3Dモデルの向きを変更する、
     請求項2に記載の情報処理装置。
  5.  前記検出部が、前記被写体の視線方向が、前記撮像画像が撮像された方向を向いていると検出した場合に、
     前記制御部は、前記3Dモデルの向きを、前記撮像画像が撮像された方向に変更する、
     請求項2に記載の情報処理装置。
  6.  前記検出部が、前記被写体の視線方向が、前記3Dモデルを向いていると検出した場合に、
     前記制御部は、前記3Dモデルの向きを、前記被写体を向く向きに変更する、
     請求項2に記載の情報処理装置。
  7.  前記検出部は、前記被写体の特徴である表情を検出するものであって、
     前記制御部は、前記被写体の表情が笑顔であると判定された場合に、前記3Dモデルの向きを、前記撮像画像が撮像された方向に変更する、
     請求項1に記載の情報処理装置。
  8.  前記検出部は、前記被写体の特徴である明るさを検出するものであり、
     前記制御部は、前記被写体の明るさに応じて、前記3Dモデルの明るさを変更する、
     請求項1に記載の情報処理装置。
  9.  前記検出部は、前記被写体の特徴である被写体までの距離を検出するものであって、
     前記制御部は、前記3Dモデルまでの距離を、当該3Dモデルと前記被写体とが前記撮像画像の被写界深度に入るように変更する、
     請求項1に記載の情報処理装置。
  10.  前記検出部は、前記被写体の特徴である、前記撮像画像における前記被写体の位置を検出するものであって、
     前記制御部は、前記被写体の位置と前記3Dモデルの位置とが重複すると予測される場合に、前記3Dモデルの表示位置を、前記被写体と重複しない位置に変更する、
     請求項1に記載の情報処理装置。
  11.  前記検出部は、前記被写体の特徴である、前記撮像画像における前記被写体の位置及びサイズを検出するものであって、
     前記制御部は、前記被写体の位置及びサイズに応じて、前記3Dモデルの表示位置及びサイズを調整する、
     請求項1に記載の情報処理装置。
  12.  前記制御部が前記3Dモデルの表示態様を変更した後の前記3Dモデルと前記被写体とを撮像する、撮像部を更に備える、
     請求項1に記載の情報処理装置。
  13.  前記撮像部は、現実世界に存在するカメラ、または仮想世界に存在する仮想カメラである、
     請求項12に記載の情報処理装置。
  14.  前記被写体は、前記3Dモデルと同一の仮想空間に存在して、ユーザの操作に基づいて当該仮想空間で動作する第1のアバターであって、
     前記検出部は、前記仮想空間に存在する第2の撮像部が撮像する撮像画像に表示された前記第1のアバターの特徴を検出する、
     請求項1に記載の情報処理装置。
  15.  前記3Dモデルは、前記被写体とは異なる被写体の操作に基づいて、前記仮想空間で動作する第2のアバターである、
     請求項14に記載の情報処理装置。
  16.  前記3Dモデルは、現実世界に存在するオブジェクトを、異なる視点から撮像した複数の視点画像を用いて生成された、前記オブジェクトの3D情報を有するモデルである、
     請求項1に記載の情報処理装置。
  17.  前記制御部は、
     前記撮像画像の中に所定の表示が検出された際に、当該撮像画像に重畳して、前記3Dモデルを表示する、
     請求項16に記載の情報処理装置。
  18.  撮像画像の中に表示された3Dモデルを制御する制御プロセスと、
     前記撮像画像に前記3Dモデルと同時に表示された被写体の特徴を検出する検出プロセスと、を備え、
     前記制御プロセスは、前記検出プロセスが検出した前記被写体の特徴に応じて、前記3Dモデルの表示態様を変更する情報処理方法。
  19.  コンピュータを、
     撮像画像の中に表示された3Dモデルを制御する制御部と、
     前記撮像画像に前記3Dモデルと同時に表示された被写体の特徴を検出する検出部と、して機能させるとともに、
     前記制御部に、前記検出部が検出した前記被写体の特徴に応じて、前記3Dモデルの表示態様を変更させるプログラム。
PCT/JP2020/024249 2019-06-28 2020-06-19 情報処理装置、情報処理方法及びプログラム WO2020262261A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP20830863.5A EP3982331A4 (en) 2019-06-28 2020-06-19 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
CN202080045553.2A CN114008582A (zh) 2019-06-28 2020-06-19 信息处理装置、信息处理方法和程序
US17/618,647 US11842453B2 (en) 2019-06-28 2020-06-19 Information processing device, information processing method, and program
JP2021526948A JPWO2020262261A1 (ja) 2019-06-28 2020-06-19

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019121554 2019-06-28
JP2019-121554 2019-06-28

Publications (1)

Publication Number Publication Date
WO2020262261A1 true WO2020262261A1 (ja) 2020-12-30

Family

ID=74060879

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/024249 WO2020262261A1 (ja) 2019-06-28 2020-06-19 情報処理装置、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US11842453B2 (ja)
EP (1) EP3982331A4 (ja)
JP (1) JPWO2020262261A1 (ja)
CN (1) CN114008582A (ja)
WO (1) WO2020262261A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024009745A1 (ja) * 2022-07-07 2024-01-11 ソニーグループ株式会社 情報処理装置、情報処理方法、および記録媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021132013A1 (ja) * 2019-12-27 2021-07-01 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006227838A (ja) * 2005-02-16 2006-08-31 Nec Corp 画像処理装置及び画像処理プログラム
JP2007042055A (ja) * 2005-06-30 2007-02-15 Canon Inc 画像処理方法、画像処理装置
JP2012160039A (ja) * 2011-02-01 2012-08-23 Fujifilm Corp 画像処理装置、立体画像印刷システム、画像処理方法およびプログラム
JP2015503141A (ja) * 2011-10-28 2015-01-29 マジック リープ, インコーポレイテッド 拡張現実および仮想現実のためのシステムおよび方法
JP2017056114A (ja) * 2015-09-18 2017-03-23 株式会社スクウェア・エニックス ビデオゲーム処理プログラム、ビデオゲーム処理システム及びビデオゲーム処理方法
WO2017082076A1 (ja) 2015-11-11 2017-05-18 ソニー株式会社 符号化装置および符号化方法、復号装置および復号方法
JP2017138914A (ja) * 2016-02-05 2017-08-10 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム
JP2017138912A (ja) * 2016-02-05 2017-08-10 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5646263B2 (ja) * 2010-09-27 2014-12-24 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
US9947139B2 (en) * 2014-06-20 2018-04-17 Sony Interactive Entertainment America Llc Method and apparatus for providing hybrid reality environment
JP6632443B2 (ja) * 2016-03-23 2020-01-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
DK179948B1 (en) * 2017-05-16 2019-10-22 Apple Inc. Recording and sending Emoji
US11335065B2 (en) * 2017-12-05 2022-05-17 Diakse Method of construction of a computer-generated image and a virtual environment
US11600047B2 (en) * 2018-07-17 2023-03-07 Disney Enterprises, Inc. Automated image augmentation using a virtual character
KR102664688B1 (ko) * 2019-02-19 2024-05-10 삼성전자 주식회사 가상 캐릭터 기반 촬영 모드를 제공하는 전자 장치 및 이의 동작 방법
US11450051B2 (en) * 2020-11-18 2022-09-20 Snap Inc. Personalized avatar real-time motion capture

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006227838A (ja) * 2005-02-16 2006-08-31 Nec Corp 画像処理装置及び画像処理プログラム
JP2007042055A (ja) * 2005-06-30 2007-02-15 Canon Inc 画像処理方法、画像処理装置
JP2012160039A (ja) * 2011-02-01 2012-08-23 Fujifilm Corp 画像処理装置、立体画像印刷システム、画像処理方法およびプログラム
JP2015503141A (ja) * 2011-10-28 2015-01-29 マジック リープ, インコーポレイテッド 拡張現実および仮想現実のためのシステムおよび方法
JP2017056114A (ja) * 2015-09-18 2017-03-23 株式会社スクウェア・エニックス ビデオゲーム処理プログラム、ビデオゲーム処理システム及びビデオゲーム処理方法
WO2017082076A1 (ja) 2015-11-11 2017-05-18 ソニー株式会社 符号化装置および符号化方法、復号装置および復号方法
JP2017138914A (ja) * 2016-02-05 2017-08-10 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム
JP2017138912A (ja) * 2016-02-05 2017-08-10 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3982331A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024009745A1 (ja) * 2022-07-07 2024-01-11 ソニーグループ株式会社 情報処理装置、情報処理方法、および記録媒体

Also Published As

Publication number Publication date
JPWO2020262261A1 (ja) 2020-12-30
EP3982331A1 (en) 2022-04-13
US11842453B2 (en) 2023-12-12
EP3982331A4 (en) 2022-11-09
US20220358724A1 (en) 2022-11-10
CN114008582A (zh) 2022-02-01

Similar Documents

Publication Publication Date Title
JP6595726B2 (ja) 両眼視野/単眼視野間の移行
TWI669635B (zh) 用於顯示彈幕的方法、裝置以及非揮發性電腦可讀儲存介質
KR101822471B1 (ko) 혼합현실을 이용한 가상현실 시스템 및 그 구현방법
JP6576536B2 (ja) 情報処理装置
US20170213085A1 (en) See-through smart glasses and see-through method thereof
JP3749227B2 (ja) 立体画像処理方法および装置
JP3857988B2 (ja) 立体画像処理方法および装置
WO2020115784A1 (ja) 拡張現実表示装置及び拡張現実表示方法
CN109598796A (zh) 将真实场景与虚拟物体进行3d融合显示的方法和装置
WO2020262261A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP7456034B2 (ja) 複合現実表示装置および複合現実表示方法
JP2022183177A (ja) ヘッドマウントディスプレイ装置
JPWO2017141584A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
KR20140130638A (ko) 실사 영상 기반의 스마트 피팅장치 및 그 방법
JP2022183213A (ja) ヘッドマウントディスプレイ
WO2017062730A1 (en) Presentation of a virtual reality scene from a series of images
JP6649010B2 (ja) 情報処理装置
CN113066189B (zh) 一种增强现实设备及虚实物体遮挡显示方法
WO2017191703A1 (ja) 画像処理装置
WO2021171982A1 (ja) 画像処理装置、3dモデルの生成方法、学習方法およびプログラム
WO2018173206A1 (ja) 情報処理装置
JP2020182109A (ja) 情報処理装置、情報処理方法及びプログラム
JP2001216531A (ja) 3次元仮想空間参加者表示方法及び3次元仮想空間表示装置
CN117981295A (zh) 信息处理设备和程序
JP2022083816A (ja) 画像生成装置、画像生成方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20830863

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021526948

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020830863

Country of ref document: EP

Effective date: 20220110