JP7466730B2 - Program, electronic device and data recording method - Google Patents

Program, electronic device and data recording method Download PDF

Info

Publication number
JP7466730B2
JP7466730B2 JP2023041788A JP2023041788A JP7466730B2 JP 7466730 B2 JP7466730 B2 JP 7466730B2 JP 2023041788 A JP2023041788 A JP 2023041788A JP 2023041788 A JP2023041788 A JP 2023041788A JP 7466730 B2 JP7466730 B2 JP 7466730B2
Authority
JP
Japan
Prior art keywords
virtual
recording
image
camera
dimensional space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023041788A
Other languages
Japanese (ja)
Other versions
JP2023073307A (en
Inventor
佳之 高子
勝 辻山
建一 小倉
伸太郎 村井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Namco Ltd
Original Assignee
Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.), Namco Ltd filed Critical Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Priority to JP2023041788A priority Critical patent/JP7466730B2/en
Publication of JP2023073307A publication Critical patent/JP2023073307A/en
Application granted granted Critical
Publication of JP7466730B2 publication Critical patent/JP7466730B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、コンピュータに仮想3次元空間の画像を生成する機能を実現させるためのプログラム等に関する。 The present invention relates to a program for enabling a computer to generate images of a virtual three-dimensional space.

拡張現実(AR:Augmented Reality)の技術は、さまざまな分野で利用されている。例えば、特許文献1では、現実空間におけるユーザ端末の位置と、仮想3次元空間における仮想カメラの位置とを対応づけ、当該仮想カメラで仮想3次元空間内に配置されているオブジェクト(例えば、ゲームに登場するキャラクタなど)を撮影した画像と、ユーザ端末に搭載されているカメラで撮影した現実空間の画像とを重畳表示させ、その後、ユーザの操作入力に基づいて、重畳表示させた画像を記録することができる技術が開示されている。 Augmented reality (AR) technology is used in a variety of fields. For example, Patent Document 1 discloses a technology that associates the position of a user terminal in real space with the position of a virtual camera in a virtual three-dimensional space, superimposes an image of an object (such as a character appearing in a game) located in the virtual three-dimensional space captured by the virtual camera on an image of the real space captured by a camera mounted on the user terminal, and then records the superimposed image based on the user's operational input.

特開2012-69126号公報JP 2012-69126 A

特許文献1の技術を用いると、ユーザはあたかも現実空間の中に仮想のキャラクタがそこに存在しているかのような静止画像を作る楽しみが得られる。 Using the technology in Patent Document 1, users can have fun creating still images that make it seem as if virtual characters are actually present in real space.

高性能なパーソナルコンピュータなどを利用して、3DCG(3-Dimensional Computer Graphics)ソフトを用いれば、拡張現実の動画も作成することは可能ではあるが、その場合、3DCGソフトで作成された仮想カメラの移動軌跡は、ゆらぎ成分が無い数学的な関数等を用いて作成される。そのため、できあがった拡張現実の動画のカメラワークは、実に滑らかで、あたかも映像のプロが高機能なジンバルを用いて撮影したかのようになる。そこには、ユーザ自らがビデオカメラを手に持って撮影したときに生まれるリアルな手ぶれ感がない。そのため「ユーザ自らが作った」と言う手作り感や、「ユーザが撮影した」と言うリアリティは薄く、いかにも「CGソフトでつくりました」と言うどこか作り物めいた感じを拭えなかった。同じ事をプロフェッショナルな映像作家の立場から見れば、映像表現の演出上、「ユーザ自らがビデオカメラを手に持って撮影した」ようなリアリティを追求した拡張現実の動画を作らねばならないケースでは、手ぶれ感のないスムーズすぎるカメラワークでは、要求される演出を実現できないことになる。 It is possible to create augmented reality videos using 3DCG (3-Dimensional Computer Graphics) software with a high-performance personal computer, but in that case, the movement trajectory of the virtual camera created with the 3DCG software is created using mathematical functions that have no jitter. Therefore, the camerawork in the completed augmented reality video is very smooth, as if a professional videographer had taken the video using a high-performance gimbal. There is no realistic sense of camera shake that occurs when the user himself holds a video camera in his hand. Therefore, the handmade feeling of "made by the user himself" and the reality of "filmed by the user" are weak, and it is difficult to wipe away the artificial feeling of "made with CG software". If you look at the same thing from the standpoint of a professional videographer, in a case where you have to create an augmented reality video that pursues the reality of "filmed by the user himself holding a video camera in his hand" in terms of video expression, a camerawork that is too smooth and without a sense of camera shake will not be able to achieve the required effect.

こうした問題は、拡張現実画像の動画作成に限らず、仮想現実(VR:Virtual Reality)の画像の動画作成においても同様に言える。 These problems are not limited to creating videos of augmented reality images, but also apply to creating videos of virtual reality (VR) images.

本発明は、「ユーザ自らがビデオカメラを手に持って撮影した」というリアリティのある拡張現実や仮想現実の動画を作成するための新たな技術の提供を課題として考案されたものである。 This invention was conceived with the objective of providing new technology for creating augmented reality or virtual reality videos with the same realism as if the user had taken the video with a handheld video camera.

上記した課題を解決するための第1の発明は、携帯型のコンピュータを、前記コンピュータの位置および姿勢を計測した計測データを取得する制御を行う計測データ取得制御手段、被写体オブジェクトが配置された仮想3次元空間を設定する仮想空間設定手段、前記仮想3次元空間を撮影する仮想カメラの位置および姿勢を、前記計測データに連動させて制御する仮想カメラ制御手段、前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成手段、前記仮想カメラ制御手段によって連続的に制御された前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録する記録制御手段、として機能させるためのプログラムである。 The first invention for solving the above-mentioned problems is a program for causing a portable computer to function as a measurement data acquisition control means for controlling the acquisition of measurement data obtained by measuring the position and attitude of the computer, a virtual space setting means for setting a virtual three-dimensional space in which a subject object is placed, a virtual camera control means for controlling the position and attitude of a virtual camera that captures the virtual three-dimensional space in conjunction with the measurement data, a virtual space image generation means for generating an image of the virtual three-dimensional space captured by the virtual camera, and a recording control means for recording camerawork data capable of reproducing the position and attitude of the virtual camera in the virtual three-dimensional space continuously controlled by the virtual camera control means.

ここで言う「コンピュータ」とは、単数のコンピュータは勿論、複数のコンピュータが連携して構成されるものでもよい。 The "computer" referred to here can refer to a single computer, or it can refer to multiple computers working together.

第1の発明によれば、コンピュータは、計測された位置や姿勢に連動する仮想カメラで撮影した仮想空間画像を生成しつつ、仮想カメラの位置や姿勢を再現できるカメラワークデータを記録できる。つまり、ユーザが、仮想空間画像をファインダー画像のように見ながらコンピュータをあたかも携帯型ビデオカメラのようにして、位置を変え、姿勢を変える動画撮影のカメラワークを行えば、そのカメラワークのデータがコンピュータに記録される。 According to the first invention, the computer can generate a virtual space image taken by a virtual camera linked to the measured position and attitude, while recording camerawork data that can reproduce the position and attitude of the virtual camera. In other words, if a user performs camerawork for taking a video by changing the position and attitude of the computer as if it were a portable video camera while looking at the virtual space image as if it were a viewfinder image, the camerawork data is recorded in the computer.

当然、このカメラワークデータを元に再現される仮想カメラの移動軌跡には、実際にユーザが手に持って撮影したことで生じたリアルな「ゆらぎ」が含まれている。従って、コンピュータに記録されたカメラワークデータを、3DCGソフトで用いれば、「ユーザ自らがビデオカメラを手に持って撮影した」リアリティのある拡張現実や仮想現実の画像の動画を作成できる。 Naturally, the trajectory of the virtual camera's movement, which is reproduced based on this camerawork data, contains the realistic "wobble" that occurs when a user actually holds the camera in their hands while filming. Therefore, by using the camerawork data recorded on a computer with 3DCG software, it is possible to create videos of augmented reality or virtual reality images that have the realism of "as if the user were filming with a video camera in their hands."

第2の発明は、所与の時間軸に沿った所与の動作を前記被写体オブジェクトに行わせる制御をする被写体制御手段、として前記コンピュータを機能させ、前記記録制御手段は、前記仮想カメラの位置および姿勢を前記計測データの時間軸と対応付けて記録することで、前記時間軸に同期したカメラワークを再現可能なカメラワークデータを記録する、第1の発明のプログラムである。 The second invention is the program of the first invention, which causes the computer to function as a subject control means that controls the subject object to perform a given action along a given time axis, and the recording control means records the position and orientation of the virtual camera in association with the time axis of the measurement data, thereby recording camerawork data that can reproduce camerawork synchronized with the time axis.

第2の発明によれば、被写体オブジェクトの動作と同期したカメラワークを再現できるようになる。 The second invention makes it possible to reproduce camerawork synchronized with the movement of the subject object.

第3の発明は、前記時間軸に沿った所与の楽曲及び/又は所与の音声(以下包括して「サウンド」という)を出力させる制御をするサウンド出力制御手段、として前記コンピュータを機能させ、前記被写体制御手段は、前記サウンドに合わせた動作を前記被写体オブジェクトに行わせる、第2の発明のプログラムである。 The third invention is the program of the second invention, which causes the computer to function as a sound output control means that controls the output of a given piece of music and/or a given sound (hereinafter collectively referred to as "sound") along the time axis, and the subject control means causes the subject object to perform an action in accordance with the sound.

第3の発明によれば、サウンドの再生と同期したカメラワークを再現できるようになる。 The third invention makes it possible to reproduce camera work synchronized with sound playback.

第4の発明は、前記記録制御手段が、所与の記録開始指示に応じて記録を開始し、所与の記録停止指示に応じて記録を停止し、前記被写体制御手段は、前記記録開始指示に応じて前記時間軸を作動開始させて前記被写体オブジェクトの動作を開始させ、前記記録停止指示に応じて前記時間軸を停止させて前記被写体オブジェクトの動作を停止させる一斉制御を行う、第2又は第3の発明のプログラムである。 The fourth invention is the program of the second or third invention, in which the recording control means starts recording in response to a given instruction to start recording and stops recording in response to a given instruction to stop recording, and the subject control means performs simultaneous control to start the time axis in response to the instruction to start recording, to start the movement of the subject object, and stops the time axis in response to the instruction to stop recording, to stop the movement of the subject object.

第4の発明によれば、ユーザ自らがカメラワークデータの記録を開始したり停止させたりできるようになり、加えて、記録を開始するのに伴って被写体オブジェクトの動作を開始し、記録を停止するのに伴って被写体オブジェクトの動作も停止させることが可能になる。 According to the fourth invention, the user himself/herself can start and stop recording of camerawork data, and in addition, when recording starts, the movement of the subject object can be started, and when recording stops, the movement of the subject object can be stopped.

第5の発明は、前記一斉制御が、切替操作によってオン/オフが切り替え可能であり、
前記被写体制御手段は、前記一斉制御がオンの場合には前記一斉制御を行い、オフの場合には前記記録開始指示および前記記録停止指示に関わらず前記被写体オブジェクトの動作制御を継続する、第4の発明のプログラムである。
In a fifth aspect of the present invention, the simultaneous control can be switched on/off by a switching operation,
The subject control means is a program of a fourth invention in which the subject control means performs the simultaneous control when the simultaneous control is on, and continues to control the movement of the subject object when the simultaneous control is off regardless of the recording start instruction and the recording stop instruction.

第5の発明によれば、被写体オブジェクトの一斉制御を、ユーザ自らがオン/オフ切り換えできる。 According to the fifth invention, the user can switch the simultaneous control of the subject objects on and off by himself/herself.

第6の発明は、前記記録制御手段が、所与の記録停止指示に応じて記録を停止し、所与の記録再開指示に応じて記録を再開し、前記計測データが、前記仮想3次元空間を撮影する際の不適な変化をしたことを示す所与の不適変化条件を満たしたことを検出し、当該検出に応じて前記記録停止指示を与える不適変化時自動停止手段、として前記コンピュータを機能させるための第1~第5の何れかの発明のプログラムである。 The sixth invention is a program according to any one of the first to fifth inventions for causing the computer to function as an automatic stop means upon inappropriate change, in which the recording control means stops recording in response to a given instruction to stop recording, resumes recording in response to a given instruction to resume recording, detects that the measurement data meets a given inappropriate change condition indicating that an inappropriate change has occurred when photographing the virtual three-dimensional space, and issues the instruction to stop recording in response to the detection.

第6の発明によれば、所与の記録停止指示に応じて記録を停止し、所与の記録再開指示に応じて記録を再開できる。また、ユーザが使用しているコンピュータの位置や姿勢が、動画撮影のカメラワークとして不適な変化をした場合、これを自動的に検出して、カメラワークデータの記録を自動停止することができる。 According to the sixth invention, recording can be stopped in response to a given instruction to stop recording, and can be resumed in response to a given instruction to resume recording. In addition, if the position or attitude of the computer used by the user changes in a way that is inappropriate for camerawork in video shooting, this can be automatically detected, and recording of camerawork data can be automatically stopped.

第7の発明は、前記記録制御手段により記録された前記カメラワークデータの所与の再生タイミングにおける仮想カメラからの前記仮想3次元空間の画像である再生画像を生成する再生画像生成手段、前記仮想空間画像生成手段により生成されている画像であるライブ画像と、前記再生画像とを比較可能な態様で表示する制御を行う比較表示制御手段、として前記コンピュータを機能させるための第1~第6の何れかの発明のプログラムである。 The seventh invention is a program according to any one of the first to sixth inventions for causing the computer to function as a playback image generating means for generating a playback image, which is an image of the virtual three-dimensional space from a virtual camera at a given playback timing of the camerawork data recorded by the recording control means, and a comparison display control means for controlling the display of a live image, which is an image generated by the virtual space image generating means, and the playback image in a comparative manner.

第7の発明によれば、既に記録されているカメラワークデータに基づいて、所与の再生タイミングにおける再生画像と、ライブ画像とを比較可能にユーザに提供できるようになる。 According to the seventh invention, it becomes possible to provide the user with a playback image at a given playback timing and a live image that can be compared based on already recorded camerawork data.

第8の発明は、前記記録制御手段により記録された前記カメラワークデータの所与の再生タイミングにおける現実空間の画像である再生画像と、現時点における現実空間の画像であるライブ画像とを比較可能な態様で表示する制御を行う比較表示制御手段、として前記コンピュータを機能させるための第1~第6の何れかの発明のプログラムである。 The eighth invention is a program according to any one of the first to sixth inventions for causing the computer to function as a comparison display control means for controlling the display of a playback image, which is an image of real space at a given playback timing of the camerawork data recorded by the recording control means, and a live image, which is an image of real space at the current time, in a comparative manner.

第8の発明によれば、再生タイミングにおける現実空間の画像と、現時点における現実空間の画像とを比較表示できる。 According to the eighth aspect of the invention, it is possible to display a comparison between an image in real space at the playback timing and an image in real space at the current time.

第9の発明は、ユーザの操作に基づいて前記再生タイミングを指定する再生タイミング手動指定手段、として前記コンピュータを機能させるための第7又は第8の発明のプログラムである。 The ninth aspect of the present invention is a program according to the seventh or eighth aspect of the present invention for causing the computer to function as a playback timing manual designation means for designating the playback timing based on a user operation.

第9の発明によれば、ユーザが再生タイミングを指定できるようになる。 According to the ninth invention, the user can specify the playback timing.

第10の発明は、前記記録制御手段は、所与の記録停止指示に応じて記録を停止し、所与の記録再開指示に応じて記録を再開し、前記記録停止指示が与えられた場合に、当該記録停止指示が与えられたタイミングに基づく所与のプレイバックタイミングを前記再生タイミングとする再生タイミング自動指定手段、として前記コンピュータを機能させるための第7~第9の何れかの発明のプログラムである。 The tenth invention is a program according to any one of the seventh to ninth inventions for causing the computer to function as a playback timing automatic designation means, in which the recording control means stops recording in response to a given instruction to stop recording, resumes recording in response to a given instruction to resume recording, and, when the recording stop instruction is given, sets the playback timing to a given playback timing based on the timing at which the recording stop instruction was given.

また、第11の発明は、前記再生タイミング自動指定手段が、前記記録停止指示が与えられたタイミングから所与の時間、前記時間軸を遡った時点を前記プレイバックタイミングとする、第10の発明のプログラムである。 An eleventh aspect of the present invention is the program of the tenth aspect of the present invention, in which the playback timing automatic designation means sets the playback timing to a point on the time axis that is a given time from the timing when the recording stop instruction is given.

第10又は第11の発明によれば、再生タイミングを自動で指定することができる。 According to the tenth or eleventh invention, the playback timing can be automatically specified.

第12の発明は、前記比較表示制御手段が、前記ライブ画像と前記再生画像とを重畳的に表示する制御を行う、第7~第11の何れかの発明のプログラムである。 The twelfth invention is a program according to any one of the seventh to eleventh inventions, in which the comparative display control means controls the display of the live image and the playback image in a superimposed manner.

第12の発明によれば、ライブ画像と再生画像とを重畳的に表示できるようになる。 According to the twelfth invention, it becomes possible to display a live image and a playback image in a superimposed manner.

第13の発明は、前記ライブ画像と前記再生画像との一致度合を判定し、所定の適合条件を満たすか否かを判定する一致判定手段、前記一致判定手段により前記適合条件を満たすと判定された場合にユーザに適合通知を行う適合通知制御手段、として前記コンピュータを機能させるための第7~第12の何れかの発明のプログラムである。 The thirteenth invention is a program according to any one of the seventh to twelfth inventions for causing the computer to function as a match determination means for determining the degree of match between the live image and the reproduced image and determining whether or not a predetermined match condition is met, and a match notification control means for notifying a user of the match when the match determination means determines that the match condition is met.

第13の発明によれば、ライブ画像と再生画像が所定の適合条件を満たす程に一致していることを自動的に判定し、ユーザにその旨を通知できるようになる。 According to the thirteenth invention, it becomes possible to automatically determine whether a live image and a reproduced image match to such an extent that a predetermined matching condition is satisfied, and to notify the user of this fact.

第14の発明は、前記記録制御手段が、所与の記録停止指示に応じて記録を停止し、所与の記録再開指示に応じて記録を再開し、前記ライブ画像と前記再生画像との一致度合を判定し、所定の適合条件を満たすか否かを判定する一致判定手段、前記一致判定手段により前記適合条件を満たすと判定された場合に前記記録再開指示を与える自動記録開始手段、として前記コンピュータを機能させるための第7~第13の何れかの発明のプログラムである。 The fourteenth invention is a program according to any one of the seventh to thirteenth inventions for causing the computer to function as a matching determination means for stopping recording in response to a given instruction to stop recording, restarting recording in response to a given instruction to restart recording, determining the degree of matching between the live image and the played-back image, and determining whether a predetermined matching condition is met, and an automatic recording start means for issuing an instruction to restart recording when the matching determination means determines that the matching condition is met.

第14の発明によれば、カメラワークデータの記録が停止されている状態で、一致判定の結果が適合条件を満たす場合に、自動的に記録を開始(再開)できるようになる。そして、適合条件を適切に設定すれば、記録されているカメラワークデータの再生タイミングに、新たに開始されるカメラワークデータを繋げて、映像的に繋がった一連のカメラワークを再現できることになる。 According to the fourteenth invention, when the recording of camerawork data is stopped, if the result of the match determination satisfies the compatibility condition, it becomes possible to automatically start (resume) recording. Then, by appropriately setting the compatibility condition, it becomes possible to reproduce a series of visually connected camerawork by linking the newly started camerawork data to the playback timing of the recorded camerawork data.

第15の発明は、前記コンピュータが、ズーム倍率を変更可能な撮影部を備え、前記被写体オブジェクトは、前記撮影部の撮影画像に基づくAR(Augmented Reality)キャラクタであり、前記仮想カメラ制御手段は、前記仮想カメラの撮影画角を前記ズーム倍率に連動させて制御し、前記記録制御手段は、前記仮想カメラの撮影画角を再現可能なデータを前記カメラワークデータに含めて記録する、第1~第14の何れかの発明のプログラムである。 The fifteenth invention is a program according to any one of the first to fourteenth inventions, in which the computer includes a shooting unit capable of changing the zoom magnification, the subject object is an AR (Augmented Reality) character based on an image captured by the shooting unit, the virtual camera control means controls the shooting angle of view of the virtual camera in conjunction with the zoom magnification, and the recording control means records data capable of reproducing the shooting angle of view of the virtual camera by including it in the camerawork data.

第15の発明によれば、ARキャラクタを、ズームを駆使して撮影したカメラワークデータを記録できる。 According to the fifteenth aspect of the invention, camerawork data can be recorded that captures an AR character using zoom.

第16の発明は、位置および姿勢を計測した計測データを取得する制御を行う計測データ取得制御手段と、被写体オブジェクトが配置された仮想3次元空間を設定する仮想空間設定手段と、前記仮想3次元空間を撮影する仮想カメラの位置および姿勢を、前記計測データに連動させて制御する仮想カメラ制御手段と、前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成手段と、前記仮想カメラ制御手段によって連続的に制御された前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録する記録制御手段と、を備えた電子機器である。 The sixteenth invention is an electronic device comprising: a measurement data acquisition control means for controlling the acquisition of measurement data obtained by measuring a position and an orientation; a virtual space setting means for setting a virtual three-dimensional space in which a subject object is placed; a virtual camera control means for controlling the position and orientation of a virtual camera that captures the virtual three-dimensional space in conjunction with the measurement data; a virtual space image generation means for generating an image of the virtual three-dimensional space captured by the virtual camera; and a recording control means for recording camerawork data capable of reproducing the position and orientation of the virtual camera in the virtual three-dimensional space continuously controlled by the virtual camera control means.

第16の発明によれば、第1の発明と同様の効果が得られる電子機器を実現できる。 According to the sixteenth invention, an electronic device that can achieve the same effect as the first invention can be realized.

第17の発明は、携帯型のコンピュータが実行するデータ記録方法であって、
前記コンピュータの位置および姿勢を計測した計測データを取得する制御を行う計測データ取得制御ステップと、
被写体オブジェクトが配置された仮想3次元空間を設定する仮想空間設定ステップと、
前記仮想3次元空間を撮影する仮想カメラの位置および姿勢を、前記計測データに連動させて制御する仮想カメラ制御ステップと、
前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成ステップと、
前記仮想カメラ制御ステップによって連続的に制御された前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録する記録制御ステップと、
を含むデータ記録方法である。
A seventeenth aspect of the present invention is a data recording method executed by a portable computer, comprising:
a measurement data acquisition control step of controlling acquisition of measurement data obtained by measuring the position and attitude of the computer;
a virtual space setting step of setting a virtual three-dimensional space in which a subject object is placed;
a virtual camera control step of controlling a position and an attitude of a virtual camera that captures the virtual three-dimensional space in conjunction with the measurement data;
a virtual space image generating step of generating an image of the virtual three-dimensional space captured by the virtual camera;
a recording and control step of recording camerawork data capable of reproducing the position and attitude of the virtual camera in the virtual three-dimensional space continuously controlled by the virtual camera control step;
A data recording method comprising the steps of:

第17の発明によれば、第1の発明と同様の効果が得られるデータ記録方法を実現できる。 According to the seventeenth aspect, a data recording method can be realized that provides the same effect as the first aspect.

拡張現実動画生成システムの構成例を示す図。FIG. 1 is a diagram showing an example of the configuration of an augmented reality video generation system. ユーザ端末の構成例を示す正面図。FIG. 4 is a front view showing a configuration example of a user terminal. ユーザ端末における拡張現実を用いた被写体の表示制御に関して説明するための図。1A and 1B are diagrams for explaining display control of a subject using augmented reality in a user terminal. 本実施形態で取得できるカメラワークの移動軌跡について説明するための図。5A to 5C are diagrams for explaining a movement trajectory of camera work that can be acquired in this embodiment. カメラワークデータのデータ構成例を示す図。FIG. 4 is a diagram showing an example of the data structure of camera work data. 張現実動画の生成に必要とされる情報・データのサーバシステムへアップロードについて説明するための図。10 is a diagram for explaining uploading of information and data required for generating an ambitious video to a server system. FIG. サーバシステムによる拡張現実画像の動画データの生成について説明するための図。FIG. 11 is a diagram for explaining generation of video data of an augmented reality image by the server system. カメラワークデータの記録の手動操作による一時停止について説明するための図。11 is a diagram for explaining a manual pause of recording of camerawork data. FIG. カメラワークデータの記録の自動的な一時停止について説明するための図。11 is a diagram for explaining automatic pausing of recording of camerawork data. FIG. 一時停止されたカメラワークデータの記録の再開について説明するための図。FIG. 13 is a diagram for explaining resumption of recording of camerawork data that has been temporarily stopped. 自動時間遡及について説明するための図。FIG. 13 is a diagram for explaining automatic time retrogression. カメラワークデータの記録再開について説明するための図。FIG. 11 is a diagram for explaining restart of recording of camerawork data. ユーザ端末の機能構成の一例を示す機能ブロック図。FIG. 4 is a functional block diagram showing an example of a functional configuration of a user terminal. 端末記憶部が記憶するプログラムやデータの例を示す図。FIG. 4 is a diagram showing examples of programs and data stored in a terminal storage unit. ユーザ端末における処理の流れを説明するためのフローチャート。10 is a flowchart illustrating a process flow in a user terminal. 記録中断再開処理の流れを説明するためのフローチャート。11 is a flowchart for explaining the flow of a recording interruption/resumption process. 図16より続くフローチャート。17 is a flowchart continuing from FIG. 16 .

以下、本発明の実施形態の一例を説明するが、本発明を適用可能な形態が以下の実施形態に限られないことは勿論である。 An example of an embodiment of the present invention will be described below, but it goes without saying that the forms to which the present invention can be applied are not limited to the following embodiment.

図1は、拡張現実動画生成システムの構成例を示す図である。
拡張現実動画生成システム1000は、拡張現実の動画を作成するサービスを提供するコンピュータシステムであって、ネットワーク9を介して相互にデータ通信が可能に接続されたサーバシステム1100と、ユーザ端末1500とを含む。
FIG. 1 is a diagram illustrating an example of the configuration of an augmented reality video generation system.
The augmented reality video generation system 1000 is a computer system that provides a service for creating augmented reality videos, and includes a server system 1100 and a user terminal 1500 that are connected to each other via a network 9 so that data communication is possible.

ネットワーク9は、データ通信が可能な通信路を意味する。すなわち、ネットワーク9とは、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLAN(Local Area Network)の他、電話通信網やケーブル網、インターネット等の通信網を含む意味であり、また、通信方法については有線/無線を問わない。 The network 9 refers to a communication path that allows data communication. In other words, the network 9 includes a dedicated line (dedicated cable) for direct connection, a LAN (Local Area Network) such as Ethernet (registered trademark), a telephone communication network, a cable network, the Internet, and other communication networks, and the communication method can be either wired or wireless.

サーバシステム1100は、例えば、キーボード1106と、タッチパネル1108と、ストレージ1140とを有し、本体装置には制御基板1150を搭載する。 The server system 1100 has, for example, a keyboard 1106, a touch panel 1108, and storage 1140, and the main unit is equipped with a control board 1150.

制御基板1150には、CPU(Central Processing Unit)1151やGPU(Graphics Processing Unit)、DSP(Digital Signal Processor)などの各種マイクロプロセッサ、VRAMやRAM,ROM等の各種ICメモリ1152、通信装置1153が搭載されている。なお、制御基板1150の一部又は全部は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field-Programmable Gate Array)、SoC(System on a Chip)により実現するとしてもよい。 The control board 1150 is equipped with various microprocessors such as a CPU (Central Processing Unit) 1151, a GPU (Graphics Processing Unit), and a DSP (Digital Signal Processor), various IC memories 1152 such as a VRAM, RAM, and ROM, and a communication device 1153. Note that a part or the whole of the control board 1150 may be realized by an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a SoC (System on a Chip).

そして、サーバシステム1100は、制御基板1150が所定のプログラムおよびデータに基づいて演算処理することにより、ユーザ端末1500で作成・記録されたカメラワークデータ(詳細後述)に基づいて拡張現実の画像(拡張現実画像)を生成し、拡張現実画像の動画データをユーザに提供する機能を実現する。 The server system 1100 then realizes the function of generating an augmented reality image (augmented reality image) based on camerawork data (described in detail below) created and recorded by the user terminal 1500, and providing the user with video data of the augmented reality image, by the control board 1150 performing calculations based on a specified program and data.

なお、図1では、ユーザ端末1500を1台のみ描いているが、実際のシステム運用においては、同時に複数のユーザ端末1500がサーバシステム1100にアクセス可能な構成であってもよい。 Note that while Figure 1 shows only one user terminal 1500, in actual system operation, multiple user terminals 1500 may be configured to access the server system 1100 at the same time.

また、サーバシステム1100を、1台のサーバ装置であるかのように描いているが、複数の装置で実現する構成であってもよい。例えば、サーバシステム1100は各機能を分担する複数のブレードサーバを搭載して相互に内部バスを介してデータ通信可能に接続した構成であってもよい。また、サーバシステム1100を構成するハードウェアの設置場所は問わない。離れた場所に設置された独立した複数のサーバを、ネットワーク9を介してデータ通信させることで、全体としてサーバシステム1100として機能させる構成であってもよい。 Although the server system 1100 is depicted as if it were a single server device, it may be realized by a configuration of multiple devices. For example, the server system 1100 may be configured to include multiple blade servers each sharing a function, connected to each other via an internal bus so that data communication is possible. Furthermore, the location of the hardware that constitutes the server system 1100 does not matter. It may be configured so that multiple independent servers installed in remote locations communicate data via the network 9, and function as the server system 1100 as a whole.

ユーザ端末1500は、ユーザ2が、拡張現実画像の生成のためのデータ取得に使用するコンピュータシステムであって、ネットワーク9を介してサーバシステム1100にアクセスできる電子装置(電子機器)である。本実施形態のユーザ端末1500は、いわゆるスマートフォンと呼ばれる装置であるが、手持ち可能なコンピュータシステムであれば、携帯型ゲーム装置や、タブレット型コンピュータ、などでもよい。 The user terminal 1500 is a computer system used by the user 2 to acquire data for generating an augmented reality image, and is an electronic device that can access the server system 1100 via the network 9. The user terminal 1500 in this embodiment is a device known as a smartphone, but it may also be a handheld computer system such as a portable game device or a tablet computer.

図2は、本実施形態におけるユーザ端末1500の構成例を示す正面図である。
ユーザ端末1500は、方向入力キー1502と、ボタンスイッチ1504と、画像表示デバイス兼接触位置入力デバイスとして機能するタッチパネル1506と、スピーカ1510と、内蔵バッテリー1509と、マイク1512と、カメラ1520と、制御基板1550と、コンピュータ読み出し可能な記憶媒体であるメモリカード1540からデータを読み書きできるメモリカード読取装置1542と、を備える。その他、図示されていない電源ボタン、音量調節ボタン等が設けられている。また、システム利用対価の支払いが可能なICカード型のクレジットカードやプリペイドカードに対して非接触にデータの読み書きが行えるICカード読取装置などを設けるとしてもよい。
FIG. 2 is a front view showing an example of the configuration of a user terminal 1500 in this embodiment.
The user terminal 1500 includes a directional input key 1502, a button switch 1504, a touch panel 1506 that functions as an image display device and a touch position input device, a speaker 1510, an internal battery 1509, a microphone 1512, a camera 1520, a control board 1550, and a memory card reader 1542 that can read and write data from a memory card 1540 that is a computer-readable storage medium. In addition, a power button, a volume control button, etc. that are not shown are provided. In addition, an IC card reader that can read and write data contactlessly from an IC card type credit card or prepaid card that can be used to pay for system usage may be provided.

カメラ1520は、ズーム倍率を変更可能なイメージセンサーユニットである。すなわち、カメラ1520は、CCD(Charge Coupled Device)などのイメージセンサ、ズーム機構、オートフォーカス機構、イメージセンサで撮影された信号から映像データを生成するLSI、などの各種デジタル動画撮影を可能とする構成要素を含む。 Camera 1520 is an image sensor unit with a variable zoom magnification. That is, camera 1520 includes various components that enable digital video capture, such as an image sensor such as a CCD (Charge Coupled Device), a zoom mechanism, an autofocus mechanism, and an LSI that generates video data from a signal captured by the image sensor.

制御基板1550は、1)CPU1551や、GPU,DSPなどの各種マイクロプロセッサ、2)VRAMやRAM,ROM等の各種ICメモリ1552、3)ネットワーク9に接続する携帯電話基地局や無線LAN基地局などと無線通信するための無線通信モジュール1553、4)測位モジュール1555、5)3軸加速度センサ1556、6)3軸ジャイロ1557、7)インターフェース回路1558、などを搭載する。 The control board 1550 is equipped with: 1) a CPU 1551 and various microprocessors such as a GPU and DSP; 2) various IC memories 1552 such as a VRAM, RAM and ROM; 3) a wireless communication module 1553 for wireless communication with mobile phone base stations and wireless LAN base stations connected to the network 9; 4) a positioning module 1555; 5) a three-axis acceleration sensor 1556; 6) a three-axis gyro 1557; 7) an interface circuit 1558; and the like.

測位モジュール1555は、ユーザ端末1500の位置を取得する。本実施形態では既存の測位システムを利用して現実空間における位置座標を取得することができる。すなわち、測位モジュール1555は、測位システムから提供される信号を受信して所定周期で(例えば1秒毎に)測位情報を出力することで、ユーザ端末1500における測位機能を提供する。本実施形態では、測位システムとしてGPS(Global Positioning System)を利用する。よって測位モジュール1555は、既存の「GPSモジュール」や「GPS受信器」等を利用することができる。「測位情報」には、測位日時(例えば協定世界時であるUTC:Coordinated Universal Time)、位置座標(緯度・経度・高度)、方位などが含まれる。利用する測位システムはGPSに限らず適宜選択可能である。例えば、測位モジュール1555は、携帯電話の無線基地局やWi-Fiネットワークの無線基地局などと無線接続する通信機と、方位センサとの構成で置き換えることができる。すなわち、接続中の無線基地局について予め測位されている位置情報を取得して、これをユーザ端末1500の現実空間における位置座標とするとしてもよい。 The positioning module 1555 acquires the position of the user terminal 1500. In this embodiment, the position coordinates in the real space can be acquired using an existing positioning system. That is, the positioning module 1555 provides a positioning function in the user terminal 1500 by receiving a signal provided by the positioning system and outputting positioning information at a predetermined period (for example, every second). In this embodiment, the positioning module 1555 uses GPS (Global Positioning System) as the positioning system. Therefore, the positioning module 1555 can use an existing "GPS module" or "GPS receiver". The "positioning information" includes the positioning date and time (for example, UTC: Coordinated Universal Time), position coordinates (latitude, longitude, altitude), direction, etc. The positioning system to be used is not limited to GPS and can be appropriately selected. For example, the positioning module 1555 can be replaced with a configuration of a communication device that wirelessly connects to a wireless base station of a mobile phone or a wireless base station of a Wi-Fi network, and a direction sensor. That is, the location information that has been previously determined for the connected wireless base station may be acquired and used as the location coordinates of the user terminal 1500 in real space.

インターフェース回路1558には、タッチパネル1506のドライバ回路、方向入力キー1502およびボタンスイッチ1504からの信号を受信する回路、スピーカ1510へ音声信号を出力する出力アンプ回路、マイク1512で集音した音声の信号を生成する入力信号生成回路、カメラ1520で撮影された画像の画像データを入力する回路、メモリカード読取装置1542への信号入出力回路、などが含まれている。 The interface circuit 1558 includes a driver circuit for the touch panel 1506, a circuit for receiving signals from the directional input keys 1502 and button switches 1504, an output amplifier circuit for outputting audio signals to the speaker 1510, an input signal generation circuit for generating audio signals collected by the microphone 1512, a circuit for inputting image data of an image captured by the camera 1520, and a signal input/output circuit for the memory card reader 1542.

制御基板1550に搭載されているこれらの要素は、バス回路などを介して電気的に接続され、データの読み書きや信号の送受信が可能に接続されている。なお、制御基板1550の一部又は全部をASICやFPGA、SoCにて構成してもよい。そして、制御基板1550は、本実施形態のユーザ端末としての機能を実現させるためのプログラムや各種データをICメモリ1552に記憶する。 These elements mounted on the control board 1550 are electrically connected via a bus circuit or the like, and are connected so that data can be read and written and signals can be sent and received. Note that part or all of the control board 1550 may be configured using an ASIC, FPGA, or SoC. The control board 1550 stores programs and various data for realizing the functions of the user terminal of this embodiment in the IC memory 1552.

なお、本実施形態では、ユーザ端末1500はプログラムや各種設定データをサーバシステム1100からダウンロードする構成としているが、別途入手したメモリカード1540などの記憶媒体から読み出す構成としてもよい。 In this embodiment, the user terminal 1500 is configured to download programs and various setting data from the server system 1100, but it may also be configured to read them from a storage medium such as a memory card 1540 obtained separately.

図3は、ユーザ端末1500における拡張現実(Augmented Reality)を用いた被写体の表示制御に関して説明するための図である。
ユーザ端末1500は、拡張現実を用いて、タッチパネル1506に被写体を表示させることができる。すなわち、現実空間にはARマーカ5が設置されており、ユーザ2は、このARマーカ5を撮影するようにユーザ端末1500の位置・姿勢と、カメラ1520のズームを調整する。カメラ1520で撮影された画像内のARマーカ5の画像は画像認識処理されて、ユーザ端末1500とARマーカ5との相対位置や相対姿勢の算出処理に用いられる。ARマーカ5との相対位置や相対姿勢は、ユーザ端末1500の位置や姿勢の計測データとなる。
FIG. 3 is a diagram for explaining display control of a subject using augmented reality in the user terminal 1500. In FIG.
The user terminal 1500 can use augmented reality to display a subject on the touch panel 1506. That is, an AR marker 5 is placed in real space, and the user 2 adjusts the position and orientation of the user terminal 1500 and the zoom of the camera 1520 to capture the AR marker 5. The image of the AR marker 5 in the image captured by the camera 1520 is subjected to image recognition processing and used in calculation processing of the relative position and relative orientation between the user terminal 1500 and the AR marker 5. The relative position and relative orientation with respect to the AR marker 5 become measurement data of the position and orientation of the user terminal 1500.

ユーザ端末1500は、算出された相対位置や相対姿勢と、3軸加速度センサ1556や3軸ジャイロ1557を用いて得られるユーザ端末1500の加速度および姿勢の計測データとから、カメラ1520の位置変化と姿勢変化とを常時取得することができる。また、カメラ1520のズーム操作により撮影画角(ズーム倍率とも言われる)の情報も周期的に取得することができる。以降では、相対位置や、相対姿勢、位置変化、姿勢変化、撮影画角と言ったいわゆる撮影条件を記述するパラメータ値、およびこれらを求めるための元になるARマーカ5の大きさや向き、姿勢データや加速度データ、ズーム制御値、センサの計測値などを総括して「実撮影条件」と呼ぶこととする。 The user terminal 1500 can constantly acquire the position and attitude changes of the camera 1520 from the calculated relative position and relative attitude, and the measurement data of the acceleration and attitude of the user terminal 1500 obtained using the three-axis acceleration sensor 1556 and three-axis gyro 1557. In addition, information on the shooting angle of view (also called the zoom magnification) can be periodically acquired by zooming the camera 1520. Hereinafter, parameter values that describe the so-called shooting conditions, such as the relative position, relative attitude, position change, attitude change, and shooting angle of view, as well as the size and orientation of the AR marker 5, attitude data, acceleration data, zoom control values, sensor measurement values, and the like that are the basis for calculating these, will be collectively referred to as the "actual shooting conditions".

実撮影条件を取得する一方、ユーザ端末1500は、仮想3次元空間に、被写体オブジェクト4を配置してその動作を制御することができる。本実施形態では、被写体オブジェクト4は、人の形態をした仮想キャラクタであり、カメラ1520で撮影された撮影画像に基づくAR(Augmented Reality)キャラクタである。ユーザ端末1500は、予め用意された所与の楽曲データと、当該楽曲データの楽曲と同期するモーションを実現するための所定のモーションデータと、を用いて、被写体オブジェクト4が楽曲を歌いながら踊るように動作制御する。 While acquiring the actual shooting conditions, the user terminal 1500 can place the subject object 4 in a virtual three-dimensional space and control its movement. In this embodiment, the subject object 4 is a virtual character in the form of a human, and is an AR (Augmented Reality) character based on an image captured by the camera 1520. The user terminal 1500 controls the movement of the subject object 4 so that it dances while singing the music, using given music data prepared in advance and predetermined motion data for realizing motion synchronized with the music of the music data.

仮想3次元空間には、カメラ1520の実撮影条件のパラメータ値に連動し、その撮影位置・撮影姿勢・撮影画角が制御される仮想カメラC1が配置される。ユーザ端末1500は、仮想カメラC1で撮影した仮想3次元空間の画像すなわち仮想空間画像90を生成して、これを現実空間の画像(現実空間画像92)に重畳表示させて、タッチパネル1506に表示させる。つまり、拡張現実の画像(拡張現実画像94)を表示させる。 In the virtual three-dimensional space, a virtual camera C1 is placed, whose shooting position, shooting attitude, and shooting angle of view are controlled in conjunction with parameter values of the actual shooting conditions of the camera 1520. The user terminal 1500 generates an image of the virtual three-dimensional space captured by the virtual camera C1, i.e., a virtual space image 90, and displays this image superimposed on an image of real space (real space image 92) on the touch panel 1506. In other words, an augmented reality image (augmented reality image 94) is displayed.

ユーザ2は、ユーザ端末1500へ所定の記録開始操作を入力してから、タッチパネル1506に表示される被写体オブジェクト4が楽曲を歌いながら踊る様子をファインダー画像に見立てて、携帯型ビデオカメラで撮影する要領で、ユーザ端末1500を現実空間で移動させ、時に姿勢を変え、時にズーム倍率を変える撮影操作をする。つまり、カメラワークをつける。 After inputting a predetermined recording start operation into the user terminal 1500, the user 2 treats the subject object 4 displayed on the touch panel 1506 singing and dancing to music as a viewfinder image, and performs shooting operations by moving the user terminal 1500 in real space, sometimes changing its position, and sometimes changing the zoom magnification, in a manner similar to filming with a portable video camera. In other words, the user performs camerawork.

図4に示すように、撮影操作により生じる移動軌跡L1は、人が携帯型ビデオカメラを操作したときに生じる手ブレ等に相当する「ゆらぎ」を含む。 As shown in FIG. 4, the movement trajectory L1 caused by the shooting operation includes "wobble" that corresponds to camera shake that occurs when a person operates a portable video camera.

そして、ユーザ端末1500は、ユーザ2による所定の記録開始操作の入力を検出すると、例えば図5に示すようなカメラワークデータ550の記録を開始する。
カメラワークデータ550は、固有の撮影ID551と、撮影開始日時553と、撮影終了日時555と、実撮影条件データ560と、仮想撮影条件データ570と、カメラ1520で撮影されていた現実空間画像92を録画した現実画像録画データ580と、仮想空間画像90を録画した仮想空間画像録画データ582と、を含む。勿論、これら以外のデータ、も適宜含めることができるし、適宜省略することもできる。
Then, when the user terminal 1500 detects input of a predetermined recording start operation by the user 2, it starts recording camerawork data 550 as shown in FIG. 5, for example.
The camerawork data 550 includes a unique shooting ID 551, a shooting start date and time 553, a shooting end date and time 555, actual shooting condition data 560, virtual shooting condition data 570, real image recording data 580 in which the real space image 92 captured by the camera 1520 is recorded, and virtual space image recording data 582 in which the virtual space image 90 is recorded. Of course, data other than these may be included as appropriate, or may be omitted as appropriate.

実撮影条件データ560は、例えば、
1)ARマーカ5を基準に求められた相対姿勢、および/又は3軸ジャイロ1557による計測データを時系列に格納した実カメラ姿勢データ561と、
2)ARマーカ5を基準に求められた撮影位置変化から求められる加速度、および/又は3軸加速度センサ1556による計測データを時系列に格納した実カメラ加速度データ563と、
3)カメラ1520のズーム倍率(撮影画角)或いはズーム倍率の制御パラメータ値を時系列に格納した実ズーム制御データ565と、
4)ARマーカ5を基準に求められたカメラ1520の撮影位置を時系列にトレースした移動軌跡L1を記述する実移動軌跡データ567と、
を含む。
The actual shooting condition data 560 is, for example,
1) Actual camera attitude data 561 in which a relative attitude calculated based on the AR marker 5 and/or measurement data obtained by the three-axis gyro 1557 are stored in chronological order;
2) real camera acceleration data 563 in which acceleration calculated from a change in shooting position based on the AR marker 5 and/or measurement data by the three-axis acceleration sensor 1556 are stored in chronological order;
3) Actual zoom control data 565 in which the zoom magnification (photographing angle of view) of the camera 1520 or the control parameter value of the zoom magnification is stored in chronological order;
4) actual movement trajectory data 567 describing a movement trajectory L1 obtained by tracing the shooting position of the camera 1520 in time series based on the AR marker 5; and
including.

仮想撮影条件データ570は、仮想カメラC1の仮想3次元空間内における撮影条件についてのデータであって、ユーザ端末1500の位置や姿勢の計測データに連動させて制御するために求められたパラメータ値である。 The virtual shooting condition data 570 is data about the shooting conditions in the virtual three-dimensional space of the virtual camera C1, and is a parameter value calculated for control in conjunction with the measurement data of the position and orientation of the user terminal 1500.

仮想撮影条件データ570は、例えば、
1)実カメラ姿勢データ561から求められる仮想カメラC1の撮影姿勢を時系列に格納した仮想カメラ姿勢データ571と、
2)実カメラ加速度データ563から求められる仮想カメラC1に生じている加速度を時系列に格納した仮想カメラ加速度データ573と、
3)実ズーム制御データ565から求められる仮想カメラC1の撮影画角(又はズーム倍率)を時系列に格納した仮想カメラ撮影画角データ575と、
4)実移動軌跡データ567に基づいて移動軌跡L1を仮想3次空間内で再現した仮想カメラC1の移動軌跡Lcを記述する仮想カメラ移動軌跡データ577と、
を含む。
The virtual shooting condition data 570 is, for example,
1) Virtual camera attitude data 571 in which the shooting attitude of the virtual camera C1 obtained from the real camera attitude data 561 is stored in chronological order;
2) Virtual camera acceleration data 573 in which the acceleration occurring in the virtual camera C1 obtained from the real camera acceleration data 563 is stored in chronological order; and
3) Virtual camera shooting angle of view data 575 in which the shooting angle of view (or zoom magnification) of the virtual camera C1 calculated from the actual zoom control data 565 is stored in chronological order; and
4) virtual camera trajectory data 577 describing a trajectory Lc of a virtual camera C1 that reproduces the trajectory L1 in a virtual three-dimensional space based on the actual trajectory data 567;
including.

なお、実撮影条件データ560のタイムコードすなわち時間軸と、仮想撮影条件データ570とのタイムコードは、楽曲の再生や被写体オブジェクト4の動作制御のタイムコードと同期させて記録されるものとする。また、実撮影条件データ560と、仮想撮影条件データ570は、何れか一方を省略し、必要に応じて残された側から省略された側の撮影条件データを求める構成としてもよい。 The time code, i.e., the time axis, of the actual shooting condition data 560 and the time code of the virtual shooting condition data 570 are recorded in synchronization with the time code of the music playback and the motion control of the subject object 4. In addition, either the actual shooting condition data 560 or the virtual shooting condition data 570 may be omitted, and the shooting condition data of the omitted side may be obtained from the remaining side as necessary.

ユーザ2が所定の記録停止操作を入力すると、ユーザ端末1500はカメラワークデータ550の記録を停止し、図6に示すように、拡張現実動画の生成に必要とされる情報・データをサーバシステム1100へアップロードする。具体的には、例えば、被写体オブジェクト4のモデルデータ510、モーションデータ512、楽曲データ514、カメラワークデータ550、をアップロードする。勿論、これら以外のデータも適宜アップロードするとしてもよい。例えば、仮想3次元空間内に、被写体オブジェクト4が立つ舞台装置などの背景オブジェクトを用意した場合には、そのモデルデータやモーションデータなど、表示と動作を実現するためのデータも、アップロードする。 When user 2 inputs a predetermined recording stop operation, user terminal 1500 stops recording camerawork data 550 and uploads the information and data required to generate the augmented reality video to server system 1100, as shown in FIG. 6. Specifically, for example, model data 510, motion data 512, music data 514, and camerawork data 550 of subject object 4 are uploaded. Of course, other data may also be uploaded as appropriate. For example, if a background object such as a stage set on which subject object 4 stands is prepared in the virtual three-dimensional space, data for realizing the display and operation, such as its model data and motion data, is also uploaded.

なお、モデルデータ510や、モーションデータ512、楽曲データ514、について予めサーバシステム1100に記録されているデータを事前にユーザ端末1500にダウンロードしてカメラワークデータ550の記録時に使用した場合は、適宜これらのデータのアップロードは省略できる。また、モデルデータ510や、モーションデータ512、楽曲データ514は、ユーザ2の自作・他作は問わない。 Note that if model data 510, motion data 512, and music data 514 that have been recorded in advance in server system 1100 are downloaded to user terminal 1500 in advance and used when recording camerawork data 550, uploading of these data can be omitted as appropriate. Also, it does not matter whether model data 510, motion data 512, and music data 514 have been created by user 2 or by others.

図7は、サーバシステム1100による拡張現実の動画の生成について説明するための図である。サーバシステム1100は、被写体オブジェクト4のモデルデータ510、モーションデータ512、楽曲データ514、カメラワークデータ550、がアップロードされると、それらのデータに基づいて、仮想3次元空間に被写体オブジェクト4や背景オブジェクトを配置し、楽曲の再生と同期させてその動作を制御する。更に、楽曲の再生と同期させて、アップロードされたカメラワークデータ550に基づいて仮想カメラC2を制御する。 Figure 7 is a diagram for explaining the generation of augmented reality video by the server system 1100. When the model data 510 of the subject object 4, the motion data 512, the music data 514, and the camerawork data 550 are uploaded, the server system 1100 places the subject object 4 and background objects in a virtual three-dimensional space based on the data, and controls their movements in synchronization with the playback of the music. Furthermore, the server system 1100 controls the virtual camera C2 based on the uploaded camerawork data 550 in synchronization with the playback of the music.

そして、サーバシステム1100は、仮想カメラC2で撮影された仮想3次元空間内の画像(仮想現実画像)を生成して、アップロードされたカメラワークデータ550に含まれる現実画像録画データ580に重畳表示させて、拡張現実の動画のデータ(拡張現実動画データ584)を作成する。 Then, the server system 1100 generates an image (virtual reality image) of the virtual three-dimensional space captured by the virtual camera C2, and superimposes it on the real image recording data 580 included in the uploaded camerawork data 550 to create augmented reality video data (augmented reality video data 584).

こうして作成された拡張現実の動画では、人が携帯型ビデオカメラを操作したときに見られる「ゆらぎ」による画面の揺れなどが再現されており、「ユーザ自らがビデオカメラを手に持って撮影した」リアリティのある拡張現実の動画となっている。 The augmented reality videos created in this way reproduce the screen shaking caused by the "wobble" that is seen when a person operates a portable video camera, making them realistic augmented reality videos that "seem as if the user were holding the video camera in their hands and filming it."

さて、本実施形態ではカメラワークデータ550の記録を一時停止したり、記録を再開することができる。
図8は、カメラワークデータ550の記録の手動操作による一時停止について説明するための図である。ユーザ端末1500は、カメラワークデータ550の記録中、タッチパネル1506にて撮影画面W8を表示する。
In this embodiment, the recording of the camerawork data 550 can be temporarily stopped or resumed.
8 is a diagram for explaining a manual operation for pausing the recording of the camerawork data 550. The user terminal 1500 displays a shooting screen W8 on the touch panel 1506 while the camerawork data 550 is being recorded.

撮影画面W8には、1)撮影中の画像を表示するモニタ表示10と、2)タイムコード11と、3)撮影や記録の現在の状態を示す状態通知表示12と、4)新規の記録開始操作を入力するための記録開始操作アイコン13と、5)カメラワークデータ550の記録を一時的に停止させる一時停止操作を入力するための中断操作アイコン14と、6)一時停止されていたカメラワークデータ550の記録を再び開始する意味の記録開始操作である記録再開操作を入力するための再開操作アイコン15と、7)記録の終了に相当する記録終了操作を入力するための記録終了操作アイコン16と、を含む。一時停止操作および記録終了操作は、いずれも記録を停止させる操作ということができ、記録開始操作および記録再開操作は、いずれも記録を開始させる操作ということができる。 The shooting screen W8 includes: 1) a monitor display 10 that displays the image being shot; 2) a time code 11; 3) a status notification display 12 that shows the current shooting or recording status; 4) a start recording operation icon 13 for inputting a new start recording operation; 5) an interruption operation icon 14 for inputting a pause operation that temporarily stops the recording of the camerawork data 550; 6) a resume operation icon 15 for inputting a resume recording operation that is a start recording operation that restarts the recording of the camerawork data 550 that was paused; and 7) an end recording operation icon 16 for inputting an end recording operation that corresponds to the end of recording. The pause operation and the end recording operation can both be said to be operations that stop recording, and the start recording operation and the resume recording operation can both be said to be operations that start recording.

そして、ユーザ2は、中断操作アイコン14と再開操作アイコン15とを適宜にタッチ操作で選択することで、任意のタイミングでカメラワークデータ550の記録を一時停止したり再開したりすることができる。 Then, user 2 can pause or resume recording of camerawork data 550 at any time by appropriately selecting interrupt operation icon 14 or resume operation icon 15 by touch operation.

図9は、カメラワークデータ550の記録の自動的な一時停止について説明するための図である。カメラワークデータ550の記録中、ユーザ端末1500は3軸加速度センサ1556で計測される加速度や、3軸ジャイロ1557で計測される姿勢を常時監視している。そして、ユーザ端末1500は、加速度が所定の位置不適変化条件を満たす場合と、姿勢が所定の姿勢不適変化条件を満たす場合との、何れかが満たされた場合に、自動的に記録を一時停止し、自動停止通知19をタッチパネル1506に表示することでユーザ2に通知する。 Figure 9 is a diagram for explaining the automatic pausing of recording of camera work data 550. During recording of camera work data 550, user terminal 1500 constantly monitors the acceleration measured by triaxial acceleration sensor 1556 and the posture measured by triaxial gyro 1557. Then, when either the acceleration satisfies a predetermined inappropriate position change condition or the posture satisfies a predetermined inappropriate posture change condition, user terminal 1500 automatically pauses recording and notifies user 2 by displaying automatic stop notification 19 on touch panel 1506.

ここで言う「位置不適変化条件」とは、映像表現の演出としても度を超えるような過度な画面ブレが生じたようなカメラ1520の位置変化を、3軸加速度センサ1556で計測される加速度変化の条件として記述したものである。
同じように、ここで言う「姿勢不適変化条件」とは、映像表現の演出としても度を超えるような過度な画面ブレが生じたようなカメラ1520の姿勢変化を3軸ジャイロ1557で計測される姿勢変化の条件として記述したものである。
The “inappropriate position change condition” referred to here is a description, as a condition of acceleration change measured by the three-axis acceleration sensor 1556, of a position change of the camera 1520 that causes excessive screen shaking that goes beyond the limits of video expression.
Similarly, the "conditions for unsuitable posture change" referred to here are described as conditions for posture change of the camera 1520 that result in excessive screen shaking that goes beyond the limits of video presentation, as measured by the three-axis gyro 1557.

言い換えると、これらの条件は、カメラを急激に動かし過ぎた状態を定義するものである。ユーザ端末1500が、これらの条件に基づいて自動的な一時停止制御を行う。この結果、ユーザ2が中断操作アイコン14を操作することなく、ユーザ2が意図的にユーザ端末1500の位置を急激に変化させるような動作をしたり、ユーザ端末1500を急に倒すような動作をするだけでカメラワークデータ550の記録を一時停止できるため、操作性が向上する。また、ユーザ2が誤ってユーザ端末1500を落下させたり、撮影に夢中で躓くといったハプニングが起こった場合に、自動的に一時停止されるので、ハプニング後にも無駄な記録が続くことを防止できる。 In other words, these conditions define a state in which the camera has been moved too suddenly. The user terminal 1500 performs automatic pause control based on these conditions. As a result, the recording of the camerawork data 550 can be paused simply by the user 2 intentionally performing an action that abruptly changes the position of the user terminal 1500 or by suddenly tipping the user terminal 1500, without the user 2 operating the interrupt operation icon 14, improving operability. Also, if an unexpected event occurs in which the user 2 accidentally drops the user terminal 1500 or trips while engrossed in filming, the automatic pause prevents unnecessary recording from continuing after the unexpected event.

図10は、一時停止されたカメラワークデータ550の記録の再開について説明するための図である。ユーザ2は、直前に記録したカメラワークデータ550の任意の再開タイミングから記録の再開を行うことができる。 Figure 10 is a diagram for explaining the resumption of recording of the paused camerawork data 550. User 2 can resume recording from any desired resumption timing of the previously recorded camerawork data 550.

一時停止後の撮影画面W10には、再開タイミングの指定操作の入力を受け付けるためのシークバー20が追加表示される。ユーザ2は、シークバー20のスライダーの位置をずらして再開タイミングを指定操作することができる。 After pausing, a seek bar 20 is additionally displayed on the shooting screen W10 to receive input for specifying the timing to resume. User 2 can specify the timing to resume by shifting the position of the slider on the seek bar 20.

そして、再開タイミングを指定操作すると、モニタ表示10には、今現在の実撮影条件に基づく仮想カメラC1で撮影されているライブ画像30に、シークバー20のスライダーの位置に対応する再開タイミングで撮影された再開タイミング時仮想空間画像32が、合成表示される。 When the restart timing is specified, the monitor display 10 displays a virtual space image 32 at the restart timing, which was taken at the restart timing corresponding to the slider position of the seek bar 20, superimposed on a live image 30 taken by the virtual camera C1 based on the current actual shooting conditions.

再開タイミング時仮想空間画像32は、直近過去に記録されたカメラワークデータ550の仮想空間画像録画データ582(図5参照)から、指定された再開タイミングを再生タイミングと見なして再生した再生画像である。或いは、モーションデータ512と仮想撮影条件データ570から、再開タイミングにおける画像を再度生成して得るとしてもよい。 The virtual space image 32 at the restart timing is a playback image that is played back from the virtual space image recording data 582 (see FIG. 5) of the camerawork data 550 recorded most recently, with the specified restart timing regarded as the playback timing. Alternatively, the image at the restart timing may be regenerated from the motion data 512 and the virtual shooting condition data 570.

ここで言う「合成表示」は、ライブ画像30と再開タイミング時仮想空間画像32とを一時停止後の撮影画面W10にて比較可能な態様で表示できるのであれば、その表示のさせ方は適宜設定可能である。例えば、ライブ画像30と再開タイミング時仮想空間画像32の何れか一方を半透明処理して他方に重畳表示させる合成表示としてもよい。或いは、再開タイミング時仮想空間画像32から輪郭線抽出処理を実行して、抽出された輪郭線をライブ画像30に重畳表示させる合成表示としてもよい。或いは、一時停止後の撮影画面W10を分割してライブ画像30と再開タイミング時仮想空間画像32を並べて表示するとしてもよい。また、比較可能な態様で表示を行った後、記録が再開された時にはその比較可能な態様の表示を解除して、ライブ画像30のみを表示させるようにしてもよい。また、合成される画像の素材に着目すると、撮影画面では、通常は拡張現実画像をライブ画像30に表示するが、ここで言う合成表示に限って、現実空間の画像と重畳表示させずに仮想空間画像のみを比較可能に表示するとしてもよい。同様に、合成表示に限って、現在の現実空間画像と、再開タイミングとされている過去時点における現実空間画像と、を比較可能に表示するとしてもよい。 The "composite display" referred to here can be set as appropriate as long as the live image 30 and the virtual space image 32 at the time of restart can be displayed in a comparable manner on the shooting screen W10 after the pause. For example, the composite display may be a display in which one of the live image 30 and the virtual space image 32 at the time of restart is semi-transparently processed and superimposed on the other. Alternatively, a contour line extraction process may be performed from the virtual space image 32 at the time of restart, and the extracted contour line may be superimposed on the live image 30. Alternatively, the shooting screen W10 after the pause may be divided to display the live image 30 and the virtual space image 32 at the time of restart side by side. After displaying in a comparable manner, when recording is resumed, the display of the comparable manner may be canceled and only the live image 30 may be displayed. In addition, focusing on the material of the image to be composited, an augmented reality image is usually displayed on the live image 30 on the shooting screen, but only the composite display referred to here may be displayed in a comparable manner without superimposing it on the real space image. Similarly, for composite display only, the current real-space image and a real-space image at a past point in time that is set as the resume timing may be displayed for comparison.

なお、再開タイミングの初期位置は、ユーザ端末1500が自動的に指定して、シークバー20を表示する際にユーザに提示することとする。例えば図11に示すように、ユーザ端末1500は、直前に記録されたカメラワークデータ550の終端タイミングから所定時間分(例えば1秒間)、タイムコード(時間軸)を時間遡及した時点を再開タイミングの初期位置として指定・提示する。 The initial position of the restart timing is automatically specified by the user terminal 1500 and presented to the user when the seek bar 20 is displayed. For example, as shown in FIG. 11, the user terminal 1500 specifies and presents as the initial position of the restart timing a point in time obtained by going back in time on the time code (time axis) a predetermined time (e.g., one second) from the end timing of the most recently recorded camerawork data 550.

ここで言う「時間遡及」の所定時間は、位置不適変化条件や姿勢不適変化条件が満たされるような事象が起きた場合に、撮影された画像が過度にブレて使えない画像になっていると想定される時間である。例えば、数秒程度以内に設定することができる。自動時間遡及によって、シークバー20の初期位置が、撮影された画像が過度にブレて使えない画像になっている直前の想定位置となるため、ユーザにとっては再開タイミングを探す手間が省ける。 The specified time for "time retroactive" here is the time when it is assumed that the captured image will be too blurred to be unusable if an event occurs that satisfies the improper position change condition or the improper posture change condition. For example, it can be set to within a few seconds. Automatic time retroactively sets the initial position of the seek bar 20 to the assumed position just before the captured image becomes too blurred to be unusable, saving the user the trouble of searching for the right timing to resume.

図12は、カメラワークデータ550の記録再開について説明するための図である。
ユーザ端末1500は、再開タイミングの指定後、カメラワークデータ550の記録を再開する処理は「即時再開」と「一致検出再開」の2通りのうちユーザ2の希望する処理を実行する。
FIG. 12 is a diagram for explaining resumption of recording of camera work data 550. In FIG.
After the restart timing is specified, the user terminal 1500 executes the process for restarting the recording of the camerawork data 550 according to the user's preference from two options, "immediate restart" and "match detection restart."

再開操作アイコン15への比較的短時間でのタッチ操作である標準的なタッチ操作が為された場合、ユーザ端末1500は、「即時再開」処理を実行し、即座にカメラワークデータ550の記録を再開する。或いは、所定秒数のカウントダウンを行って再開する。 When a standard touch operation, which is a touch operation performed in a relatively short time, is performed on the resume operation icon 15, the user terminal 1500 executes an "immediate resume" process and immediately resumes recording of the camerawork data 550. Alternatively, the recording is resumed after a countdown of a predetermined number of seconds.

一方、再開操作アイコン15へタッチして比較的長い時間タッチ状態を維持してから指を離すいわゆる「長押しタッチ操作」が為された場合、ユーザ端末1500は、「一致検出再開」処理を実行し、ライブ画像30と、再開タイミング時仮想空間画像32と、の比較を行い一致度合を判定する。そして、判定した一致度合が、所定の適合条件を満たしたならば、両画像が一致したと認められることをユーザ2に告げる適合通知34を表示して、記録を再開する。ここで言う「適合条件」は、適宜設定可能であるが、それぞれの画像について輪郭線を抽出し、両者が一致することを条件とすると好適である。 On the other hand, when a so-called "long press touch operation" is performed in which the resume operation icon 15 is touched and maintained in a touched state for a comparatively long time before being released, the user terminal 1500 executes a "match detection resume" process, compares the live image 30 with the virtual space image 32 at the time of the resume, and determines the degree of match. If the determined degree of match satisfies a predetermined match condition, a match notification 34 is displayed informing the user 2 that the two images are recognized as a match, and recording is resumed. The "match condition" referred to here can be set as appropriate, but it is preferable to extract the contours of each image and set the condition that the two match.

なお、記録再開の処理は、上述のようにタッチの長さで指定する以外にも、アイコンを操作してどちらの再開処理を行うかを決める構成でもよい。また、ユーザ2の選択操作によらずに、どちらか一方の再開処理をユーザ端末1500が自動実行してもよい。例えば、予め、どちらか一方の再開処理がデフォルトとして決まっていてもよいし、一時停止時点のユーザ端末1500の位置や姿勢と現時点におけるユーザ端末1500の位置や姿勢が所与の近似条件を満たす場合には、「即時再開」で実行し、近似条件を満たさない場合は「一致検出再開」で実行するようにしてもよい。 In addition, the recording resume process may be specified by the length of touch as described above, or an icon may be operated to determine which resume process to perform. Furthermore, the user terminal 1500 may automatically execute one of the resume processes, regardless of the selection operation of the user 2. For example, one of the resume processes may be determined in advance as a default, or if the position or orientation of the user terminal 1500 at the time of the pause and the current position or orientation of the user terminal 1500 satisfy a given approximation condition, the process may be executed as "immediate resume," and if the approximation condition is not satisfied, the process may be executed as "match detection resume."

また、適合条件を満たしているかの判定は、ライブ画像30に拡張現実画像を表示する場合でも、現実空間画像に重畳される仮想空間画像同士を比較して、適合条件を満たしているか判定するとしてもよい。 In addition, even when an augmented reality image is displayed on the live image 30, the determination of whether the compatibility conditions are met may be made by comparing the virtual space images superimposed on the real space image to determine whether the compatibility conditions are met.

図13は、本実施形態におけるユーザ端末1500の機能構成例を示す機能ブロック図である。ユーザ端末1500は、操作入力部100と、測位部102と、加速度計測部106と、姿勢計測部108と、音声入力部110と、撮影部120と、端末処理部200と、音出力部390と、画像表示部392と、通信部394と、端末記憶部500とを備える。 FIG. 13 is a functional block diagram showing an example of the functional configuration of a user terminal 1500 in this embodiment. The user terminal 1500 includes an operation input unit 100, a positioning unit 102, an acceleration measurement unit 106, an attitude measurement unit 108, an audio input unit 110, an image capture unit 120, a device processing unit 200, a sound output unit 390, an image display unit 392, a communication unit 394, and a device storage unit 500.

操作入力部100は、プレーヤによってなされた各種の操作入力に応じた操作入力信号を端末処理部200に出力する。例えば、プッシュスイッチや、ジョイスティック、タッチパッド、トラックボール、加速度センサ、ジャイロ、CCDモジュール、などによって実現できる。図2の方向入力キー1502や、ボタンスイッチ1504、タッチパネル1506、がこれに該当する。 The operation input unit 100 outputs operation input signals corresponding to various operation inputs made by the player to the device processing unit 200. For example, this can be realized by a push switch, joystick, touch pad, track ball, acceleration sensor, gyro, CCD module, etc. Examples of this include the directional input keys 1502, button switches 1504, and touch panel 1506 in Figure 2.

測位部102は、ユーザ端末1500の位置情報を取得し端末処理部200へ出力する。図2の測位モジュール1555がこれに該当する。 The positioning unit 102 acquires the location information of the user terminal 1500 and outputs it to the terminal processing unit 200. This corresponds to the positioning module 1555 in Figure 2.

加速度計測部106は、ユーザ端末1500に生じた加速度を計測し、端末処理部200へ出力する。図2の3軸加速度センサ1556がこれに該当する。 The acceleration measurement unit 106 measures the acceleration occurring in the user terminal 1500 and outputs it to the device processing unit 200. This corresponds to the three-axis acceleration sensor 1556 in Figure 2.

姿勢計測部108は、ユーザ端末1500の姿勢変化を計測し、端末処理部200へ出力する。図2の3軸ジャイロ1557がこれに該当する。 The posture measurement unit 108 measures the posture change of the user terminal 1500 and outputs it to the device processing unit 200. This corresponds to the three-axis gyro 1557 in Figure 2.

音声入力部110は、ユーザが発する音声(ユーザ音声)や環境音を集音し、音声信号を端末処理部200へ出力する。図2のマイク1210がこれに該当する。 The audio input unit 110 collects the voice generated by the user (user voice) and environmental sounds, and outputs audio signals to the device processing unit 200. This corresponds to the microphone 1210 in FIG. 2.

撮影部120は、外部の様子を撮影し、その画像データを生成して端末処理部200へ出力する。図2のカメラ1520がこれに該当する。 The image capturing unit 120 captures the outside world, generates image data, and outputs the data to the device processing unit 200. This corresponds to the camera 1520 in FIG. 2.

端末処理部200は、例えばCPUやGPU等のマイクロプロセッサや、ICメモリなどの電子部品によって実現され、操作入力部100や端末記憶部500を含む各機能部との間でデータの入出力制御を行う。そして、所定のプログラムやデータ、操作入力部100からの操作入力信号、サーバシステム1100から受信した各種データに基づいて各種の演算処理を実行して、ユーザ端末1500の動作を制御する。図2の制御基板1550がこれに該当する。
そして、本実施形態における端末処理部200は、カメラワーク記録管理部202と、計時部280と、音生成部290と、画像生成部292と、通信制御部294と、を有する。
The device processing unit 200 is realized by electronic components such as a microprocessor such as a CPU or a GPU, and an IC memory, and controls input and output of data between each functional unit including the operation input unit 100 and the terminal storage unit 500. Then, it executes various arithmetic processes based on predetermined programs and data, operation input signals from the operation input unit 100, and various data received from the server system 1100, to control the operation of the user terminal 1500. This corresponds to the control board 1550 in FIG. 2.
The device processing unit 200 in this embodiment has a camerawork record management unit 202 , a timing unit 280 , a sound generation unit 290 , an image generation unit 292 , and a communication control unit 294 .

カメラワーク記録管理部202は、カメラワークデータ550の記録に係る各種処理を実行する。具体的には、カメラワーク記録管理部202は、計測データ取得制御部210と、仮想空間設定部212と、被写体制御部214と、仮想カメラ制御部216と、仮想空間画像生成制御部218と、拡張現実画像生成制御部220と、サウンド出力制御部222と、記録制御部224と、操作指示制御部226と、不適変化時自動停止制御部228と、記録停止通知制御部230と、再生画像生成制御部232と、比較表示制御部234と、再生タイミング手動指定制御部236と、再生タイミング自動指定制御部238と、一致判定部240と、適合通知制御部242と、自動記録開始制御部244と、を有する。勿論、これら以外の機能部も適宜含めることができる。 The camerawork record management unit 202 executes various processes related to the recording of the camerawork data 550. Specifically, the camerawork record management unit 202 has a measurement data acquisition control unit 210, a virtual space setting unit 212, a subject control unit 214, a virtual camera control unit 216, a virtual space image generation control unit 218, an augmented reality image generation control unit 220, a sound output control unit 222, a recording control unit 224, an operation instruction control unit 226, an inappropriate change automatic stop control unit 228, a recording stop notification control unit 230, a playback image generation control unit 232, a comparison display control unit 234, a playback timing manual designation control unit 236, an automatic playback timing designation control unit 238, a match determination unit 240, a conformity notification control unit 242, and an automatic recording start control unit 244. Of course, other functional units may also be included as appropriate.

計測データ取得制御部210は、ユーザ端末1500の位置および姿勢を計測した計測データを取得する制御を行う。本実施形態では、ユーザ端末1500に具備されたカメラ1520を用いて計測データを取得する。具体的には、拡張現実技術による制御を行う。すなわち、カメラ1520が撮影している画像からARマーカ5を認識し、相対位置・相対姿勢を算出して計測データとする(図3参照)。また、測位部102、加速度計測部106、姿勢計測部108の各計測データに基づいてユーザ端末1500の位置や姿勢、位置変化や姿勢変化、移動軌跡L1を求める制御もこれに該当する。データに着目すれば、実撮影条件データ560の生成制御も該当する。 The measurement data acquisition control unit 210 controls the acquisition of measurement data obtained by measuring the position and orientation of the user terminal 1500. In this embodiment, the measurement data is acquired using the camera 1520 provided in the user terminal 1500. Specifically, control is performed using augmented reality technology. That is, the AR marker 5 is recognized from the image captured by the camera 1520, and the relative position and relative orientation are calculated to obtain the measurement data (see FIG. 3). This also applies to the control of determining the position and orientation, position change, orientation change, and movement trajectory L1 of the user terminal 1500 based on the measurement data of the positioning unit 102, acceleration measurement unit 106, and orientation measurement unit 108. If we focus on the data, this also applies to the control of generating the actual shooting condition data 560.

なお、計測データの取得は、ユーザ端末1500に具備されたカメラ1520やセンサ類を用いる計測にて実現する場合に限らない。例えば、通信可能な外部装置から、ユーザ端末1500の位置や姿勢の計測データを取得する構成も可能である。具体的には、ユーザ端末1500と別体の位置姿勢計測装置を用意して、当該装置によりユーザ端末1500と位置や姿勢の基準となるもの(ARマーカ5など)との相対位置と相対姿勢とを計測し、計測データを逐一データ通信でユーザ端末1500に送信させるとしてもよい。その場合、当該位置姿勢計測装置による計測手法は、適宜設定可能である。例えば、赤外線ビームを照射して各部位の相対距離を計測する手法や、画像を撮影して画像解析して求める手法であってもよい。 Note that the acquisition of measurement data is not limited to the case where it is realized by measurement using the camera 1520 or sensors equipped in the user terminal 1500. For example, it is also possible to configure a configuration in which measurement data of the position and orientation of the user terminal 1500 is acquired from an external device with which communication is possible. Specifically, a position and orientation measurement device separate from the user terminal 1500 may be prepared, and the device may measure the relative position and relative orientation between the user terminal 1500 and an object that serves as a reference for the position and orientation (such as the AR marker 5), and the measurement data may be transmitted to the user terminal 1500 one by one via data communication. In this case, the measurement method by the position and orientation measurement device may be appropriately set. For example, it may be a method of measuring the relative distance between each part by irradiating an infrared beam, or a method of capturing an image and analyzing the image to obtain the measurement.

仮想空間設定部212は、被写体オブジェクトが配置された仮想3次元空間を設定する。背景オブジェクトが設定されている場合は、これも仮想3次元空間に配置・設定する。
本実施形態では、仮想空間設定部212は、システム管理者や運営事業者によって予め用意されている仮想3次元空間の設定データに基づいて、被写体オブジェクト4や背景オブジェクトを所定の初期位置に配置する。勿論、ユーザ2が、仮想3次元空間に配置するオブジェクトの初期位置や初期状態を設定できる構成であってもよい。その場合、ユーザ自身が作成した設定データに限らず、他ユーザが作成した設定データを用いるとしてもよい。
The virtual space setting unit 212 sets a virtual three-dimensional space in which the subject object is placed. If a background object is set, this is also placed and set in the virtual three-dimensional space.
In this embodiment, the virtual space setting unit 212 places the subject object 4 and background objects in predetermined initial positions based on setting data for the virtual three-dimensional space prepared in advance by a system administrator or an operating company. Of course, the configuration may be such that the user 2 can set the initial positions and initial states of the objects to be placed in the virtual three-dimensional space. In that case, setting data created by another user may be used, not limited to setting data created by the user himself.

被写体制御部214は、所与の時間軸に沿った所与の動作を被写体オブジェクトに行わせる制御をする。本実施形態では、被写体制御部214は、楽曲の再生と同期した動作制御を行う。すなわち、被写体制御部214は、サウンド(所与の楽曲及び/又は所与の音声)に合わせた動作を被写体オブジェクトに行わせる。その際、被写体制御部214は、記録開始指示に応じて時間軸を作動開始させて被写体オブジェクトの動作を開始させ、記録停止指示に応じて時間軸を停止させて被写体オブジェクトの動作を停止させる一斉制御を行う。 The subject control unit 214 controls the subject object to perform a given action along a given time axis. In this embodiment, the subject control unit 214 controls the action in synchronization with the playback of music. That is, the subject control unit 214 causes the subject object to perform an action in accordance with the sound (a given music and/or a given voice). In this case, the subject control unit 214 simultaneously controls to start the time axis in response to a recording start instruction to start the action of the subject object, and to stop the time axis in response to a recording stop instruction to stop the action of the subject object.

なお、一斉制御は、切替操作によってオン/オフが切り替え可能であり、被写体制御部214は、一斉制御がオンの場合には一斉制御を行い、オフの場合には記録開始指示および記録停止指示に関わらず被写体オブジェクトの動作制御を継続する。 The simultaneous control can be switched on/off by a switching operation, and the subject control unit 214 performs simultaneous control when the simultaneous control is on, and continues to control the operation of the subject object when the simultaneous control is off regardless of the recording start command or recording stop command.

仮想カメラ制御部216は、仮想3次元空間を撮影する仮想カメラの位置および姿勢を、位置や姿勢の計測データに連動させて制御する。データに着目すれば、仮想撮影条件データ570の生成制御もこれに該当する。そして、連動制御の際には、仮想カメラ制御部216は、仮想カメラC1の撮影画角を撮影部120のズーム倍率に連動させて制御する。また、仮想カメラ制御部216が、一時停止から記録を再開する際には、再開時のズーム倍率(すなわちライブ画像におけるズーム倍率)を、再開タイミングにおけるズーム倍率に合わせるように自動的に変更するとしてもよい。この場合、ユーザ2は記録を再開する際、ユーザ端末1500の位置と姿勢を再開タイミングの状態に合わせることに専念できるので好適である。 The virtual camera control unit 216 controls the position and orientation of the virtual camera that captures the virtual three-dimensional space in conjunction with the measurement data of the position and orientation. Focusing on the data, the generation control of the virtual shooting condition data 570 also falls under this category. During the linked control, the virtual camera control unit 216 controls the shooting angle of view of the virtual camera C1 in conjunction with the zoom magnification of the shooting unit 120. When the virtual camera control unit 216 resumes recording from a pause, the zoom magnification at the time of resumption (i.e. the zoom magnification in the live image) may be automatically changed to match the zoom magnification at the time of resumption. In this case, it is preferable because the user 2 can concentrate on adjusting the position and orientation of the user terminal 1500 to the state at the time of resumption when resuming recording.

仮想空間画像生成制御部218は、仮想カメラC1で撮影された仮想3次元空間の画像を生成する仮想空間画像生成手段の1つであって、生成制御を行う。 The virtual space image generation control unit 218 is one of the virtual space image generation means that generates an image of a virtual three-dimensional space captured by the virtual camera C1, and controls the generation.

拡張現実画像生成制御部220は、拡張現実画像を生成する制御を行う。本実施形態では、撮影画面W8のモニタ表示10へ表示される画像の生成制御がこれに該当する。 The augmented reality image generation control unit 220 controls the generation of an augmented reality image. In this embodiment, this corresponds to the generation control of the image displayed on the monitor display 10 of the shooting screen W8.

サウンド出力制御部222は、時間軸に沿った所与の楽曲及び/又は所与の音声を出力させる制御をする。本実施形態では、楽曲データ514に基づく楽曲の再生制御がこれに該当する。 The sound output control unit 222 controls the output of a given piece of music and/or a given sound along a time axis. In this embodiment, this corresponds to the control of the playback of a piece of music based on the music data 514.

記録制御部224は、仮想カメラ制御部216によって連続的に制御された仮想3次元空間中の仮想カメラC1の位置および姿勢を再現可能なカメラワークデータ550(図5参照)を記録する記録制御を行う。 The recording control unit 224 performs recording control to record camerawork data 550 (see FIG. 5) that can reproduce the position and attitude of the virtual camera C1 in the virtual three-dimensional space continuously controlled by the virtual camera control unit 216.

具体的には、記録制御部224は、仮想カメラC1の位置および姿勢を時間軸と対応付けて記録することで、時間軸に同期したカメラワークを再現可能なようにカメラワークデータ550を記録するように制御する。 Specifically, the recording control unit 224 controls the recording of the camerawork data 550 by recording the position and orientation of the virtual camera C1 in association with the time axis, so that camerawork synchronized with the time axis can be reproduced.

また、記録制御部224は、所与の記録開始指示に応じて記録を開始し、所与の記録停止指示に応じて記録を停止し、所与の記録再開指示に応じて記録を再開する。
また、記録制御部224は、仮想カメラの撮影画角を再現可能なデータをカメラワークデータに含めて記録する。
Furthermore, the recording control unit 224 starts recording in response to a given instruction to start recording, stops recording in response to a given instruction to stop recording, and resumes recording in response to a given instruction to resume recording.
Furthermore, the recording control unit 224 records data that can reproduce the shooting angle of view of the virtual camera by including it in the camerawork data.

操作指示制御部226は、所定の記録開始操作によって記録開始指示を与え、所定の記録停止操作によって記録停止指示を与える。 The operation instruction control unit 226 issues a recording start instruction by a specified recording start operation, and issues a recording stop instruction by a specified recording stop operation.

不適変化時自動停止制御部228は、位置や姿勢の計測データが、仮想3次元空間を撮影する際の不適な変化をしたことを示す所与の不適変化条件を満たしたことを検出し、当該検出に応じて記録停止指示を与える。 The inappropriate change automatic stop control unit 228 detects when the position and orientation measurement data meets a given inappropriate change condition that indicates that an inappropriate change has occurred when capturing an image of the virtual three-dimensional space, and issues an instruction to stop recording in response to this detection.

記録停止通知制御部230は、不適変化時自動停止制御部228による記録の停止をユーザに通知する制御を行う。本実施形態では、自動停止通知19(図9参照)の表示制御がこれに該当する。 The recording stop notification control unit 230 controls the notification to the user that recording has been stopped by the inappropriate change automatic stop control unit 228. In this embodiment, this corresponds to the display control of the automatic stop notification 19 (see FIG. 9).

再生画像生成制御部232は、記録制御部224により記録されたカメラワークデータ550に基づいて、当該カメラワークの所与の再生タイミングにおける仮想カメラからの仮想3次元空間の画像である再生画像を生成する制御を行う。本実施形態では、再生タイミングは、再開タイミングとして指定される。そして、仮想空間画像録画データ582からの再開タイミング時仮想空間画像32のデータの読み出し、或いは再生タイミングにおける被写体オブジェクト4の動作および仮想カメラC1のカメラワークを再現すること、がこれに該当する。 The playback image generation control unit 232 performs control to generate a playback image, which is an image of the virtual three-dimensional space from the virtual camera at a given playback timing of the camerawork, based on the camerawork data 550 recorded by the recording control unit 224. In this embodiment, the playback timing is specified as the resume timing. This corresponds to reading out the data of the virtual space image 32 at the resume timing from the virtual space image recording data 582, or reproducing the movement of the subject object 4 and the camerawork of the virtual camera C1 at the playback timing.

比較表示制御部234は、その時のライブ画像と、再生タイミングにおける再生画像とを比較可能な態様にて表示する制御を行う(図10参照)。具体的には、比較表示制御部234は、その時撮影されている仮想空間のライブ画像と再生画像とを重畳的に表示する制御を行う。
なお、比較対象として仮想空間画像ではなく、現実空間画像をライブ画像として用いる構成では、比較表示制御部234は、その時撮影されている現実空間画像と、再生タイミング時の現実空間画像とを、重畳的に表示する。
The comparative display control unit 234 controls the display of the live image at that time and the playback image at the playback timing in a comparative manner (see Fig. 10). Specifically, the comparative display control unit 234 controls the display of the live image of the virtual space being shot at that time and the playback image in a superimposed manner.
In addition, in a configuration in which a real space image rather than a virtual space image is used as a comparison target as a live image, the comparison display control unit 234 displays the real space image being captured at that time and the real space image at the playback timing in a superimposed manner.

再生タイミング手動指定制御部236は、ユーザの操作に基づいて再生タイミングを指定する制御を行う。 The playback timing manual designation control unit 236 controls the designation of playback timing based on user operations.

再生タイミング自動指定制御部238は、記録停止指示が与えられた場合に、当該記録停止指示が与えられたタイミングに基づく所与のプレイバックタイミングを再生タイミングとする。具体的には、再生タイミング自動指定制御部238は、記録停止指示が与えられたタイミング(実質的には、記録停止指示により記録停止されたカメラワークデータ550の終端タイミング)から所与の時間分、時間軸を遡った時点をプレイバックタイミングとする。 When a recording stop instruction is given, the playback timing automatic designation control unit 238 sets the playback timing to a given playback timing based on the timing at which the recording stop instruction was given. Specifically, the playback timing automatic designation control unit 238 sets the playback timing to a point going back on the time axis by a given amount of time from the timing at which the recording stop instruction was given (effectively, the end timing of the camerawork data 550 whose recording was stopped by the recording stop instruction).

一致判定部240は、ライブ画像と再生画像との一致度合を判定し、所定の適合条件を満たすか否かを判定する。 The match determination unit 240 determines the degree of match between the live image and the playback image and determines whether or not a specified match condition is met.

適合通知制御部242は、一致判定部240により適合条件を満たすと判定された場合にユーザに適合通知を行う制御をする。本実施形態では、適合通知34の表示制御がこれに該当する(図12参照)。 The conformance notification control unit 242 controls the display of a conformance notification to the user when the match determination unit 240 determines that the conformance conditions are met. In this embodiment, this corresponds to the display control of the conformance notification 34 (see FIG. 12).

自動記録開始制御部244は、一致判定部240により適合条件を満たすと判定された場合に記録開始指示を与える。 The automatic recording start control unit 244 issues a recording start instruction when the match determination unit 240 determines that the compatibility conditions are met.

計時部280は、システムクロックを利用して現在日時や制限時間等の計時を行う。 The timing unit 280 uses the system clock to measure the current date and time, time limits, etc.

音生成部290は、例えばデジタルシグナルプロセッサ(DSP)や、音声合成ICなどのプロセッサ、音声ファイルを再生可能なオーディオコーデック等によって実現され、ゲームに係る効果音やBGM、各種操作音の音信号を生成し、音出力部390に出力する。 The sound generation unit 290 is realized by, for example, a digital signal processor (DSP), a processor such as a voice synthesis IC, an audio codec capable of playing audio files, etc., and generates sound signals for game-related sound effects, background music, and various operation sounds, and outputs them to the sound output unit 390.

音出力部390は、音生成部290から入力される音信号に基づいて効果音やBGM等を音出力する装置によって実現される。図2のスピーカ1510がこれに該当する。 The sound output unit 390 is realized by a device that outputs sound effects, background music, etc. based on the sound signal input from the sound generation unit 290. This corresponds to the speaker 1510 in FIG. 2.

画像生成部292は、各種画像データの生成および画像表示部392にそれらの画像を表示させるための画像信号の生成出力などの制御を行う。本実施形態では、仮想空間画像、拡張現実画像、を生成する。 The image generation unit 292 controls the generation of various image data and the generation and output of image signals for displaying those images on the image display unit 392. In this embodiment, it generates virtual space images and augmented reality images.

画像表示部392は、画像生成部292から入力される画像信号に基づいて各種画像を表示する。例えば、フラットパネルディスプレイ、プロジェクター、ヘッドマウントディスプレイといった画像表示装置によって実現できる。本実施形態では、図2のタッチパネル1506がこれに該当する。 The image display unit 392 displays various images based on the image signal input from the image generation unit 292. For example, this can be realized by an image display device such as a flat panel display, a projector, or a head-mounted display. In this embodiment, this corresponds to the touch panel 1506 in FIG. 2.

通信制御部294は、データ通信に係るデータ処理を実行し、通信部394を介して外部装置とのデータのやりとりを実現する。 The communication control unit 294 executes data processing related to data communication and realizes data exchange with external devices via the communication unit 394.

通信部394は、ネットワーク9と接続して通信を実現する。例えば、無線通信機、モデム、TA(ターミナルアダプタ)、有線用の通信ケーブルのジャックや制御回路等によって実現され、図2の無線通信モジュール1553がこれに該当する。 The communication unit 394 connects to the network 9 to realize communication. For example, this is realized by a wireless communication device, a modem, a TA (terminal adapter), a jack for a wired communication cable, a control circuit, etc., and corresponds to the wireless communication module 1553 in FIG. 2.

端末記憶部500は、端末処理部200にユーザ端末1500を統合的に制御させるための諸機能を実現するためのプログラムや、各種データ等を記憶する。また、端末処理部200の作業領域として用いられ、端末処理部200が各種プログラムに従って実行した演算結果や操作入力部100から入力される入力データ等を一時的に記憶する。こうした機能は、例えばRAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD-ROMやDVDなどの光学ディスクなどによって実現される。図2の制御基板1550が搭載するICメモリ1552やメモリカード1540がこれに該当する。オンラインストレージを利用する構成も可能である。 The terminal storage unit 500 stores various data and programs for implementing various functions that allow the terminal processing unit 200 to comprehensively control the user terminal 1500. It is also used as a working area for the terminal processing unit 200, and temporarily stores the results of calculations executed by the terminal processing unit 200 according to various programs and input data input from the operation input unit 100. These functions are implemented, for example, by IC memory such as RAM or ROM, magnetic disks such as hard disks, and optical disks such as CD-ROMs and DVDs. This corresponds to the IC memory 1552 and memory card 1540 mounted on the control board 1550 in Figure 2. A configuration using online storage is also possible.

図14は、端末記憶部500が記憶するプログラムやデータの例を示す図である。
端末記憶部500は、カメラワーク記録管理プログラム502と、モデルデータ510と、モーションデータ512と、楽曲データ514と、カメラワークデータ550(図5参照)と、現在日時800と、を記憶する。勿論、これら以外のプログラムやデータも適宜記憶することができる。
FIG. 14 is a diagram showing an example of programs and data stored in the terminal storage unit 500. As shown in FIG.
The terminal storage unit 500 stores a camerawork record management program 502, model data 510, motion data 512, music data 514, camerawork data 550 (see FIG. 5 ), and a current date and time 800. Of course, other programs and data can also be stored as appropriate.

カメラワーク記録管理プログラム502は、端末処理部200にカメラワーク記録管理部202としての機能を実現する。 The camerawork record management program 502 realizes the functions of the camerawork record management unit 202 in the device processing unit 200.

次に、本実施形態の拡張現実動画生成システム1000の動作について説明する。
図15は、ユーザ端末1500における処理の流れを説明するためのフローチャートである。ここで説明する処理の流れは、ユーザ端末1500が、端末処理部200でカメラワーク記録管理プログラム502を実行することにより実装される。
Next, the operation of the augmented reality video generation system 1000 of this embodiment will be described.
15 is a flowchart for explaining the flow of processing in the user terminal 1500. The flow of processing explained here is implemented by the user terminal 1500 by executing the camerawork record management program 502 in the device processing unit 200.

ユーザ端末1500は、先ずユーザ端末1500の位置と姿勢の計測(位置姿勢計測)と、カメラ1520での撮影とを開始し(ステップS10)、タッチパネル1506に、撮影画面W8(図8参照)を表示させ、拡張現実画像の表示を開始する(ステップS12)。 The user terminal 1500 first starts measuring the position and orientation of the user terminal 1500 (position and orientation measurement) and capturing images with the camera 1520 (step S10), displays the capture screen W8 (see FIG. 8) on the touch panel 1506, and starts displaying an augmented reality image (step S12).

次に、ユーザ端末1500は、記録開始操作アイコン13(図8参照)へのタッチ操作を検出すると、新規の記録開始操作の入力(記録開始指示)がなされたと判断し(ステップS14)、カメラワークデータ550の新規の記録を開始する(ステップS16)。そして、記録終了操作アイコン16へのタッチ操作入力が検出されるまで、すなわち記録終了操作の入力を検出するまで(ステップS18のNO)、ユーザ端末1500は周期的に記録中断再開処理を実行する(ステップS20)。 Next, when the user terminal 1500 detects a touch operation on the record start operation icon 13 (see FIG. 8), it determines that a new record start operation (record start instruction) has been input (step S14), and starts new recording of the camerawork data 550 (step S16). Then, until a touch operation input on the record stop operation icon 16 is detected, that is, until a record stop operation input is detected (NO in step S18), the user terminal 1500 periodically executes the recording interruption/resume process (step S20).

図16~図17は、記録中断再開処理の流れを説明するためのフローチャートである。
図16に示すように、同処理において、ユーザ端末1500は、ユーザ端末1500の位置や姿勢の計測結果が、位置不適変化条件を満たした場合と(ステップS30のYES)、姿勢不適変化条件を満たした場合と(ステップS32のYES)、中断操作の入力が検出された場合と(ステップS34のYES)の何れかの場合、記録停止指示がなされたと判断して、カメラワークデータ550の記録を一時停止する(ステップS40)。
16 and 17 are flowcharts for explaining the flow of the recording interruption and resumption process.
As shown in FIG. 16, in this process, if the measurement results of the position or posture of the user terminal 1500 satisfy an inappropriate position change condition (YES in step S30), if the measurement results satisfy an inappropriate posture change condition (YES in step S32), or if an input of an interrupt operation is detected (YES in step S34), the user terminal 1500 determines that an instruction to stop recording has been made and temporarily suspends recording of the camerawork data 550 (step S40).

更にユーザ端末1500は、楽曲の再生と、被写体オブジェクト4の動作制御を一時停止し(ステップS42)、その旨の表示制御を行ってユーザに一時停止を通知する(ステップS44)。但し、カメラワークデータ550の記録停止にともなう被写体オブジェクト4の動作制御を一時停止する処理のオン/オフは、予めユーザによるON/OFF設定操作の対象とされ、ON/OFF設定操作の結果は端末記憶部500に記憶されるものとする。ユーザ端末1500は、これがONの場合には、ステップS42およびステップS44を実行し、OFFの場合にはスキップする。 The user terminal 1500 further pauses the playback of the music and the movement control of the subject object 4 (step S42), and notifies the user of the pause by controlling a display to that effect (step S44). However, the ON/OFF setting of the process of pausing the movement control of the subject object 4 accompanying the stopping of recording of the camerawork data 550 is subject to an ON/OFF setting operation performed in advance by the user, and the result of the ON/OFF setting operation is stored in the terminal storage unit 500. If this is ON, the user terminal 1500 executes steps S42 and S44, and if it is OFF, it skips.

次に、ユーザ端末1500は、再開タイミングの初期値を自動選択・自動指定する(ステップS46)。一時停止がユーザによる中断操作入力によるものであれば、再開タイミングを一時停止したカメラワークデータ550の終端タイミングとする。一時停止が、位置不適変化条件を満たした場合又は姿勢不適変化条件を満たした場合によるものであれば、自動時間遡及を行って再開タイミングを自動選択する(図11参照)。勿論、一時停止の理由がユーザによる操作入力か、不適変化を検出したかに係わらず、全てにおいて自動時間遡及を行うとしてもよいし、全てにおいて終端タイミングを再開タイミングとする構成も可能である。 Next, the user terminal 1500 automatically selects and automatically specifies the initial value of the resume timing (step S46). If the pause is due to an interrupt operation input by the user, the resume timing is set to the end timing of the paused camerawork data 550. If the pause is due to a condition for an inappropriate change in position or a condition for an inappropriate change in posture being satisfied, automatic time retrogression is performed to automatically select the resume timing (see FIG. 11). Of course, regardless of whether the reason for the pause is a user operation input or the detection of an inappropriate change, automatic time retrogression may be performed in all cases, and a configuration is also possible in which the end timing is set as the resume timing in all cases.

次に、ユーザ端末1500は、一時停止後の撮影画面W10(図10参照)にて、再開タイミング時仮想空間画像32とライブ画像30との比較が可能な同時表示を開始し(ステップS48)、シークバー20を表示させて再開タイミングのユーザ指定操作の入力の受け付けを開始する(ステップS50)。 Next, the user terminal 1500 starts a simultaneous display on the shooting screen W10 after the pause (see FIG. 10) that allows comparison of the virtual space image 32 at the time of the restart and the live image 30 (step S48), and starts accepting input of a user-specified operation for the restart timing by displaying the seek bar 20 (step S50).

図17に移って、再開タイミングの指定操作の入力を検出したならば(ステップS60のYES)、ユーザ端末1500は、再開タイミング時仮想空間画像32を指定された再開タイミング時点の画像に差し替えする(ステップS62)。そして、楽曲の再生位置と、被写体オブジェクト4の再生位置とを指定操作された再開タイミングの時点に合わせる(ステップS64)。 Moving on to FIG. 17, if input of a restart timing designation operation is detected (YES in step S60), the user terminal 1500 replaces the virtual space image 32 at the restart timing with an image at the time of the designated restart timing (step S62). Then, the playback position of the music and the playback position of the subject object 4 are aligned with the time of the designated restart timing (step S64).

次に、再開操作アイコン15への短い時間の単発的なタッチを検出すると、ユーザ端末1500は即時再開操作の入力(記録再開指示)がなされと判断し(ステップS70のYES;図12参照)、カメラワークデータ550の記録の再開と(ステップS82)、楽曲の再生と被写体オブジェクト4の動作制御とを再開する(ステップS84)。なお、再開タイミングが一時停止されていたカメラワークデータ550の終端タイミングでない場合は、指定された再開タイミングの時点から終端タイミングまでのデータは、記録再開されたデータで上書きされる。 Next, when a short, single touch on the resume operation icon 15 is detected, the user terminal 1500 determines that an immediate resume operation has been input (recording resume instruction) (YES in step S70; see FIG. 12), and resumes recording of the camerawork data 550 (step S82), and resumes playing the music and controlling the movement of the subject object 4 (step S84). Note that if the resume timing is not the end timing of the paused camerawork data 550, the data from the specified resume timing to the end timing is overwritten with the resumed recording data.

次いで、ユーザ端末1500は、記録再開の旨をユーザに通知する制御を行って(ステップS86)、記録中断再開処理を終了する。 Next, the user terminal 1500 performs control to notify the user that recording is to be resumed (step S86), and ends the recording interruption/resume process.

一方、再開操作アイコン15への長押しタッチを検出すると、ユーザ端末1500は自動再開操作の入力(記録再開指示)がなされたと判断し(ステップS72のYES;図12参照)、再開タイミング時仮想空間画像32とライブ画像30との一致度合の判定と、適合条件との照合を開始する(ステップS74)。また、一致度合が適合条件を満たした場合、画像が一致したと見なし、適合通知34を表示するともに、記録再開指示に基づく自動再開条件が満たされたと判断して、自動的に記録を再開する(ステップS82)。言い換えると、ユーザ端末1500は、一致判定の適合条件を満たすと判定された場合に記録再開指示を自ら与える。 On the other hand, when a long touch on the resume operation icon 15 is detected, the user terminal 1500 determines that an automatic resume operation has been input (recording resume instruction) (YES in step S72; see FIG. 12), and starts judging the degree of match between the virtual space image 32 and the live image 30 at the time of the resume, and checking against the compatibility conditions (step S74). Furthermore, if the degree of match satisfies the compatibility conditions, the images are deemed to match, a compatibility notification 34 is displayed, and recording is automatically resumed, judging that the automatic resume conditions based on the recording resume instruction have been met (step S82). In other words, the user terminal 1500 itself gives a recording resume instruction when it is determined that the compatibility conditions for match judgment are met.

そして、自動再開以降は、ユーザ端末1500は、即時再開と同様に、楽曲の再生と被写体オブジェクト4の動作制御とを再開し(ステップS84)、記録再開の旨をユーザに通知する制御を行って(ステップS86)、記録中断再開処理を終了する。 After automatic restart, the user terminal 1500 restarts the playback of the music and the control of the movement of the subject object 4 (step S84), in the same way as in the case of immediate restart, and notifies the user that recording has been restarted (step S86), and then ends the recording interruption and restart process.

なお、記録終了操作の入力が検出された場合は(ステップS90のYES)、ユーザ端末1500は、記録を一時停止したままでも記録中断再開処理を終了するともに、カメラワークデータ550の記録を終了することができる。 If an input to stop recording is detected (YES in step S90), the user terminal 1500 can end the recording interruption and resumption process even if recording remains paused, and can also end recording of the camerawork data 550.

図15に戻って、所定の記録停止操作の入力が検出されると(ステップS18のYES)、ユーザ端末1500は、カメラワークデータ550の記録を終了し(ステップS100)、楽曲の再生と被写体オブジェクト4の制御を終了し(ステップS102)、一連の処理を終了する。 Returning to FIG. 15, when input of a specified recording stop operation is detected (YES in step S18), the user terminal 1500 ends recording of the camerawork data 550 (step S100), ends playback of the music and control of the subject object 4 (step S102), and ends the series of processes.

なお、ユーザ端末1500は、記録されたカメラワークデータ550等のサーバシステム1100へのアップロードは、所定のアップロード操作の入力を検出すると実行する(図6参照)。そして、所定の拡張現実画像の生成リクエスト操作の入力を検出すると、ユーザ端末1500は、所定の生成リクエストをサーバシステム1100へ送信する。 The user terminal 1500 executes uploading of the recorded camerawork data 550, etc. to the server system 1100 when it detects input of a specified upload operation (see FIG. 6). Then, when it detects input of an operation to request generation of a specified augmented reality image, the user terminal 1500 transmits the specified generation request to the server system 1100.

サーバシステム1100は、生成リクエストを受信すると、送信元であるユーザ端末1500からアップロードされたカメラワークデータ550等を用いて、拡張現実画像の動画データを作成し、これをユーザ端末1500へ提供可能にする(図7参照)。 When the server system 1100 receives a generation request, it creates video data of the augmented reality image using the camerawork data 550, etc., uploaded from the user terminal 1500 that sent the request, and makes this available to the user terminal 1500 (see Figure 7).

このように、本実施形態によれば、「ユーザ自らがビデオカメラを手に持って撮影した」リアリティのある拡張現実の動画を簡単に作成できる。 In this way, this embodiment makes it easy to create augmented reality videos that have the same realism as if the user were "taking the video with a handheld video camera."

〔変形例〕
以上、本発明を適用した実施形態について説明したが、本発明を適用可能な形態は上記形態に限定されるものではなく適宜構成要素の追加・省略・変更を施すことができる。
[Modifications]
Although the embodiment to which the present invention is applied has been described above, the forms to which the present invention can be applied are not limited to the above-described forms, and constituent elements can be added, omitted, or modified as appropriate.

[変形例その1]
例えば、上記実施形態では、被写体オブジェクト4の数を1体として図示したが、同時に複数体用いてもよい。
[Modification 1]
For example, in the above embodiment, the number of subject objects 4 is illustrated as one, but a plurality of objects may be used at the same time.

[変形例その2]
また、上記実施形態では拡張現実(AR)の画像の動画を作成する例を示したが、上記実施形態は、仮想現実(VR)の画像の動画を作成する場合でも同様であり、上記実施形態の説明の「拡張現実」を「仮想現実」に適宜読み替えれば良い。
[Modification 2]
In addition, although the above embodiment shows an example of creating a video of an augmented reality (AR) image, the above embodiment is similar to the case of creating a video of a virtual reality (VR) image, and "augmented reality" in the explanation of the above embodiment may be appropriately replaced with "virtual reality."

[変形例その3]
また、上記実施形態では、ユーザ端末1500の位置や姿勢の計測にARマーカ5を用いる構成を例示したが、マーカレス方式の拡張現実技術を用いて位置や姿勢を計測するとしてもよい。
[Modification 3]
In addition, in the above embodiment, a configuration in which the AR marker 5 is used to measure the position and orientation of the user terminal 1500 is illustrated, but the position and orientation may be measured using a markerless augmented reality technology.

[変形例その4]
また、上記実施形態では、人の形態を有する仮想キャラクタが楽曲に合わせて歌って踊る様子を撮影する例を示したたが、被写体オブジェクト4は、動物でも良いし、植物、風景、乗り物、などでもよい。そして、被写体オブジェクトとしたものによっては、楽曲の再生や、楽曲に同期した動作制御も適宜省略可能である。
[Modification 4]
In the above embodiment, an example was shown in which a virtual character having a human form was photographed singing and dancing to music, but the subject object 4 may be an animal, a plant, a landscape, a vehicle, etc. Depending on the subject object, it may be possible to omit playing music or omit control of actions synchronized with music as appropriate.

[変形例その5]
また、上記実施形態では、カメラワークデータ550の記録の再開は、直近過去に記録したカメラワークデータ550を対象したが、これに限らない。例えば、上記実施形態におけるステップS60~ステップS82を別途、指定記録再開処理として、個別に実行可能な構成とし、ユーザに記録済のカメラワークデータ550を選択可能に提示して、選択されたカメラワークデータ550を対象に、指定記録再開処理を実行する構成も可能である。
[Modification 5]
In the above embodiment, the resumption of recording of the camerawork data 550 targets the most recently recorded camerawork data 550, but this is not limited to the above. For example, steps S60 to S82 in the above embodiment can be configured to be separately executable as a designated recording resume process, and the recorded camerawork data 550 can be presented to the user in a selectable manner, and the designated recording resume process can be executed for the selected camerawork data 550.

[変形例その6]
また、上記実施形態では、拡張現実画像の動画の生成をサーバシステム1100にて行う例を示したが、これをユーザ端末1500にて行う構成も可能である。
[Modification 6]
In addition, in the above embodiment, an example was shown in which the generation of the video of the augmented reality image was performed by the server system 1100, but a configuration in which this is performed by the user terminal 1500 is also possible.

[変形例その7]
また、上記実施形態では、撮影画面において表示する操作アイコンは、適宜状況に応じて選択することができる(図8、図10、図11、図12参照)。例えば、記録処理の実行状況に応じて、その時点においてユーザが操作可能なアイコンのみを表示するようにしてもよい。具体的には、記録中は、中断操作アイコン14と、記録終了アイコン16のみを表示し、一時停止中は、中断操作アイコン14に代えて再開操作アイコン15を表示する。
[Modification 7]
In the above embodiment, the operation icons displayed on the shooting screen can be selected according to the situation as appropriate (see Figs. 8, 10, 11, and 12). For example, depending on the execution status of the recording process, only icons that the user can operate at that time may be displayed. Specifically, during recording, only the interrupt operation icon 14 and the recording end icon 16 are displayed, and during pause, the resume operation icon 15 is displayed instead of the interrupt operation icon 14.

また、撮影画面において操作アイコンを用いずに、各種の操作入力を受け付けるとしてもよい。例えば、タッチパネルへのタッチ軌跡を使用したジェスチャによる入力で各種の操作を指示してもよいし、ユーザ端末1500の物理ボタンによる操作入力で指示してもよいし、画面へのタッチで一時停止(記録中に画面タッチで一時停止指示)と記録再開(一時停止中に画面タッチで再開指示)を指示するようにしてもよい。 In addition, various operation inputs may be accepted without using operation icons on the shooting screen. For example, various operations may be instructed by input using gestures that use touch trajectories on a touch panel, or by operation input using physical buttons on the user terminal 1500, or by touching the screen to instruct pausing (touching the screen while recording to instruct pausing) and resuming recording (touching the screen while paused to instruct resuming).

[変形例その8]
また、記録の自動停止の例として、ユーザ端末1500の位置や姿勢の急激な変化を検出した場合を例示したが、それ以外でも適宜自動停止を行う構成も可能である。
例えば、ユーザ端末1500のシステムからの通知(電源低下、他のアプリからの通知、電話の着信など)があった場合に記録を一時停止してもよい。また、ユーザ端末1500がユーザ2の操作入力に基づいてスリープモードに移行した場合に一時停止してもよい。また、ユーザ端末1500が、他のアプリケーションへの切替操作が入力された場合には記録を一時停止するとしてもよい。
[Variation 8]
Although the example of automatically stopping recording has been described as a case where a sudden change in the position or attitude of the user terminal 1500 is detected, it is also possible to configure the recording to be automatically stopped as appropriate in other cases.
For example, recording may be paused when there is a notification from the system of the user terminal 1500 (such as a power drop, a notification from another application, or an incoming call). Also, recording may be paused when the user terminal 1500 transitions to a sleep mode based on an operation input by the user 2. Also, recording may be paused when the user terminal 1500 receives an operation to switch to another application.

[変形例その9]
また、再開タイミングの設定については、上記実施形態では、再開タイミングの指定操作入力をシークバー20で受け付ける例を示したが、これに限らない。
例えば、ユーザ端末1500が、任意の複数の再開タイミング候補を自動選択し、その再開タイミング候補に対応する画像をそれぞれサムネイル画像で表示して、ユーザに選ばせるとしてもよい。その際、ユーザ端末1500の位置や姿勢の不適当な変化を検出して自動停止した場合、当該停止時点から所定時間ごとに遡ったタイミングを再開タイミング候補として含めると好適である。また、自動停止した停止時点から遡って、ユーザ端末1500の位置変化や姿勢変化がデータ上(加速度などのパラメータが所定範囲内になって)安定しているタイミングを再生タイミング候補としてもよい。更に言えば、ユーザ2による再開タイミングの手動選択を受け付けずに、ユーザ端末1500が再開タイミングを自動的に決定するとしてもよい。
[Modification 9]
In addition, in the above embodiment, the restart timing is set by receiving the operation input for designating the restart timing through the seek bar 20, but the present invention is not limited to this.
For example, the user terminal 1500 may automatically select any of a plurality of resume timing candidates, display images corresponding to the resume timing candidates as thumbnail images, and allow the user to select one. In this case, if the user terminal 1500 detects an inappropriate change in the position or posture of the user terminal 1500 and automatically stops, it is preferable to include timings going back a predetermined time from the time of the automatic stop as resume timing candidates. In addition, going back from the time of the automatic stop, timings at which the position change or posture change of the user terminal 1500 is stable in terms of data (parameters such as acceleration are within a predetermined range) may be set as playback timing candidates. Furthermore, the user terminal 1500 may automatically determine the resume timing without accepting manual selection of the resume timing by the user 2.

2…ユーザ
4…被写体オブジェクト
5…ARマーカ
11…タイムコード
13…記録開始操作アイコン
14…中断操作アイコン
15…再開操作アイコン
16…記録終了操作アイコン
19…自動停止通知
20…シークバー
30…ライブ画像
32…再開タイミング時仮想空間画像
34…適合通知
100…操作入力部
106…加速度計測部
108…姿勢計測部
120…撮影部
200…端末処理部
202…カメラワーク記録管理部
210…計測データ取得制御部
212…仮想空間設定部
214…被写体制御部
216…仮想カメラ制御部
218…仮想空間画像生成制御部
220…拡張現実画像生成制御部
222…サウンド出力制御部
224…記録制御部
226…操作指示制御部
228…不適変化時自動停止制御部
230…記録停止通知制御部
232…再生画像生成制御部
234…比較表示制御部
236…再生タイミング手動指定制御部
238…再生タイミング自動指定制御部
240…一致判定部
242…適合通知制御部
244…自動記録開始制御部
292…画像生成部
500…端末記憶部
502…カメラワーク記録管理プログラム
550…カメラワークデータ
560…実撮影条件データ
567…実移動軌跡データ
570…仮想撮影条件データ
577…仮想カメラ移動軌跡データ
580…現実画像録画データ
582…仮想空間画像録画データ
584…拡張現実動画データ
800…現在日時
1000…拡張現実動画生成システム
1100…サーバシステム
1500…ユーザ端末
1520…カメラ
1550…制御基板
1556…3軸加速度センサ
1557…3軸ジャイロ
C1…仮想カメラ
2...User 4...Subject object 5...AR marker 11...Time code 13...Record start operation icon 14...Interruption operation icon 15...Resume operation icon 16...Record end operation icon 19...Automatic stop notification 20...Seek bar 30...Live image 32...Virtual space image at time of resume timing 34...Compatibility notification 100...Operation input unit 106...Acceleration measurement unit 108...Posture measurement unit 120...Photographing unit 200...Device processing unit 202...Camerawork record management unit 210...Measurement data acquisition control unit 212...Virtual space setting unit 214...Subject control unit 216...Virtual camera control unit 218...Virtual space image generation control unit 220...Augmented reality image generation control unit 222...Sound output control unit 224...Recording control unit 226...Operation instruction control unit 228...Automatic stop control unit at inappropriate change 230...Recording stop notification control unit 232...Playback image generation control unit 234...Comparative display control unit 236...Manual playback timing designation control unit 238...Automatic playback timing designation control unit 240...Match determination unit 242...Compliance notification control unit 244...Automatic recording start control unit 292...Image generation unit 500...Terminal memory unit 502...Camerawork record management program 550...Camerawork data 560...Actual shooting condition data 567...Actual movement trajectory data 570...Virtual shooting condition data 577...Virtual camera movement trajectory data 580...Real image recording data 582...Virtual space image recording data 584...Augmented reality video data 800...Current date and time 1000...Augmented reality video generation system 1100...Server system 1500...User terminal 1520...Camera 1550...Control board 1556...3-axis acceleration sensor 1557...3-axis gyro C1...Virtual camera

Claims (21)

カメラおよび表示部を備えた携帯型のコンピュータが、前記カメラの撮影方向と連動制御される仮想カメラによって撮影された仮想3次元空間の画像を前記表示部に表示させる制御を行うためのプログラムであって、
被写体オブジェクト配置前記仮想3次元空間を設定する仮想空間設定手段、
所与の時間軸に沿った所与の動作を前記被写体オブジェクトに行わせる制御をする被写体制御手段、
前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成手段、
前記連動制御における前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録する記録制御手段、
として前記コンピュータを機能させ
前記記録制御手段は、前記時間軸に同期して前記カメラワークデータを記録することを、所与の記録開始指示に応じて開始し、所与の記録停止指示に応じて停止し、
前記被写体制御手段は、前記記録開始指示に応じて前記時間軸を作動開始させて前記被写体オブジェクトの動作を開始させ、前記記録停止指示に応じて前記時間軸を停止させて前記被写体オブジェクトの動作を停止させる一斉制御を行う、
プログラム。
A program for controlling a portable computer having a camera and a display unit to display on the display unit an image of a virtual three-dimensional space captured by a virtual camera that is controlled in conjunction with the shooting direction of the camera,
a virtual space setting means for setting the virtual three-dimensional space in which a subject object is placed ;
a subject control means for controlling the subject object to perform a given action along a given time axis;
a virtual space image generating means for generating an image of the virtual three-dimensional space captured by the virtual camera;
a recording control means for recording camerawork data capable of reproducing a position and an attitude of the virtual camera in the virtual three-dimensional space during the interlocking control ;
and causing the computer to function as
the recording control means starts recording the camerawork data in synchronization with the time axis in response to a given recording start instruction, and stops recording in response to a given recording stop instruction;
the subject control means performs simultaneous control to start the operation of the time axis in response to the recording start instruction to start the motion of the subject object, and to stop the operation of the time axis in response to the recording stop instruction to stop the motion of the subject object.
program.
前記時間軸に沿った所与の楽曲及び/又は所与の音声(以下包括して「サウンド」という)を出力させる制御をするサウンド出力制御手段、
として前記コンピュータを機能させ、
前記被写体制御手段は、前記サウンドに合わせた動作を前記被写体オブジェクトに行わせる、
請求項に記載のプログラム。
a sound output control means for controlling the output of a given piece of music and/or a given sound (hereinafter collectively referred to as "sound") along the time axis;
and causing the computer to function as
The subject control means causes the subject object to perform an action in accordance with the sound.
The program according to claim 1 .
前記一斉制御は、切替操作によってオン/オフが切り替え可能であり、
前記被写体制御手段は、前記一斉制御がオンの場合には前記一斉制御を行い、オフの場合には前記記録開始指示および前記記録停止指示に関わらず前記被写体オブジェクトの動作制御を継続する、
請求項1又は2に記載のプログラム。
The simultaneous control can be switched on/off by a switching operation,
the object control means performs the simultaneous control when the simultaneous control is on, and continues to control the motion of the object when the simultaneous control is off regardless of the recording start instruction and the recording stop instruction;
The program according to claim 1 or 2 .
カメラ及び表示部を備えた携帯型のコンピュータが、前記カメラの撮影方向と連動制御される仮想カメラによって撮影された仮想3次元空間の画像を前記表示部に表示させる制御を行うためのプログラムであって、
被写体オブジェクト配置前記仮想3次元空間を設定する仮想空間設定手段、
前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成手段、
前記連動制御における前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録する記録制御手段であって、所与の記録停止指示に応じて記録を停止し、所与の記録再開指示に応じて記録を再開する記録制御手段、
前記連動制御による前記仮想3次元空間を撮影中の不適な変化をしたことを示す前記撮影方向に基づく所与の不適変化条件を満たしたことを検出し、当該検出に応じて前記記録停止指示を与える不適変化時自動停止手段、
として前記コンピュータを機能させるためのプログラム。
A program for controlling a portable computer having a camera and a display unit to display on the display unit an image of a virtual three-dimensional space captured by a virtual camera that is controlled in conjunction with the shooting direction of the camera,
a virtual space setting means for setting the virtual three-dimensional space in which a subject object is placed ;
a virtual space image generating means for generating an image of the virtual three-dimensional space captured by the virtual camera;
a recording control means for recording camerawork data capable of reproducing a position and an attitude of the virtual camera in the virtual three-dimensional space in the interlocking control , the recording control means stopping recording in response to a given recording stop instruction and resuming recording in response to a given recording resume instruction;
an automatic stop means for detecting that a given inappropriate change condition based on the shooting direction, which indicates that an inappropriate change has occurred during shooting of the virtual three-dimensional space by the interlocking control, has been satisfied, and giving the recording stop instruction in response to the detection;
A program for causing the computer to function as a
カメラおよび表示部を備えた携帯型のコンピュータが、前記カメラの撮影方向と連動制御される仮想カメラによって撮影された仮想3次元空間の画像を前記表示部に表示させる制御を行うためのプログラムであって、
被写体オブジェクト配置前記仮想3次元空間を設定する仮想空間設定手段、
前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成手段、
前記連動制御における前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録する記録制御手段、
前記記録制御手段により記録された前記カメラワークデータの所与の再生タイミングにおける前記仮想カメラからの前記仮想3次元空間の画像である再生画像を生成する再生画像生成手段、
前記仮想空間画像生成手段により生成されている画像であるライブ画像と、前記再生画像とを、比較するための所定の表示態様で表示する制御を行う比較表示制御手段、
として前記コンピュータを機能させるためのプログラム。
A program for controlling a portable computer having a camera and a display unit to display on the display unit an image of a virtual three-dimensional space captured by a virtual camera that is controlled in conjunction with the shooting direction of the camera,
a virtual space setting means for setting the virtual three-dimensional space in which a subject object is placed ;
a virtual space image generating means for generating an image of the virtual three-dimensional space captured by the virtual camera;
a recording control means for recording camerawork data capable of reproducing a position and an attitude of the virtual camera in the virtual three-dimensional space during the interlocking control ;
a playback image generating means for generating a playback image which is an image of the virtual three-dimensional space from the virtual camera at a given playback timing of the camerawork data recorded by the recording control means;
a comparison display control means for controlling display of a live image, which is an image generated by the virtual space image generating means, and the reproduced image in a predetermined display mode for comparison;
A program for causing the computer to function as a
カメラおよび表示部を備えた携帯型のコンピュータが、前記カメラの撮影方向と連動制御される仮想カメラによって撮影された仮想3次元空間の画像を前記表示部に表示させる制御を行うためのプログラムであって、
被写体オブジェクト配置前記仮想3次元空間を設定する仮想空間設定手段、
前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成手段、
前記連動制御における前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録する記録制御手段、
前記記録制御手段により記録された前記カメラワークデータの所与の再生タイミングにおける現実空間の画像である再生画像と、現時点における現実空間の画像であるライブ画像とを、比較するための所定の表示態様で表示する制御を行う比較表示制御手段、
として前記コンピュータを機能させるためのプログラム。
A program for controlling a portable computer having a camera and a display unit to display on the display unit an image of a virtual three-dimensional space captured by a virtual camera that is controlled in conjunction with the shooting direction of the camera,
a virtual space setting means for setting the virtual three-dimensional space in which a subject object is placed ;
a virtual space image generating means for generating an image of the virtual three-dimensional space captured by the virtual camera;
a recording control means for recording camerawork data capable of reproducing a position and an attitude of the virtual camera in the virtual three-dimensional space during the interlocking control ;
a comparison display control means for controlling displaying, in a predetermined display mode for comparing a playback image, which is an image of real space at a given playback timing of the camerawork data recorded by the recording control means, and a live image, which is an image of real space at the current time;
A program for causing the computer to function as a
ユーザの操作に基づいて前記再生タイミングを指定する再生タイミング手動指定手段、
として前記コンピュータを機能させるための請求項又はに記載のプログラム。
a reproduction timing manual designation means for designating the reproduction timing based on a user's operation;
7. The program according to claim 5 or 6 , for causing the computer to function as a
前記記録制御手段は、所与の記録停止指示に応じて記録を停止し、所与の記録再開指示に応じて記録を再開し、
前記記録停止指示が与えられた場合に、当該記録停止指示が与えられたタイミングに基づく所与のプレイバックタイミングを前記再生タイミングとする再生タイミング自動指定手段、
として前記コンピュータを機能させるための請求項の何れか一項に記載のプログラム。
the recording control means stops recording in response to a given recording stop instruction and resumes recording in response to a given recording resume instruction;
a playback timing automatic designation means for, when the recording stop instruction is given, setting a given playback timing based on the timing at which the recording stop instruction is given as the playback timing;
The program according to any one of claims 5 to 7 , for causing the computer to function as
前記再生タイミング自動指定手段は、前記記録停止指示が与えられたタイミングから所与の時間遡った時点を前記プレイバックタイミングとする、
請求項に記載のプログラム。
the automatic playback timing designation means designates a time point preceding the timing at which the recording stop instruction was given as the playback timing;
The program according to claim 8 .
前記比較表示制御手段は、前記ライブ画像と前記再生画像とを重畳的に表示する制御を行う、
請求項の何れか一項に記載のプログラム。
the comparative display control means performs control to display the live image and the reproduced image in a superimposed manner;
The program according to any one of claims 5 to 9 .
前記ライブ画像と前記再生画像との一致度合を判定し、所定の適合条件を満たすか否かを判定する一致判定手段、
前記一致判定手段により前記適合条件を満たすと判定された場合にユーザに適合通知を行う適合通知制御手段、
として前記コンピュータを機能させるための請求項10の何れか一項に記載のプログラム。
a matching determination means for determining a degree of matching between the live image and the reproduced image and determining whether or not a predetermined matching condition is satisfied;
a conformity notification control means for notifying a user of conformity when the conformity determination means determines that the conformity condition is satisfied;
The program according to any one of claims 5 to 10, for causing the computer to function as a
前記記録制御手段は、所与の記録停止指示に応じて記録を停止し、所与の記録再開指示に応じて記録を再開し、
前記ライブ画像と前記再生画像との一致度合を判定し、所定の適合条件を満たすか否かを判定する一致判定手段、
前記一致判定手段により前記適合条件を満たすと判定された場合に前記記録再開指示を与える自動記録開始手段、
として前記コンピュータを機能させるための請求項11の何れか一項に記載のプログラム。
the recording control means stops recording in response to a given recording stop instruction and resumes recording in response to a given recording resume instruction;
a matching determination means for determining a degree of matching between the live image and the reproduced image and determining whether or not a predetermined matching condition is satisfied;
an automatic recording start means for giving the recording restart instruction when the matching determination means determines that the matching condition is satisfied;
The program according to any one of claims 5 to 11, for causing the computer to function as
前記カメラは、ズーム倍率変更可能であり
前記被写体オブジェクトは、前記カメラの撮影画像に基づくAR(Augmented Reality)キャラクタであり、
前記連動制御は、前記仮想カメラの撮影画角を前記ズーム倍率に連動させて制御することを含み
前記記録制御手段は、前記仮想カメラの撮影画角を再現可能なデータを前記カメラワークデータに含めて記録する、
請求項1~12の何れか一項に記載のプログラム。
The camera has a variable zoom ratio ,
the subject object is an AR (Augmented Reality) character based on an image captured by the camera ,
the linked control includes controlling a shooting angle of view of the virtual camera in linkage with the zoom magnification;
The recording control means records data capable of reproducing a shooting angle of view of the virtual camera in the camerawork data.
The program according to any one of claims 1 to 12 .
カメラおよび表示部を備え、前記カメラの撮影方向と連動制御される仮想カメラによって撮影された仮想3次元空間の画像を前記表示部に表示させる制御を行う携帯型の電子機器であって、
被写体オブジェクト配置前記仮想3次元空間を設定する仮想空間設定手段と、
所与の時間軸に沿った所与の動作を前記被写体オブジェクトに行わせる制御をする被写体制御手段と、
前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成手段と、
前記連動制御における前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録する記録制御手段と、
を備え
前記記録制御手段は、前記時間軸に同期して前記カメラワークデータを記録することを、所与の記録開始指示に応じて開始し、所与の記録停止指示に応じて停止し、
前記被写体制御手段は、前記記録開始指示に応じて前記時間軸を作動開始させて前記被写体オブジェクトの動作を開始させ、前記記録停止指示に応じて前記時間軸を停止させて前記被写体オブジェクトの動作を停止させる一斉制御を行う、
電子機器。
A portable electronic device that includes a camera and a display unit, and controls the display unit to display an image of a virtual three-dimensional space captured by a virtual camera that is controlled in conjunction with the shooting direction of the camera,
a virtual space setting means for setting the virtual three-dimensional space in which a subject object is arranged ;
a subject control means for controlling the subject object to perform a given action along a given time axis;
a virtual space image generating means for generating an image of the virtual three-dimensional space captured by the virtual camera;
a recording control means for recording camerawork data capable of reproducing a position and an attitude of the virtual camera in the virtual three-dimensional space during the interlocking control ;
Equipped with
the recording control means starts recording the camerawork data in synchronization with the time axis in response to a given recording start instruction, and stops recording in response to a given recording stop instruction;
the subject control means performs simultaneous control to start the operation of the time axis in response to the recording start instruction to start the motion of the subject object, and to stop the operation of the time axis in response to the recording stop instruction to stop the motion of the subject object.
Electronics.
カメラおよび表示部を備え、前記カメラの撮影方向と連動制御される仮想カメラによって撮影された仮想3次元空間の画像を前記表示部に表示させる制御を行う携帯型の電子機器であって、
被写体オブジェクト配置前記仮想3次元空間を設定する仮想空間設定手段と、
前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成手段と、
前記連動制御における前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録する記録制御手段であって、所与の記録停止指示に応じて記録を停止し、所与の記録再開指示に応じて記録を再開する記録制御手段と、
前記連動制御による前記仮想3次元空間を撮影中の不適な変化をしたことを示す前記撮影方向に基づく所与の不適変化条件を満たしたことを検出し、当該検出に応じて前記記録停止指示を与える不適変化時自動停止手段と、
を備えた電子機器。
A portable electronic device that includes a camera and a display unit, and controls the display unit to display an image of a virtual three-dimensional space captured by a virtual camera that is controlled in conjunction with the shooting direction of the camera,
a virtual space setting means for setting the virtual three-dimensional space in which a subject object is arranged ;
a virtual space image generating means for generating an image of the virtual three-dimensional space captured by the virtual camera;
a recording control means for recording camerawork data capable of reproducing a position and an attitude of the virtual camera in the virtual three-dimensional space in the interlocking control , the recording control means stopping recording in response to a given recording stop instruction and resuming recording in response to a given recording resume instruction;
an automatic stop means for detecting that a given inappropriate change condition based on the shooting direction, which indicates that an inappropriate change has occurred during shooting of the virtual three-dimensional space by the interlocking control, has been met, and giving the recording stop instruction in response to the detection;
Electronic equipment equipped with
カメラおよび表示部を備え、前記カメラの撮影方向と連動制御される仮想カメラによって撮影された仮想3次元空間の画像を前記表示部に表示させる制御を行う携帯型の電子機器であって、
被写体オブジェクトを配置した前記仮想3次元空間を設定する仮想空間設定手段と、
前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成手段と、
前記連動制御における前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録する記録制御手段と、
前記記録制御手段により記録された前記カメラワークデータの所与の再生タイミングにおける前記仮想カメラからの前記仮想3次元空間の画像である再生画像を生成する再生画像生成手段と、
前記仮想空間画像生成手段により生成されている画像であるライブ画像と、前記再生画像とを、比較するための所定の表示態様で表示する制御を行う比較表示制御手段と、
を備えた電子機器。
A portable electronic device that includes a camera and a display unit, and controls the display unit to display an image of a virtual three-dimensional space captured by a virtual camera that is controlled in conjunction with the shooting direction of the camera,
a virtual space setting means for setting the virtual three-dimensional space in which a subject object is arranged;
a virtual space image generating means for generating an image of the virtual three-dimensional space captured by the virtual camera;
a recording control means for recording camerawork data capable of reproducing a position and an attitude of the virtual camera in the virtual three-dimensional space during the interlocking control ;
a playback image generating means for generating a playback image which is an image of the virtual three-dimensional space from the virtual camera at a given playback timing of the camerawork data recorded by the recording control means;
a comparison display control means for controlling display of a live image, which is an image generated by the virtual space image generating means, and the reproduced image in a predetermined display mode for comparison;
Electronic equipment equipped with
カメラおよび表示部を備え、前記カメラの撮影方向と連動制御される仮想カメラによって撮影された仮想3次元空間の画像を前記表示部に表示させる制御を行う携帯型の電子機器であって、
被写体オブジェクトを配置した前記仮想3次元空間を設定する仮想空間設定手段と、
前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成手段と、
前記連動制御における前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録する記録制御手段と、
前記記録制御手段により記録された前記カメラワークデータの所与の再生タイミングにおける現実空間の画像である再生画像と、現時点における現実空間の画像であるライブ画像とを、比較するための所定の表示態様で表示する制御を行う比較表示制御手段と、
を備えた電子機器。
A portable electronic device that includes a camera and a display unit, and controls the display unit to display an image of a virtual three-dimensional space captured by a virtual camera that is controlled in conjunction with the shooting direction of the camera,
a virtual space setting means for setting the virtual three-dimensional space in which a subject object is arranged;
a virtual space image generating means for generating an image of the virtual three-dimensional space captured by the virtual camera;
a recording control means for recording camerawork data capable of reproducing a position and an attitude of the virtual camera in the virtual three-dimensional space during the interlocking control ;
a comparison display control means for controlling displaying, in a predetermined display mode for comparing a playback image, which is an image of real space at a given playback timing of the camerawork data recorded by the recording control means, and a live image, which is an image of real space at the current time;
Electronic equipment equipped with
カメラおよび表示部を備えた携帯型のコンピュータが、前記カメラの撮影方向と連動制御される仮想カメラによって撮影された仮想3次元空間の画像を前記表示部に表示させる制御を行って、カメラワークのデータを記録するデータ記録方法であって、
被写体オブジェクト配置前記仮想3次元空間を設定する仮想空間設定ステップと、
所与の時間軸に沿った所与の動作を前記被写体オブジェクトに行わせる制御をする被写体制御ステップと、
前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成ステップと、
前記連動制御における前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録する記録制御ステップと、
を含み、
前記記録制御ステップは、前記時間軸に同期して前記カメラワークデータを記録することを、所与の記録開始指示に応じて開始し、所与の記録停止指示に応じて停止することを含み、
前記被写体制御ステップは、前記記録開始指示に応じて前記時間軸を作動開始させて前記被写体オブジェクトの動作を開始させ、前記記録停止指示に応じて前記時間軸を停止させて前記被写体オブジェクトの動作を停止させる一斉制御を行うことを含む、
データ記録方法。
A data recording method in which a portable computer equipped with a camera and a display unit controls the display unit to display an image of a virtual three-dimensional space captured by a virtual camera that is controlled in conjunction with the shooting direction of the camera, and records camera work data ,
a virtual space setting step of setting the virtual three-dimensional space in which a subject object is placed ;
a subject control step of controlling the subject object to perform a given action along a given time axis;
a virtual space image generating step of generating an image of the virtual three-dimensional space captured by the virtual camera;
a recording control step of recording camerawork data capable of reproducing a position and an attitude of the virtual camera in the virtual three-dimensional space in the interlocking control ;
Including,
the recording control step includes starting recording of the camerawork data in synchronization with the time axis in response to a given recording start instruction and stopping recording in response to a given recording stop instruction;
the subject control step includes performing simultaneous control to start the operation of the time axis in response to the recording start instruction to start the motion of the subject object, and to stop the operation of the time axis in response to the recording stop instruction to stop the motion of the subject object.
Data recording methods.
カメラ及び表示部を備えた携帯型のコンピュータが、前記カメラの撮影方向と連動制御される仮想カメラによって撮影された仮想3次元空間の画像を前記表示部に表示させる制御を行って、カメラワークのデータを記録するデータ記録方法であって、
被写体オブジェクト配置前記仮想3次元空間を設定する仮想空間設定ステップと、
前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成ステップと、
前記連動制御における前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録する記録制御ステップであって、所与の記録停止指示に応じて記録を停止し、所与の記録再開指示に応じて記録を再開する記録制御ステップと、
前記連動制御による前記仮想3次元空間を撮影中の不適な変化をしたことを示す前記撮影方向に基づく所与の不適変化条件を満たしたことを検出し、当該検出に応じて前記記録停止指示を与える不適変化時自動停止ステップと、
を含むデータ記録方法。
A data recording method in which a portable computer equipped with a camera and a display unit controls the display unit to display an image of a virtual three-dimensional space captured by a virtual camera that is controlled in conjunction with the shooting direction of the camera, and records camera work data ,
a virtual space setting step of setting the virtual three-dimensional space in which a subject object is placed ;
a virtual space image generating step of generating an image of the virtual three-dimensional space captured by the virtual camera;
a recording control step of recording camerawork data capable of reproducing a position and an attitude of the virtual camera in the virtual three-dimensional space in the interlocking control , the recording control step being for stopping the recording in response to a given recording stop instruction and for resuming the recording in response to a given recording resume instruction;
An automatic stop step at the time of inappropriate change, which detects that a given inappropriate change condition based on the shooting direction indicating that an inappropriate change has occurred during shooting of the virtual three-dimensional space by the interlocking control is satisfied, and gives the recording stop instruction in response to the detection;
A data recording method comprising:
カメラおよび表示部を備えた携帯型のコンピュータが、前記カメラの撮影方向と連動制御される仮想カメラによって撮影された仮想3次元空間の画像を前記表示部に表示させる制御を行って、カメラワークのデータを記録するデータ記録方法であって、
被写体オブジェクト配置前記仮想3次元空間を設定する仮想空間設定ステップと、
前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成ステップと、
前記連動制御における前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録する記録制御ステップと、
前記記録制御ステップで記録された前記カメラワークデータの所与の再生タイミングにおける前記仮想カメラからの前記仮想3次元空間の画像である再生画像を生成する再生画像生成ステップと、
前記仮想空間画像生成ステップで生成されている画像であるライブ画像と、前記再生画像とを、比較するための所定の表示態様で表示する制御を行う比較表示制御ステップと、
を含むデータ記録方法。
A data recording method in which a portable computer equipped with a camera and a display unit controls the display unit to display an image of a virtual three-dimensional space captured by a virtual camera that is controlled in conjunction with the shooting direction of the camera, and records camera work data ,
a virtual space setting step of setting the virtual three-dimensional space in which a subject object is placed ;
a virtual space image generating step of generating an image of the virtual three-dimensional space captured by the virtual camera;
a recording control step of recording camerawork data capable of reproducing a position and an attitude of the virtual camera in the virtual three-dimensional space in the interlocking control ;
a playback image generating step of generating a playback image which is an image of the virtual three-dimensional space from the virtual camera at a given playback timing of the camerawork data recorded in the recording control step;
a comparison display control step of controlling display of a live image, which is an image generated in the virtual space image generating step, and the reproduced image in a predetermined display mode for comparison;
A data recording method comprising:
カメラおよび表示部を備えた携帯型のコンピュータが、前記カメラの撮影方向と連動制御される仮想カメラによって撮影された仮想3次元空間の画像を前記表示部に表示させる制御を行って、カメラワークのデータを記録するデータ記録方法であって、
被写体オブジェクト配置前記仮想3次元空間を設定する仮想空間設定ステップと、
前記仮想カメラで撮影された前記仮想3次元空間の画像を生成する仮想空間画像生成ステップと、
前記連動制御における前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録する記録制御ステップと、
前記記録制御ステップで記録された前記カメラワークデータの所与の再生タイミングにおける現実空間の画像である再生画像と、現時点における現実空間の画像であるライブ画像とを、比較するための所定の表示態様で表示する制御を行う比較表示制御ステップと、
を含むデータ記録方法。
A data recording method in which a portable computer equipped with a camera and a display unit controls the display unit to display an image of a virtual three-dimensional space captured by a virtual camera that is controlled in conjunction with the shooting direction of the camera, and records camera work data ,
a virtual space setting step of setting the virtual three-dimensional space in which a subject object is placed ;
a virtual space image generating step of generating an image of the virtual three-dimensional space captured by the virtual camera;
a recording control step of recording camerawork data capable of reproducing a position and an attitude of the virtual camera in the virtual three-dimensional space in the interlocking control ;
a comparison display control step of controlling displaying, in a predetermined display mode for comparing a playback image, which is an image of real space at a given playback timing of the camerawork data recorded in the recording control step, and a live image, which is an image of real space at the current time;
A data recording method comprising:
JP2023041788A 2019-01-24 2023-03-16 Program, electronic device and data recording method Active JP7466730B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023041788A JP7466730B2 (en) 2019-01-24 2023-03-16 Program, electronic device and data recording method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019010522A JP7248437B2 (en) 2019-01-24 2019-01-24 Programs, electronics and data recording methods
JP2023041788A JP7466730B2 (en) 2019-01-24 2023-03-16 Program, electronic device and data recording method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019010522A Division JP7248437B2 (en) 2019-01-24 2019-01-24 Programs, electronics and data recording methods

Publications (2)

Publication Number Publication Date
JP2023073307A JP2023073307A (en) 2023-05-25
JP7466730B2 true JP7466730B2 (en) 2024-04-12

Family

ID=71890895

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019010522A Active JP7248437B2 (en) 2019-01-24 2019-01-24 Programs, electronics and data recording methods
JP2023041788A Active JP7466730B2 (en) 2019-01-24 2023-03-16 Program, electronic device and data recording method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019010522A Active JP7248437B2 (en) 2019-01-24 2019-01-24 Programs, electronics and data recording methods

Country Status (1)

Country Link
JP (2) JP7248437B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7123222B1 (en) 2021-06-18 2022-08-22 ヤフー株式会社 Display control device, display control method and display control program
CN113760100B (en) * 2021-09-22 2024-02-02 入微智能科技(南京)有限公司 Man-machine interaction equipment with virtual image generation, display and control functions
CN114020144A (en) * 2021-09-29 2022-02-08 中孚安全技术有限公司 Plot teaching system and method for confidential management training
JP7445272B1 (en) 2023-03-31 2024-03-07 グリー株式会社 Video processing method, video processing system, and video processing program
JP7480408B1 (en) 2023-05-01 2024-05-09 株式会社あかつき Information processing system, information processing device, program, and information processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065698A (en) 2006-09-08 2008-03-21 Ritsumeikan Image formation method and system
US20150130801A1 (en) 2010-07-19 2015-05-14 Lucasfilm Entertainment Company, Ltd. Controlling a virtual camera
JP2017167619A (en) 2016-03-14 2017-09-21 株式会社セルシス Generation method of three-dimensional content, program and client device
WO2017187764A1 (en) 2016-04-28 2017-11-02 ソニー株式会社 Information processing terminal device and distribution device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015129710A1 (en) 2014-02-28 2015-09-03 株式会社ジオクリエイツ Method for generating camera work, device for generating camera work, and program for generating camera work

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065698A (en) 2006-09-08 2008-03-21 Ritsumeikan Image formation method and system
US20150130801A1 (en) 2010-07-19 2015-05-14 Lucasfilm Entertainment Company, Ltd. Controlling a virtual camera
JP2017167619A (en) 2016-03-14 2017-09-21 株式会社セルシス Generation method of three-dimensional content, program and client device
WO2017187764A1 (en) 2016-04-28 2017-11-02 ソニー株式会社 Information processing terminal device and distribution device

Also Published As

Publication number Publication date
JP2023073307A (en) 2023-05-25
JP7248437B2 (en) 2023-03-29
JP2020119334A (en) 2020-08-06

Similar Documents

Publication Publication Date Title
JP7466730B2 (en) Program, electronic device and data recording method
CN107967706B (en) Multimedia data processing method and device and computer readable storage medium
CN109302538B (en) Music playing method, device, terminal and storage medium
CN109756784B (en) Music playing method, device, terminal and storage medium
JP6770061B2 (en) Methods and devices for playing video content anytime, anywhere
JP7043255B2 (en) Electronic devices and their control methods
US11368666B2 (en) Information processing apparatus, information processing method, and storage medium
WO2019100755A1 (en) Video generation method and device, and electronic apparatus
JP7557584B2 (en) Server system, play data community system and control method
CN118334188A (en) Animation synthesis device, animation synthesis method, and recording medium
JP2023027113A (en) Program, electronic apparatus and control method
CN113938748A (en) Video playing method, device, terminal, storage medium and program product
JP2020162880A (en) Program and computer system
JP2020108074A (en) Server system, program, and video distribution system
JPWO2018074045A1 (en) Information processing apparatus, information processing method, and program
EP4113517A1 (en) Method and apparatus for processing videos
CN116964544A (en) Information processing device, information processing terminal, information processing method, and program
JP2020119335A (en) Program, camera work data generation method, and electronic apparatus
JP2021190082A (en) Computer program, information processing apparatus, information processing system, augmented reality image display method, and information processing method
WO2023063133A1 (en) Video generating system, computer program, and control method
JP2017134601A (en) Information processing device, setting screen display method, and setting screen display program
JP5249841B2 (en) GAME DEVICE, GAME SYSTEM, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2020067716A (en) Information processing apparatus, control method and program
EP2713371A2 (en) Imaging device, image processing device, imaging method, image processing method, and computer program product
JP2020162831A (en) Program, electronic apparatus and server system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230411

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230411

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240402

R150 Certificate of patent or registration of utility model

Ref document number: 7466730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150