JP2017162451A - 立体空間のシーン編集方法及び立体空間のシーン編集システム - Google Patents

立体空間のシーン編集方法及び立体空間のシーン編集システム Download PDF

Info

Publication number
JP2017162451A
JP2017162451A JP2017014564A JP2017014564A JP2017162451A JP 2017162451 A JP2017162451 A JP 2017162451A JP 2017014564 A JP2017014564 A JP 2017014564A JP 2017014564 A JP2017014564 A JP 2017014564A JP 2017162451 A JP2017162451 A JP 2017162451A
Authority
JP
Japan
Prior art keywords
smart device
stereoscopic
scene
space
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017014564A
Other languages
English (en)
Inventor
ユ‐シェン リ
Yu-Hsien Li
ユ‐シェン リ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Framy Inc
Original Assignee
Framy Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Framy Inc filed Critical Framy Inc
Publication of JP2017162451A publication Critical patent/JP2017162451A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】ユーザが自らスマートデバイスを操作し直感的に立体空間において編集位置を決定することができる立体空間のシーン編集方法及び立体空間のシーン編集システムを提供する。【解決手段】スマートデバイス101におけるセンサにより立体空間の位置決め信号を取得し、タッチ表示スクリーンでタッチ表示スクリーン内のオブジェクトを直接的に編集し、オブジェクトの位置、大きさ、回転角度又はステアリングの編集に加えて、さらにソフトウェアによりこの立体空間の立体シーンでのオブジェクトの移動と変化を録画し、立体シーンでのオブジェクトの動的画像を形成する。動的画像を放送する場合、ユーザ10は立体空間でのスマートデバイスの位置を操作することで、立体シーン内での一つ又は複数のオブジェクトの移動と変化を再現させる。【選択図】図1A

Description

本発明は立体空間の編集技術、特にスマートデバイスにより立体空間においてこの立体空間内のシーン、オブジェクトを編集する立体空間のシーン編集方法及び立体空間のシーン編集システムに関する。
従来技術では、コンピュータ画像処理設計により立体仮想空間においてこの立体仮想空間における種々の画像オブジェクトを表示することで、ユーザがこの立体仮想空間を閲覧する場合、立体仮想空間でのオブジェクトの様子を視聴することができるため、一般の平面画像の視聴経験とは異なる。
しかし、通常、立体仮想空間内の種々の画像が形成する方法はコンピュータソフトウェアにより立体オブジェクトを生じ、座標変換を介して立体仮想空間におけるオブジェクトを形成させ、最後に特別なプレーヤーにて立体仮想画像を放送するような方法である。
本発明の目的の一つは、ユーザが自らスマートデバイスを操作し直感的に立体空間においてその立体空間のシーン及び一つ又は複数のシーンにおける画像オブジェクトを編集できる立体空間のシーン編集方法及び立体空間のシーン編集システムを提供することにある。具体的に言えば、本発明の目的の一つは、ユーザが手でスマートデバイスを持ち一つの立体空間において編集位置を決定し、ソフトウェアプログラムを介してデバイスにおけるセンサにより立体空間の位置決め信号を取得し、ユーザに提供しタッチ表示スクリーンでそのタッチ表示スクリーン内のオブジェクトを直接的に編集し、オブジェクトの位置、大きさ、回転角度又はステアリングの編集だけではなく、さらにソフトウェアによりこの立体空間内の立体シーンでのオブジェクトの移動と変化を録画し、立体シーンでのオブジェクトの動的画像を形成することができる、立体空間のシーン編集方法を提供することにある。
一つの実施例では、立体空間のシーン編集方法の主要なフローは、スマートデバイスを移動させることによって立体空間内の位置決め信号を生成し、立体空間の第1の位置にオブジェクトを取り込み、立体空間の第1の位置においてスマートデバイスでオブジェクトを編集し、第1の位置でのオブジェクトの状態、例えばオブジェクトの大きさ、回転角度及びステアリング等を決定し、その後、立体空間の第1の位置でのオブジェクトの状態を記憶する。
別の実施例では、オブジェクトを編集する場合、スマートデバイスを別の位置、例えば第2の位置に移動することができる。移動過程でオブジェクトが第1の位置から第2の位置に移動する移動軌跡を決定し、オブジェクトの連続状態とオブジェクトの移動軌跡を立体空間のシーン編集システムに記憶される。
更に別の実施例では、一つの立体空間には複数のオブジェクトを取り込むことができる。各オブジェクトの編集は前例の通りである。スマートデバイスを移動させることによって立体空間内の位置決め信号を生成し、立体空間の第1の位置に第1のオブジェクトを取り込み、第1のオブジェクトの状態を決定する。スマートデバイスを第2の位置に移動する場合、スマートデバイスの移動過程ではオブジェクトの移動と変化を制御することが可能である。また、生じられた連続変化と第1の移動軌跡は、いずれも立体空間のシーン編集システムに記憶される。
次に、第2のオブジェクトをさらに取り込み、スマートデバイスを操作し立体空間内を移動させ、第3の位置から第4の位置に移動するとともに、第2のオブジェクトの状態を変更することができる。また、生じられた連続状態と第2の移動軌跡が立体空間のシーン編集システムに記憶される。
最後に、第1のオブジェクトと第2のオブジェクトの放送を起動させる条件を設定する。
立体空間のシーン編集システムの一実施例では、立体空間のシーン編集システムの主要な構成部品は、立体空間でのスマートデバイスの位置決め信号を取得するための立体空間位置決めモジュールと、立体空間内の画像オブジェクトと立体シーンを処理するために用いられ、スマートデバイスから生成される位置決め信号に対応して表示画像を生成させるための画像処理モジュールと、立体空間内の表示画像を出力する表示モジュールと、画像オブジェクトを操作するユーザインタフェースを提供し、画像オブジェクトの立体空間における状態を決定するためのタッチモジュールと、主として最後に形成される画像オブジェクトと、関連立体シーンとを記憶する記憶モジュールとを備える。
立体空間のシーン編集システムは、スマートデバイスにおけるメモリに記憶される編集アセンブリと放送アセンブリとをさらに備える。アセンブリは、スマートデバイスから生成される立体空間内の位置決め信号を取得する命令と、位置決め信号に対応する立体シーンの画像を表示する命令と、異なる位置での画像オブジェクトの状態と移動軌跡を編集する命令と、異なる位置でのオブジェクトの状態変化と移動軌跡を録画する命令と、オブジェクトを再現させるための放送を起動させる条件を設定する命令と、オブジェクトの再現を起動させる命令とを含む。
本発明は、ユーザは直感的にスマートデバイスを操作し立体空間内を移動させるとともに、直感的に立体空間の任意位置においてオブジェクトを編集することができる立体空間のシーン編集方法及び立体空間のシーン編集システムを提供する。オブジェクトを編集する場合、直感的に立体空間でのスマートデバイスの位置に同期して表示する画面に応じて編集を行うことができるように、オブジェクトを編集する前に、まず立体シーンを取り込むことができる。画像を再現させる場合にも、ユーザは直感的にスマートデバイスを操作しこの立体空間の任意位置において画像を観賞することができる。
ユーザがスマートデバイスを操作し立体空間において編集を行う状況の模式図を示す。 ユーザがスマートデバイスを操作し立体空間において編集を行う状況の模式図を示す。 ユーザがスマートデバイスを操作しオブジェクトをズームさせるように編集する状況の模式図を示す。 ユーザがスマートデバイスを操作しオブジェクトを回転させるように編集する状況の模式図を示す。 ユーザがスマートデバイスを操作しオブジェクトを移動させるように編集する状況の模式図を示す。 本発明に係る立体空間のシーン編集方法を実現するスマートデバイスの機能モジュールの実施例の図面を示す。 本発明に係る立体空間のシーン編集方法の実施例のフローの1を示す。 本発明に係る立体空間のシーン編集方法の実施例のフローの2を示す。 本発明に係る立体空間のシーン編集方法の実施例のフローの3を示す。 本発明に係る立体空間のシーン編集方法の実施例のフローの4を示す。
本発明が所定の目的を達成するために用いられる技術、方法及び効果をさらに認識できるように、以下の本発明に関する詳細な説明、図面を参照されたい。これらにより、本発明の目的、特徴と特点を深く且つ具体的に理解できるが、添付図面は参照と説明のために提供されるものに過ぎず、本発明を制限するためのものではない。
本発明には、立体空間のシーン編集方法及び立体空間のシーン編集システムを提供する。立体空間のシーン編集方法及び立体空間のシーン編集システムに関する技術はスマートデバイスに稼働するソフトウェアプログラムを介して実現される。ソフトウェアによりユーザに一つの立体空間内の種々の静的又は動的の立体オブジェクトを直感的に編集させることは、ユーザが自らスマートデバイスを操作し直感的に立体空間においてスマートデバイスの位置を移動することで編集位置を決定するとともに、スマートデバイスにおける空間センサ(例えばジャイロスコープ)から生じられる位置決め信号も取得することを含む。ユーザは、表示スクリーンをタッチして表示スクリーン内のオブジェクトを直接的に編集し、オブジェクトの位置、大きさ、回転角度又はステアリングを編集し、さらにソフトウェアにより表示スクリーン内の立体シーンにおけるオブジェクトの移動と変化を録画し、立体シーンにおけるオブジェクトの動的画像を形成することができる。その後、立体シーンとこの立体シーン内のオブジェクトの画像を再現させる場合、放送プログラムは立体空間でのスマートデバイスの位置に対するユーザの操作に応じて、立体空間の立体シーン内の一つ又は複数のオブジェクトの移動と変化を再現させることができる。
ユーザが直感的に立体空間内の画像オブジェクトを編集する状況は図1Aと図1Bに示す模式図を参照してもよい。状況の模式図において、ユーザ10はスマートデバイス101を操作して立体空間の任意位置において編集を行うことができる。スマートデバイス101には立体シーンの編集プログラムがインストールされる。立体シーンの編集プログラムは応用ソフトウェア(APP)で実現することができる。編集する前に、予め立体シーンを取り込んでおいてもよい。この立体シーンは360度の立体空間の隅々を包含するものである。ユーザの操作から生じられる立体空間の位置決め信号に従い、対応するシーン画像をスマートデバイス101の表示スクリーンに表示することができる。従って、スマートデバイス101のスクリーンの大きさ、スクリーンの解像度はいずれも視聴しようとするある方位の画像の内容に影響する可能性がある。また、ユーザに視聴しようとする画面に含まれる画像の割合を操作して決定させることができるように、立体シーンの編集プログラムは、オブジェクトを編集する場合のオブジェクトの大きさを制御する機能が付与される。
図1Aはユーザ10がスマートデバイス101を頭頂部(位置A)に移動して編集を行うことを模式的に示す。スマートデバイス101のタッチスクリーンは編集するためのユーザのインタフェースである。ユーザ10がスマートデバイス101を頭頂部(位置A)に移動する場合、スマートデバイス101の表示スクリーンは立体画像全体としてユーザ(視聴者)の頭頂及びその付近の画像を表示する。表示画面はスマートデバイス101の表示スクリーンの大きさ及び解像度に関係し、ユーザから設定される表示割合にも関係する。
この例では、ユーザ10の頭頂付近の位置Aは編集位置である。ユーザが編集プログラムを介してこの方位の立体シーンの対応画像(以下、説明の必要に応じて、画像オブジェクト、オブジェクト、オブジェクトの画像を称する場合もある)が見られる。この場合、ソフトウェアツールを介して画像オブジェクトを取り込むことができる。この画像オブジェクトは静的又は動的の画像であってもよい。編集時に位置Aでの画像オブジェクトの状態(位置Aに表示される画像オブジェクトの寸法の大きさ、回転角度を含む)が決定される。オブジェクトが立体オブジェクトであれば、表示される立体オブジェクトのステアリングを決定することもできる。
別の実施例において、直接スマートデバイス101を操作し、ある位置(例えば位置A)でのオブジェクトの状態を決定するに加えて、この位置Aでのオブジェクトにおけるある時間内の状態変化(この時間内のオブジェクトの大きさ、回転角度及び/又はステアリング等の連続変化を含む)を録画することもできる。
別の実施例では、オブジェクトを編集する場合、立体シーンを取り込む必要がなく、オブジェクトの編集が完了した後、立体シーンをオブジェクトと結合させ最後の画像を形成する。
図1Bはユーザ10がスマートデバイス101を操作し、水平位置における二つの位置、例えば表示画面の左向きの位置Bとの右向きの位置Cにおいて、編集を行う状況の模式図を示す。ユーザ10が片手でスマートデバイス101を持ちスマートデバイス101を立体空間内に移動させ、位置Bでオブジェクトを編集することを決定する場合、編集プログラムがスマートデバイス101の位置決め信号(例えばジャイロスコープから生じられる位置情報)を取得し、表示スクリーンがこの位置決め信号に対応する立体シーン画像を表示し、位置Bでのオブジェクトの状態を決定することができる。それに対応して、ユーザ10がスマートデバイス101を図中の位置Cに移動し、編集プログラムによりこの位置Cの対応する位置決め信号を取得し、対応する位置Cの立体シーン画像を表示することができるので、ユーザ10はこの位置C付近のシーン編集を行うことができる。
以上に記載された状況の模式図は、立体空間におけるオブジェクトを編集すると同時に、又はその後立体シーン、例えば1種の仮想現実の画像を取り込むことができるので、ユーザ10はスマートデバイス101を操作し立体空間において上下左右へ移動させることができ、いずれも表示スクリーンから各方位に対応するシーン画面を見ることができる。また、オブジェクト画像を編集する場合、同時にスマートデバイス101における撮影モジュールにより、位置する立体空間の実際の立体画像を取得することも除外しない。即ち、直接この実の立体空間において画像オブジェクトを編集し、虚実の統合という目的を達成する。
次に、図2Aはユーザがスマートデバイスを操作しオブジェクトをズームさせるように編集する状況の模式図を示す。この例では、ユーザはスマートデバイス101のタッチスクリーンを直接的に操作し、指でスマートデバイス101のタッチスクリーンにおけるオブジェクト21を編集することが示される。実施例では、立体空間中のある空間位置においてオブジェクト21を編集することが示される。このように、指でオブジェクト21のズームを制御し、対応するタッチ信号はこの立体空間のあるシーン位置に表示することを決定する場合の大きさを反映する。
図2Bはユーザがスマートデバイスを操作しオブジェクトを回転させる模式図を示す。この例ではユーザがスマートデバイス101のタッチスクリーンを介して指でオブジェクト21を操作し回転させることが示される。操作から生じられるタッチ信号は指で制御されるオブジェクト21の回転角度を反映し、即ち、この立体空間のあるシーン位置における回転角度を決定する。
図2Cはスマートデバイスによりオブジェクトを移動させるように編集する状況の模式図を示す。この図例ではユーザが手でスマートデバイス101を持ち、まずスマートデバイス101を立体空間内の第1の位置に移動させる場合、この第1の位置に第1の位置オブジェクト21aとして示されるオブジェクトを取り込むことが示される。次に、ユーザはこのオブジェクトを表示スクリーンのある位置に固定させることができる。例えば、指でスクリーンにおけるオブジェクトを押さえ込み、指で押さえ込みながら立体空間において第2の位置に移動させ、この第2の位置に移動されたオブジェクトを第2の位置オブジェクト21bとして示されることが可能である。この編集動作により、この立体空間でのオブジェクトの移動軌跡を形成し、即ち、ある時間内において、オブジェクトがこの立体空間における第1の位置から第2の位置に移動することを決定した。
以上のいくつかの状況の模式図に示すように、ユーザはスマートデバイス101を操作し一つの立体空間内を移動させ、編集しようとするオブジェクトの位置において、まず直感的に一時停止し動かせないことができる。この場合、オブジェクトの大きさ、回転角度又はステアリング等の状態を編集することができる。次に、スマートデバイス101を移動させることでこの立体空間でのオブジェクトの移動軌跡を決定することができる。オブジェクトを移動させるとともに、この移動に従うオブジェクトの状態変化(オブジェクトの大きさ、回転角度及び/又はステアリングを変更することを含む)を同時に決定することができる。移動とは、位置の変化も意味する。移動過程はソフトウェアプログラムを介して録画されることが可能であるため、立体シーンにおける動画となる。
実施例において、立体空間のシーン編集システムで本発明に係る立体空間のシーン編集方法を実現させる。立体空間のシーン編集システムは、例えばソフトウェアとハードウェアで組み合わせて生成される。立体空間のシーン編集システムはスマートデバイスに用いられる。立体空間のシーン編集システムに関する機能モジュールの実施例の図面は図3を参照してもよい。
図面に示す立体空間のシーン編集システムは、スマートデバイスの立体空間における位置決め信号を取得するための立体空間位置決めモジュール33を備える。実施例では、立体空間位置決めモジュール33として、スマートデバイスの立体方位を検知すると共に、立体空間内の位置決め信号を生成するための例えばジャイロスコープ(gyroscope)を使用する。
立体空間のシーン編集システムには、立体空間内に表示される画面を処理するための画像処理モジュール31が設けられる。画像処理モジュール31は、一つの空間内の立体シーン301と、この立体シーン301における画像オブジェクト302とを表示する。また、画像処理モジュール31は、立体シーン301を再現させる場合、スマートデバイスから生成される立体空間の位置決め信号に対応する表示画像を生成させる。画像オブジェクト302は一つ又は複数のオブジェクトを有してもよい。オブジェクトを編集する場合、ユーザがスマートデバイスを操作し立体空間内の所定位置での各オブジェクトの状態を決定し、最後に立体シーン301と画像(オブジェクトの画像)を合成することができる。
立体空間のシーン編集システムは、立体空間内の表示画像を出力するための表示モジュール39を備える。表示モジュール39は、例えばスマートデバイスの表示スクリーンなどである。立体空間のシーン編集システムは、画像オブジェクトを操作するユーザインタフェースを提供するためのタッチモジュール37を備える。ユーザは、タッチモジュール37によりスマートデバイスの表示スクリーン内のシーン及びオブジェクトなどをタッチして編集することによって、立体空間での画像オブジェクトの状態(例えば図2A乃至図2Cに示す種々の変化)を決定することができる。立体空間のシーン編集システムは、操作完了後の立体シーンと、立体空間での画像オブジェクトにおけるある時間と位置の状態とを記憶するための記憶モジュール35を有する。
一実施例では、ソフトウェアにより実現される立体空間のシーン編集システム、又はソフトウェアとハードウェアとの組み合わせにより実現される立体空間のシーン編集システムは、スマートデバイスにおけるメモリに記憶される編集アセンブリと放送アセンブリとをさらに備える。アセンブリ(編集アセンブリと放送アセンブリなどのアセンブリ)は単一のソフトウェアプログラムで実現してもよく、異なる複数のソフトウェアプログラムで実現してもよい。編集と放送時に画像情報を対応して取得できるために提供される。これらのアセンブリは、スマートデバイスから生成される立体空間内の位置決め信号を取得する命令と、位置決め信号に対応する立体シーンの画像を表示し、位置決め信号に応じて対応するある方位の画像を生成できる命令とを含む。この立体シーンの画像表示範囲はスマートデバイスのスクリーンの大きさと解像度に関連し、比例関係を有する。さらに、ユーザは見ようとする範囲の割合を選ぶことができる。命令セットは、異なる位置での画像オブジェクトの状態と移動軌跡を編集する命令(即ち、ユーザがスマートデバイスを操作することにより生成されるタッチ信号及び立体空間を移動することにより生成される位置決め信号から、オブジェクトの状態と移動の編集状態を取得できる命令)と、異なる位置でのオブジェクトの状態変化と移動軌跡を録画する命令(即ち、ユーザがスマートデバイスを操作することにより生成されるタッチ信号及び立体空間を移動することにより生成される位置決め信号から、オブジェクトの状態と移動を同期して録画できる命令)とを含む。命令セットは、オブジェクトを再現させるための放送を起動させる条件を設定する命令と、以上の条件に応じてオブジェクトの再現を起動させる命令とをさらに含む。オブジェクトを再現させるための放送を起動させる条件を設定する命令により、ユーザはオブジェクトがどのように放送を再現させるかの条件(さらには、複数のオブジェクトの間に関連性を有する放送条件を含む)を決定することができる。
本発明に係る立体空間のシーン編集方法の実施例において、主要な方法のステップでは、ユーザがスマートデバイスを直接的に操作してスマートデバイスを立体空間内に移動させる。ユーザ自体は移動する必要がなく、即ち、ユーザは所定の位置に立ち、手持ちによりスマートデバイスを操作する。図4の実施例において、スタートステップS401のように、予め立体シーンを取り込んでおいてもよい。立体シーンは事前に撮影しておいた実のシーンであってもよく、又は事前に製作された仮想シーンであってもよく、さらに即時にスマートデバイスの撮影モジュールにより撮影された即時の立体空間画像であってもよい。
次に、ステップS403のように、スマートデバイスを移動させ、立体空間でのスマートデバイスの移動状態を検出しながら、一組の空間座標を取得することができる。好ましくはスマートデバイス内の位置決めセンサ(例えばジャイロスコープ)で立体空間内の位置決め信号を生成する。
ステップS405では、スマートデバイスを移動する場合に生成される位置決め信号はプログラム編集において、対応する立体画像を表示する根拠となる。この場合、スマートデバイスの表示スクリーンから対応する位置の立体シーン画像を表示することで、ユーザは編集時に関連位置のシーンを視聴することができる。次に、ステップS407のように、ソフトウェアによりオブジェクトを選び、又はソフトウェアの編集ツールにより特定の形状、色及び/又はパターンのオブジェクトを生成し、例えば第1の位置などの編集位置を決定するようにしてもよい。ユーザはこの立体空間の第1の位置においてスマートデバイスでオブジェクトを編集する。ステップS409のように、ユーザは、タッチスクリーンを操作することによってタッチ信号を生成し、オブジェクトの形態(オブジェクトの位置(第1の位置、及び表示スクリーンにおける相対的位置を総称する)、大きさ及び回転角度を含む。立体オブジェクトを例にする場合、立体オブジェクトのステアリング状態をさらに含む)を設定する。タッチ信号の演算を介して立体オブジェクトが占める空間の情報が得られる。これらのタッチスクリーンを介してオブジェクトを編集することにより生成されるタッチ信号はオブジェクトの立体空間における状態を定義するためのものである。これにより、立体空間のシーン編集システムは、第1の位置でのオブジェクトの状態を取得する。ステップS411のように、立体空間でのオブジェクトの状態は、オブジェクトの大きさ、回転角度及びステアリングのうちの一つ又はその組合せを含む。
最後に、ステップS413のように、第1の位置でのオブジェクトの状態を確認する場合、編集プログラムは立体空間の第1の位置でのオブジェクトの状態を記憶することに協力し、立体画像、平面オブジェクト又は立体オブジェクト、及びオブジェクトの各時点における空間座標値、状態変化と時間等を記憶することを備えてもよい。
オブジェクトは立体シーンにおいて固定の位置に状態変化を生じてもよく、立体空間内に位置を変更して移動軌跡を形成してもよい。実施例は図5に示すフローの通りである。
先ず、ステップS501のように、スマートデバイスを第1の位置に移動させることで、開始空間位置を決定し、一組の空間座標値(センサから生じられる)を取得する。次に、ステップS503のように、第1のオブジェクトを取り込む。ここで、第1のオブジェクトは、静的なオブジェクトであってもよく、動的なオブジェクトであってもよい。また、第1のオブジェクトは、平面画像であってもよく、立体画像であってもよい。そして、ステップS505のように、立体空間のシーン編集システムは、第1の位置での第1のオブジェクトの状態を記録する。即ち、立体空間のシーン編集システムは、オブジェクトの開始状態を記録する。
さらに、ステップS507のように、スマートデバイスを移動するとともに、第1のオブジェクトの状態を変更する。立体空間のシーン編集システムは、ソフトウェアプログラムを介して各時点のスマートデバイスの位置と第1のオブジェクトの状態を記録し(ステップS509)、スマートデバイスを第2の位置に移動させる(ステップS511)。スマートデバイスの移動の過程において立体空間でのスマートデバイスの移動軌跡を形成する。立体空間でのスマートデバイスの移動軌跡は立体空間でのオブジェクトの移動軌跡である。次に、ステップS513のように、立体空間のシーン編集システムは第2の位置での第1のオブジェクトの状態を記録する。これは最後の終了位置であれば、立体空間のシーン編集システムはオブジェクトの終了状態と終了時間(相対的時間)を記録するとともに、オブジェクトの立体空間の第1の位置から第2の位置に移動する連続状態(移動軌跡を含む)を記憶する。ステップS515では、立体空間のシーン編集システムはユーザから設定される第1のオブジェクトの放送を起動させる条件を提供する。
一実施例において、第1のオブジェクトの放送を起動させる条件は、例えば、立体シーンでのオブジェクトの変化を編集して録画することを再現させること、ユーザがスマートデバイスを操作して立体シーンを視聴すること、第1のオブジェクトの開始位置まで移動すること、及び、立体空間での第1のオブジェクトの動画の放送を起動させることなどを含む。また、タッチスクリーンをタッチすることで第1のオブジェクトを触れることができることは、第1のオブジェクトの変化の放送を起動させる条件であってもよい。また、立体画像を視聴し始めてから所定時間に達すると、第1のオブジェクトが形成する動画の放送をスタートするようにしてもよい。
また、同じ立体シーンに一つ以上のオブジェクトがあるという方法の実施例が提供されている。この実施の態様では、複数のオブジェクトを同じ立体空間に組み込む場合、それぞれ各オブジェクトの開始時間、終了時間、オブジェクトの状態(ステアリングと大きさ)と移動軌跡を設定し、最後に異なるオブジェクト(例えば第1のオブジェクトと第2のオブジェクト)の放送を起動させる条件を設定することができる。
実施例は図6に示す立体空間のシーン編集方法のフローを参照してもよい。この立体空間のシーン編集方法のフローは図5に示す立体空間のシーン編集方法のフローのように第1のオブジェクトの編集を完成した後、継続してスマートデバイスを第2のオブジェクトを編集するための編集位置(第3の位置とされてもよい)に移動できる。この第3の位置(又は第4の位置)は第1のオブジェクトの第1の位置と第2の位置と直接的又は間接的関連があることを排除するものではない(ステップS601)。
この場合、ステップS603のように、第2のオブジェクトを取り込む。同様に、第2のオブジェクトは、静的画像であってもよく、動的画像であってもよい。また、第2のオブジェクトは、平面画像であってもよく、立体画像であってもよい。スマートデバイスから実施される編集プログラムにより、タッチスクリーンを介して、第2のオブジェクトの大きさ、回転角度、及び/又は立体オブジェクトのステアリング等の状態の編集を含む様々な編集を実施する。プログラムはタッチ信号及び立体空間の位置決め信号に応じて第3の位置での第2のオブジェクトの状態が得られる。立体空間のシーン編集システムは、第3の位置での第2のオブジェクトの状態を記録する(ステップS605)。
その後、ステップS607のように、ユーザは同じ立体シーンにおいてスマートデバイスを移動することができる。スマートデバイスは、移動による空間位置決め信号に応じて立体シーンの画像を同期して表示することができる。スマートデバイスの移動過程では、立体シーンでの第2のオブジェクトの位置を変更すると共に、移動中に形成されるスマートデバイスの移動軌跡も移動時点の第2のオブジェクトの空間移動軌跡となる。同時に、ユーザはさらにプログラム編集により第2のオブジェクトの状態を変更することができる。その過程では、ステップS609のように、立体空間のシーン編集システムは各時点のスマートデバイスの位置と第2のオブジェクトの状態を記録する。また、ユーザの設計に応じて、次にスマートデバイスを第4の位置に移動させることができる。即ち、第2のオブジェクトとともにスマートデバイスを第4の位置に移動すると共に、第2のオブジェクトの状態をも編集する(ステップS611)。立体空間のシーン編集システムは、第4の位置での第2のオブジェクトの状態を記録すると共に、この第4の位置の位置決め信号も組み込まれる(ステップS613)。
その後、ステップS615のように、第2のオブジェクトの放送を起動させる条件を設定してから、異なる位置でのオブジェクトの状態変化と、異なる位置間のオブジェクトの移動軌跡とを録画し記憶する。
なお、立体シーンでの複数のオブジェクト(例えば同じ立体シーンに第1のオブジェクト、第2のオブジェクトがある)の変化を編集し録画することを再現させる場合、個別のオブジェクトの放送を起動させる条件を設定するに加えて、オブジェクト間の放送条件をさらに編集することができる。個別のオブジェクト、例えば第2のオブジェクトの放送を起動させる条件は、例えば、スマートデバイスを第2のオブジェクトの開始位置(例えば第3の位置)に移動させる場合、即刻に立体空間での第2のオブジェクトの動画の放送を起動させるように設定することができる。又は、タッチスクリーンをタッチすることで第2のオブジェクトを触れることは、第2のオブジェクトの変化の放送を起動させる条件となるようにしてもよい。又は、ユーザがスマートデバイスを作動させこの立体画像を視聴し始めてから、所定時間に達すると、第2のオブジェクトが形成する動画の放送をスタートするようにしてもよい。
一実施例において、スマートデバイスの表示スクリーンにより、上記の実施例のような第1の位置に第1のオブジェクトを表示する場合、第1のオブジェクトの動画の放送を起動または表示するに加えて、この時点の別の相対的時点に第2のオブジェクトの放送又は表示をスタートするように設定してもよい。従って、第1のオブジェクトと第2のオブジェクト、又はさらに別のオブジェクトは同じ立体シーンにおいて、各オブジェクト間の時間関係、空間関係、及びオブジェクト間の放送を起動させる条件を設定することができる。
従って、ユーザは特定の編集された立体シーンを放送する場合、スマートデバイスの表示スクリーンを介してある範囲の立体シーン画像を視聴すると、ある時点に二つ又はそれ以上のオブジェクトが見られ、又はスマートデバイスを移動させ立体シーンを視聴する関係で、ある時点にあるオブジェクトのある部位が見られ、又はこの範囲でのオブジェクトの移動と変化が見られる可能性がある。これはいずれも一般の平面画像の視聴経験とは異なる。
立体シーンを放送する一実施例によれば、スマートデバイスにおける放送プログラムがスマートデバイス中のセンサ(例えばジャイロスコープ)から生じられる立体空間の位置決め信号を取得し、スマートデバイスの空間位置が検出される。放送プログラムは表示スクリーンを介して対応する位置の立体シーン画像を表示し、又はあるオブジェクトの開始位置を含む空間位置まで移動させることが可能である。各オブジェクトは設定される放送を起動させる条件に応じて、設定される軌跡と状態変化に従い動画の放送をスタートする。関連方法は図7に示す実施例のフローの通りである。
先ず、ステップS701のように、放送プログラムで立体シーンの放送ファイルを開き、ユーザはスマートデバイスを操作する。ステップS703のように、スマートデバイスを移動するとともに立体空間の位置決め信号を生成し、立体シーン全体を閲覧する。ステップS705のように、表示スクリーンを介して位置決め信号に対応する立体シーン画像を表示する。
この場合、放送プログラムは立体空間の位置決め信号を取得する。ステップS707のように、放送プログラムは立体空間の位置決め信号、立体シーンの放送ファイルに記憶される位置と画像関連情報を照合させると共に、各オブジェクトの放送を起動させる条件を照合させ、ステップS709を実施する。放送プログラムは放送を起動させる条件に応じて第1のオブジェクトの動画を放送することができる。そして、別のオブジェクトが存在すると、ステップS711のように、同時に第2のオブジェクトの放送を起動させる条件も参照し、放送を起動させる条件に従い第2のオブジェクトの動画を放送する。
放送のいずれかの時点に、ステップS713のように、ユーザは任意にスマートデバイスを移動できる。放送プログラムは位置決め信号に対応する立体シーンとオブジェクトの動画を表示する。立体シーン内の複数のオブジェクトは単独運転のオブジェクトであってもよい。また、個別な放送を起動させる条件があるようにしてもよい。したがって、特定時点の特定シーンにおいて、異なる放送条件での複数のオブジェクトが見られる可能性がある。各オブジェクトの放送を起動させる条件も互いに関連する可能性がある。ユーザは各オブジェクト始動の時間関係又は空間関係を設定することができる。時間関係を用いる起動条件の実施例において、第1のオブジェクトの放送開始後又は放送完成後の所定時間以降に第2のオブジェクトの放送を起動させるように設定でき、他のオブジェクトも同様に実施できる。空間関係を用いる起動条件の実施例において、第1のオブジェクトが立体空間のある位置に達する場合、第2のオブジェクトの放送を起動させるように設定でき、他のオブジェクトも同様に設定できる。時間と空間関係は組み合わせられて各オブジェクトの放送を起動させる条件を設定することができる。
したがって、本発明は、ユーザは直感的にスマートデバイスを操作し立体空間内を移動させるとともに、直感的にある空間位置においてオブジェクトを編集することができる立体空間のシーン編集方法及び立体空間のシーン編集システムを提供する。オブジェクトを編集する場合、直感的にスマートデバイスの立体空間における位置に同期して表示する画面に従い編集を行うことができるように、オブジェクトを編集する前に、まず立体シーンを取り込むことができる。画像を再現させる場合にも、ユーザは直感的にスマートデバイスを操作しこの空間の任意の位置において画像を観賞することができる。
上述したことは本発明の好ましい実施可能な実施例に過ぎず、それにより本発明の特許請求の範囲を制限するものではないので、本発明の明細書及び図示する内容に基づき為された等価の構造変化は、すべて同様に本発明の範囲に含まれることを明らかにしておく。
10 ユーザ
101 スマートデバイス
A、B、C 位置
21 オブジェクト
21a 第1の位置オブジェクト
21b 第2の位置オブジェクト
31 画像処理モジュール
33 立体空間位置決めモジュール
35 記憶モジュール
37 タッチモジュール
39 表示モジュール
301 立体シーン
302 画像オブジェクト

Claims (10)

  1. スマートデバイスを移動させることによって立体空間内の位置決め信号を生成するステップと、
    オブジェクトを取り込むステップと、
    前記立体空間の第1の位置において前記スマートデバイスで前記オブジェクトを編集し、前記第1の位置での前記オブジェクトの状態を決定するステップと、
    前記立体空間の前記第1の位置での前記オブジェクトの状態を記憶するステップと、を備えることを特徴とする、立体空間のシーン編集方法。
  2. 前記立体空間での前記オブジェクトの状態は、前記オブジェクトの大きさ、回転角度及びステアリングのうちの一つ又はその組合せを含むことを特徴とする、請求項1に記載の立体空間のシーン編集方法。
  3. 前記スマートデバイスのタッチスクリーンにおいて前記オブジェクトから生成されるタッチ信号を編集することによって前記立体空間での前記オブジェクトの状態を定義することを特徴とする、請求項2に記載の立体空間のシーン編集方法。
  4. 前記オブジェクトを編集する場合、前記スマートデバイスを第2の位置に移動することによって前記オブジェクトが前記第1の位置から前記第2の位置に移動する移動軌跡を決定し、前記オブジェクトが前記立体空間の前記第1の位置から前記第2の位置に移動する連続状態を記憶し、
    前記連続状態は前記移動軌跡を含むことを特徴とする、請求項2に記載の立体空間のシーン編集方法。
  5. 前記オブジェクトを編集する前に、立体シーンを取り込むことで、前記オブジェクトを編集する場合、前記立体空間での前記スマートデバイスの位置に応じて、前記立体空間の位置決め信号に対応する立体シーン画像を同期して表示することを特徴とする、請求項1〜4の何れか1項に記載の立体空間のシーン編集方法。
  6. スマートデバイスを移動させることによって立体空間内の位置決め信号を生成するステップと、
    第1のオブジェクトを取り込むステップと、
    前記立体空間の第1の位置において前記スマートデバイスで前記第1のオブジェクトを編集することによって前記第1の位置での前記第1のオブジェクトの状態を決定し、前記スマートデバイスを第2の位置に移動することによって前記第1のオブジェクトが前記第1の位置から前記第2の位置に移動する連続状態を決定するステップと、
    前記第1のオブジェクトが前記第1の位置から前記第2の位置に移動する第1の移動軌跡と、前記第1のオブジェクトが前記第1の位置から前記第2の位置に移動する連続状態とを記憶するステップと、
    第2のオブジェクトを取り込むステップと、
    前記立体空間の第3の位置において前記スマートデバイスで前記第2のオブジェクトを編集することによって前記第3の位置での前記第2のオブジェクトの状態を決定し、前記スマートデバイスを第4の位置に移動することによって前記第2のオブジェクトが前記第3の位置から前記第4の位置に移動する連続状態を決定するステップと、
    前記第2のオブジェクトが前記第3の位置から前記第4の位置に移動する第2の移動軌跡と、前記第2のオブジェクトが前記第3の位置から前記第4の位置に移動する連続状態とを記憶するステップと、
    前記第1のオブジェクトと前記第2のオブジェクトの放送を起動させる条件を設定するステップと、を備えることを特徴とする、立体空間のシーン編集方法。
  7. 前記立体空間での前記第1のオブジェクト又は前記第2のオブジェクトの状態は、大きさ、回転角度及びステアリングのうちの一つ又はその組合せを含むことを特徴とする、請求項6に記載の立体空間のシーン編集方法。
  8. 前記第1のオブジェクトと前記第2のオブジェクトの放送を起動させる条件は、前記スマートデバイスのタッチスクリーンに前記第1のオブジェクト又は前記第2のオブジェクトを触れること、前記スマートデバイスの表示スクリーンにより前記第1の位置に前記第1のオブジェクトを表示する若しくは前記第3の位置に前記第2のオブジェクトを表示すること、前記立体空間の立体シーンを視聴し始めてから、所定時間に達すると、前記第1のオブジェクト又は前記第2のオブジェクトの放送を起動させること、又は、前記第1のオブジェクトの放送が開始し一定の時間に達してから前記第2のオブジェクトの放送を開始することを備えることを特徴とする、請求項6に記載の立体空間のシーン編集方法。
  9. スマートデバイスに稼働する立体空間のシーン編集システムであって、
    立体空間での前記スマートデバイスの位置決め信号を取得するための立体空間位置決めモジュールと、
    前記立体空間内の画像オブジェクトと立体シーンを処理し、前記スマートデバイスから生成される前記立体空間での位置決め信号に対応し表示画像を生成させるための画像処理モジュールと、
    前記立体空間内の前記表示画像を出力するための表示モジュールと、
    前記画像オブジェクトを操作するユーザインタフェースを提供し、前記立体空間での前記画像オブジェクトの状態を決定するためのタッチモジュールと、
    前記立体空間の前記立体シーンと、前記立体空間での前記画像オブジェクトにおけるある時間とある位置の状態とを記憶するための記憶モジュールと、を備えることを特徴とする、立体空間のシーン編集システム。
  10. 前記スマートデバイスにおけるメモリに記憶される編集アセンブリと放送アセンブリとをさらに備え、
    前記メモリに記憶されるアセンブリは、
    前記スマートデバイスから生成される前記立体空間内の位置決め信号を取得する命令と、
    前記位置決め信号に対応する前記立体シーンの画像を表示する命令と、
    前記画像オブジェクトにおける異なる位置の状態と移動軌跡を編集する命令と、
    前記画像オブジェクトにおける異なる位置の状態変化と前記移動軌跡を録画する命令と、
    前記画像オブジェクトを再現させるための放送を起動させる条件を設定する命令と、
    前記画像オブジェクトの再現を起動させる命令と、
    を含むことを特徴とする、請求項9に記載の立体空間のシーン編集システム。
JP2017014564A 2016-03-07 2017-01-30 立体空間のシーン編集方法及び立体空間のシーン編集システム Pending JP2017162451A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW105106885A TWI567691B (zh) 2016-03-07 2016-03-07 立體空間的場景編輯方法與系統
TW105106885 2016-03-07

Publications (1)

Publication Number Publication Date
JP2017162451A true JP2017162451A (ja) 2017-09-14

Family

ID=57960349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017014564A Pending JP2017162451A (ja) 2016-03-07 2017-01-30 立体空間のシーン編集方法及び立体空間のシーン編集システム

Country Status (5)

Country Link
US (1) US9928665B2 (ja)
EP (1) EP3217258B1 (ja)
JP (1) JP2017162451A (ja)
KR (1) KR101860313B1 (ja)
TW (1) TWI567691B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019128941A (ja) * 2018-01-24 2019-08-01 アップル インコーポレイテッドApple Inc. 3dモデルのシステム全体の挙動のためのデバイス、方法、及びグラフィカルユーザーインターフェース
US11099707B2 (en) 2018-01-24 2021-08-24 Apple Inc. Devices, methods, and graphical user interfaces for system-wide behavior for 3D models
US11163417B2 (en) 2017-08-31 2021-11-02 Apple Inc. Systems, methods, and graphical user interfaces for interacting with augmented and virtual reality environments

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2018261328B2 (en) 2017-05-01 2022-08-25 Magic Leap, Inc. Matching content to a spatial 3D environment
KR102556889B1 (ko) 2017-12-22 2023-07-17 매직 립, 인코포레이티드 혼합 현실 시스템에서 가상 콘텐츠를 관리하고 디스플레이하기 위한 방법들 및 시스템
JP7112502B2 (ja) 2018-02-22 2022-08-03 マジック リープ, インコーポレイテッド 複合現実システムのためのブラウザ
CN111801641A (zh) * 2018-02-22 2020-10-20 奇跃公司 采用物理操纵的对象创建
JP6924799B2 (ja) * 2019-07-05 2021-08-25 株式会社スクウェア・エニックス プログラム、画像処理方法及び画像処理システム
KR102276789B1 (ko) * 2020-12-10 2021-07-14 브이로거 주식회사 동영상 편집 방법 및 장치
JP7052128B1 (ja) * 2021-07-20 2022-04-11 株式会社あかつき 情報処理システム、プログラム及び情報処理方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08249496A (ja) * 1995-03-08 1996-09-27 Nec Corp 映像提示方法および装置
JPH1051711A (ja) * 1996-08-05 1998-02-20 Sony Corp 3次元仮想物体表示装置および方法
JPH1118025A (ja) * 1997-06-24 1999-01-22 Fujitsu Ltd 画像呈示装置
JP2011186536A (ja) * 2010-03-04 2011-09-22 Sony Corp 情報処理装置、情報処理法方法およびプログラム
JP2013164696A (ja) * 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
US20130222385A1 (en) * 2012-02-29 2013-08-29 Yale University Systems And Methods For Sketching And Imaging

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6798429B2 (en) * 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
TWI370909B (en) * 2008-04-02 2012-08-21 Univ Nat Chiao Tung Inquiry system and method for location-based image, video, and information
KR101545736B1 (ko) * 2009-05-04 2015-08-19 삼성전자주식회사 휴대용 단말기에서 3차원 컨텐츠를 생성하기 위한 장치 및 방법
US8232990B2 (en) 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
KR101688153B1 (ko) 2010-08-11 2016-12-20 엘지전자 주식회사 3차원 영상의 편집 방법 및 이를 이용하는 이동 단말기
CN201845173U (zh) * 2010-08-24 2011-05-25 台湾色彩与影像科技股份有限公司 立体实物摄影装置
TWI620146B (zh) * 2011-12-05 2018-04-01 財團法人工業技術研究院 立體物件建構方法及系統
US20150170260A1 (en) * 2012-02-29 2015-06-18 Google Inc. Methods and Systems for Using a Mobile Device to Visualize a Three-Dimensional Physical Object Placed Within a Three-Dimensional Environment
KR101868352B1 (ko) 2012-05-14 2018-06-19 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
TW201349844A (zh) * 2012-05-23 2013-12-01 Univ Nat Taiwan 產生裸眼3d效果之方法
KR101576979B1 (ko) * 2012-09-14 2015-12-21 주식회사 와이드벤티지 자기장 센서를 이용하여 사용자 입력을 판단하는 전기 장치
TWI466062B (zh) * 2012-10-04 2014-12-21 Ind Tech Res Inst 重建三維模型的方法與三維模型重建裝置
KR20140068416A (ko) 2012-11-28 2014-06-09 한국전력공사 스마트 기기를 활용한 3차원 이미지 생성장치 및 그 방법
US20140232634A1 (en) * 2013-02-19 2014-08-21 Apple Inc. Touch-based gestures modified by gyroscope and accelerometer
US9928634B2 (en) * 2013-03-01 2018-03-27 Microsoft Technology Licensing, Llc Object creation using body gestures
US9984502B2 (en) * 2013-08-27 2018-05-29 International Business Machines Corporation Creating three dimensional models with acceleration data
JP6102648B2 (ja) * 2013-09-13 2017-03-29 ソニー株式会社 情報処理装置及び情報処理方法
US9607437B2 (en) * 2013-10-04 2017-03-28 Qualcomm Incorporated Generating augmented reality content for unknown objects
KR20150057100A (ko) * 2013-11-18 2015-05-28 삼성전자주식회사 3d 객체 편집을 위한 전자 장치 및 방법
US10303324B2 (en) 2014-02-10 2019-05-28 Samsung Electronics Co., Ltd. Electronic device configured to display three dimensional (3D) virtual space and method of controlling the electronic device
TWI514252B (zh) * 2014-02-11 2015-12-21 Xyzprinting Inc 立體模型合成方法與立體模型合成裝置
JP5835383B2 (ja) * 2014-03-18 2015-12-24 株式会社リコー 情報処理方法、情報処理装置、およびプログラム
US10290155B2 (en) 2014-06-17 2019-05-14 Valorisation-Recherche, Limited Partnership 3D virtual environment interaction system
TWI542194B (zh) * 2014-07-02 2016-07-11 坦億有限公司 立體影像處理系統、裝置與方法
EP2977961B1 (de) 2014-07-24 2018-06-27 Deutsche Telekom AG Verfahren und Kommunikationseinrichtung zum Erstellen und/oder Ändern virtueller Objekte
TWI621097B (zh) * 2014-11-20 2018-04-11 財團法人資訊工業策進會 行動裝置、操作方法及非揮發性電腦可讀取記錄媒體

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08249496A (ja) * 1995-03-08 1996-09-27 Nec Corp 映像提示方法および装置
JPH1051711A (ja) * 1996-08-05 1998-02-20 Sony Corp 3次元仮想物体表示装置および方法
JPH1118025A (ja) * 1997-06-24 1999-01-22 Fujitsu Ltd 画像呈示装置
JP2011186536A (ja) * 2010-03-04 2011-09-22 Sony Corp 情報処理装置、情報処理法方法およびプログラム
JP2013164696A (ja) * 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
US20130222385A1 (en) * 2012-02-29 2013-08-29 Yale University Systems And Methods For Sketching And Imaging

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11163417B2 (en) 2017-08-31 2021-11-02 Apple Inc. Systems, methods, and graphical user interfaces for interacting with augmented and virtual reality environments
US11740755B2 (en) 2017-08-31 2023-08-29 Apple Inc. Systems, methods, and graphical user interfaces for interacting with augmented and virtual reality environments
JP2019128941A (ja) * 2018-01-24 2019-08-01 アップル インコーポレイテッドApple Inc. 3dモデルのシステム全体の挙動のためのデバイス、方法、及びグラフィカルユーザーインターフェース
US11099707B2 (en) 2018-01-24 2021-08-24 Apple Inc. Devices, methods, and graphical user interfaces for system-wide behavior for 3D models

Also Published As

Publication number Publication date
EP3217258A1 (en) 2017-09-13
EP3217258B1 (en) 2019-05-22
TW201732740A (zh) 2017-09-16
TWI567691B (zh) 2017-01-21
KR20170104371A (ko) 2017-09-15
KR101860313B1 (ko) 2018-07-02
US9928665B2 (en) 2018-03-27
US20170256099A1 (en) 2017-09-07

Similar Documents

Publication Publication Date Title
JP2017162451A (ja) 立体空間のシーン編集方法及び立体空間のシーン編集システム
AU2019216671B2 (en) Method and apparatus for playing video content from any location and any time
CN110944727B (zh) 控制虚拟照相机的系统和方法
US11798594B2 (en) Systems and methods for generating time lapse videos
KR20170072858A (ko) 반응형 영상 생성방법 및 생성프로그램
CN107172502B (zh) 虚拟现实视频播放控制方法及装置
US11070724B2 (en) Image processing apparatus and method
EP3819752A1 (en) Personalized scene image processing method and apparatus, and storage medium
JP6628343B2 (ja) 装置および関連する方法
JP2021177351A (ja) 画像表示装置、制御方法、およびプログラム
US20160344946A1 (en) Screen System
EP3449390A1 (en) Augmented media
JP2020523668A (ja) 仮想カメラを構成するシステム及び方法
US10685679B1 (en) System and method of determining a virtual camera path
GB2549723A (en) A system and method for video editing in a virtual reality enviroment
JP7070547B2 (ja) 画像処理装置および方法、並びにプログラム
CN108242082A (zh) 立体空间的场景编辑方法与系统
JP2020074108A (ja) 情報処理システム、その制御方法、及びプログラム
KR101263881B1 (ko) 무인 방송 제어 시스템
JP2017050642A (ja) 制御装置及びその制御方法、コンピュータプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181009