JP7091073B2 - 電子機器及びその制御方法 - Google Patents
電子機器及びその制御方法 Download PDFInfo
- Publication number
- JP7091073B2 JP7091073B2 JP2018000557A JP2018000557A JP7091073B2 JP 7091073 B2 JP7091073 B2 JP 7091073B2 JP 2018000557 A JP2018000557 A JP 2018000557A JP 2018000557 A JP2018000557 A JP 2018000557A JP 7091073 B2 JP7091073 B2 JP 7091073B2
- Authority
- JP
- Japan
- Prior art keywords
- frame
- posture
- range
- electronic device
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
- H04N1/50—Picture reproducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0261—Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Studio Devices (AREA)
Description
以下、本発明の実施例1に係る電子機器について説明する。実施例1に係る電子機器は動画を再生可能である。実施例1では、複数の動画データをつなぎ合わせたり、1つの長時間の動画データの複数箇所を抜き出したりして1つの動画ファイルとした、いわゆるダイジェスト形式の動画の編集方法と再生方法を例に説明する。
User Interface)を構成するGUI画面などを表示する。CPU101は、プログラムに従い表示制御信号を生成し、表示部105に表示するための映像信号を生成して表示部105に出力するように電子機器100の各部を制御する。表示部105は出力された映像信号に基づいて映像を表示する。なお、電子機器100自体が備える構成としては表示部105に表示させるための映像信号を出力するためのインターフェースまでとし、表示部105は外付けのモニタ(テレビなど)で構成してもよい。
いったポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッドなどを含む、ユーザー操作を受け付けるための入力デバイスである。なお、タッチパネルは、表示部105に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。
・タッチパネル106aにタッチしていなかった指やペンが新たにタッチパネル106aにタッチしたこと、すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する。)
・タッチパネル106aを指やペンがタッチしている状態であること(以下、タッチオン(Touch-On)と称する。)
・指やペンがタッチパネル106aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する。)
・タッチパネル106aへタッチしていた指やペンがタッチパネル106aから離れたこと、すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する。)
・タッチパネル106aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する。)
たと判定するものとする。タッチパネル106a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル106a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル106aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
、上下360度未満、左右360度未満であっても、通常のカメラで撮影可能な画角よりも広い広範な画角(視野範囲)、あるいは、表示部105に一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つ画像も含むものとする。例えば、左右方向(水平角度、方位角度)360度、天頂(zenith)を中心とした垂直角度210度の視野分(画角分)の被写体を撮影可能な全天球カメラで撮影された画像はVR画像の一種である。すなわち、上下方向と左右方向にそれぞれ180度(±90度)以上の視野分の映像範囲を有しており、人間が一度に視認できる範囲よりも広い映像範囲を有している画像はVR画像の一種である。このVR画像をVR表示すると、左右回転方向に姿勢を変化させることで、左右方向(水平回転方向)には継ぎ目のない全方位の映像を視聴することができる。上下方向(垂直回転方向)には、真上(天頂)から見て±105度の範囲では継ぎ目のない全方位の映像を視聴することができるが、真上から105度を超える範囲は映像が存在しないブランク領域となる。VR画像は、「映像範囲が仮想空間(VR空間)の少なくとも一部である画像」とも言える。
れると、表示位置を中心とする表示範囲が決定される。なお、表示範囲のサイズは、VR画像の拡大倍率に応じて変わる。
れた場合はステップS312へ進み、そうでない場合はステップS313へ進む。
致させることができる。
てもよい。これらの場合には、基準方向αを更新しなくても、ユーザーは主被写体などを容易に見ることができる。さらに、基準方向αを更新せずに、検出した姿勢に応じて表示範囲を決定することにより、VR体験(没入感や臨場感)の低下を抑制することもできる。
・検出された姿勢に応じた範囲に主被写体が含まれている場合。すなわち、更新前の基準方向αに対応する表示範囲内に主被写体が含まれている場合。
・検出された姿勢に応じたチャプタ開始フレームの範囲に対するチャプタ開始フレームの主被写体の相対位置と、前フレームの表示範囲に対する前フレームの主被写体の相対位置との差が所定値未満である場合。すなわち、更新前の基準方向αと更新後の基準方向αとの差が所定値未満である場合。
・前フレームの表示範囲にチャプタ開始フレームの主被写体が含まれている場合。すなわち、現在のチャプタの開始時における主被写体の位置が更新前の表示範囲内に収まっている場合。
以下、本発明の実施例2に係る電子機器について説明する。実施例2では、実施例1とは異なり、ダイジェスト形式の動画に限らない動画の編集方法と再生方法を例に説明する。本発明を適用可能な表示制御装置としての電子機器100の構成図と外観図は、それぞれ図1(A),1(B)と同様であり、当該電子機器100を装着可能なVRゴーグル(ヘッドマウントアダプター)の外観図は、図1(C)と同様である。
が実行することで実現される。電子機器100の電源がオンとされ、記憶媒体108に記録された画像や、通信先から取得した画像のうち、VR動画(VRコンテンツである動画)が選択され、編集モードへの遷移が指定されると、図8の処理が開始される。
る全ての人物を含む部分を主被写体の部分として選択してもよい。
イント終了フレームとして決定する。
か否かを判定する。取得したフレームがポイント期間のフレームである場合はステップS1008へ進み、そうでない場合はステップS1010へ進む。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (15)
- 表示部の姿勢を検出する検出手段と、
動画を再生可能な再生手段と、
前記検出手段により検出された前記表示部の姿勢に応じて、画像の一部の範囲であり且つ前記表示部に表示される範囲である表示範囲を変更する変更手段と、
前記動画の第1のフレームが再生される場合に、前記検出手段により検出された姿勢が第1の姿勢でも第2の姿勢でも、主被写体が前記表示部に表示されるように制御し、前記動画の、前記第1のフレームとは異なる第2のフレームが再生される場合に、前記検出された姿勢が前記第1の姿勢と前記第2の姿勢とで、前記表示範囲が異なるように制御する制御手段と、
を有し、
前記制御手段は、前記第1のフレームが再生される場合であって、前記検出された姿勢に応じた範囲に前記主被写体が含まれている場合には、当該範囲が前記表示範囲として前記表示部に表示されるように制御する
ことを特徴とする電子機器。 - 前記制御手段は、前記第1のフレームが再生される場合であって、前記検出された姿勢に応じた範囲に前記主被写体が含まれていない場合に、前記検出された姿勢に依存しない範囲が前記表示範囲として前記表示部に表示されるように制御する
ことを特徴とする請求項1に記載の電子機器。 - 前記第2のフレームは、前記第1のフレームの1つ前のフレームであり、
前記制御手段は、前記第1のフレームが再生される場合であって、前記検出された姿勢に応じた範囲に前記主被写体が含まれていない場合に、前記第1のフレームの表示範囲に対する前記第1のフレームの前記主被写体の相対位置が、前記第2のフレームの表示範囲に対する前記第2のフレームの主被写体の相対位置と略一致するように制御する
ことを特徴とする請求項1または2に記載の電子機器。 - 前記第2のフレームは、前記第1のフレームの1つ前のフレームであり、
前記制御手段は、前記第1のフレームが再生される場合であって、前記検出された姿勢
に応じた前記第1のフレームの範囲に対する前記第1のフレームの前記主被写体の相対位置と、前記第2のフレームの表示範囲に対する前記第2のフレームの主被写体の相対位置との差が所定値未満である場合には、前記検出された姿勢に応じた前記第1のフレームの前記範囲が前記表示範囲として前記表示部に表示されるように制御する
ことを特徴とする請求項1~3のいずれか1項に記載の電子機器。 - 前記第2のフレームは、前記第1のフレームの1つ前のフレームであり、
前記制御手段は、前記第1のフレームが再生される場合であって、前記第2のフレームの表示範囲に前記第1のフレームの前記主被写体が含まれている場合には、前記検出された姿勢に応じた前記第1のフレームの前記範囲が前記表示範囲として前記表示部に表示されるように制御する
ことを特徴とする請求項1~4のいずれか1項に記載の電子機器。 - 前記制御手段は、前記第1のフレームが再生される場合であって、前記主被写体が設定されていない場合には、前記検出された姿勢に応じた範囲が前記表示範囲として前記表示部に表示されるように制御する
ことを特徴とする請求項1~5のいずれか1項に記載の電子機器。 - 前記第2のフレームは、前記第1のフレームの1つ前のフレームであり、
前記制御手段は、前記第1のフレームが再生される場合であって、前記検出された姿勢に応じた範囲に前記主被写体が含まれていない場合に、前記第1のフレームの表示範囲と前記第2のフレームの表示範囲との差が所定値未満に制限されるように制御する
ことを特徴とする請求項1~6のいずれか1項に記載の電子機器。 - 前記制御手段は、前記第2のフレームから前記第1のフレームへの画像の変化量が所定量よりも大きい場合に、前記第1のフレームの表示範囲と前記第2のフレームの表示範囲との前記差が前記所定値未満に制限されないように制御する
ことを特徴とする請求項7に記載の電子機器。 - 前記第1のフレームは、前記動画のチャプタの開始タイミングに対応するフレームである
ことを特徴とする請求項1~8のいずれか1項に記載の電子機器。 - 前記第1のフレームの期間を設定可能な設定手段、をさらに有する
ことを特徴とする請求項1~9のいずれか1項に記載の電子機器。 - 前記制御手段は、
ユーザーによって指定されたフレーム、
所定音の出力が開始するフレーム、
被写体の数の変化が開始するフレーム、
前記動画の撮影時における撮像装置の姿勢変化の開始タイミングに対応するフレーム、または、
前記動画の撮影時における撮像装置の振動の開始タイミングに対応するフレームが、前記期間の開始フレームとなるように制御する
ことを特徴とする請求項10に記載の電子機器。 - 前記制御手段は、
前記期間の開始フレームから所定フレーム数後のフレーム、
所定音の出力が終了するフレーム、
被写体の数の変化が終了するフレーム、
前記動画の撮影時における撮像装置の姿勢変化の終了タイミングに対応するフレーム、または、
前記動画の撮影時における撮像装置の振動の終了タイミングに対応するフレームが、前記期間の終了フレームとなるように制御する
ことを特徴とする請求項10または11に記載の電子機器。 - 表示部の姿勢を検出する検出ステップと、
動画を再生する再生ステップと、
前記検出ステップにより検出された前記表示部の姿勢に応じて、画像の一部の範囲であり且つ前記表示部に表示される範囲である表示範囲を変更する変更ステップと、
前記動画の第1のフレームが再生される場合に、前記検出ステップにより検出された姿勢が第1の姿勢でも第2の姿勢でも、主被写体が前記表示部に表示されるように制御し、前記動画の、前記第1のフレームとは異なる第2のフレームが再生される場合に、前記検出された姿勢が前記第1の姿勢と前記第2の姿勢とで、前記表示範囲が異なるように制御する制御ステップと、
を有し、
前記制御ステップでは、前記第1のフレームが再生される場合であって、前記検出された姿勢に応じた範囲に前記主被写体が含まれている場合には、当該範囲が前記表示範囲として前記表示部に表示されるように制御する
ことを特徴とする電子機器の制御方法。 - コンピュータを、請求項1~12のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
- コンピュータを、請求項1~12のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018000557A JP7091073B2 (ja) | 2018-01-05 | 2018-01-05 | 電子機器及びその制御方法 |
US16/239,722 US10754444B2 (en) | 2018-01-05 | 2019-01-04 | Electronic apparatus and control method therefor |
CN201910008123.2A CN110045896B (zh) | 2018-01-05 | 2019-01-04 | 电子设备及其控制方法和计算机可读介质 |
DE102019100093.9A DE102019100093A1 (de) | 2018-01-05 | 2019-01-04 | Elektronische Vorrichtung und Steuerverfahren für diese |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018000557A JP7091073B2 (ja) | 2018-01-05 | 2018-01-05 | 電子機器及びその制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019121918A JP2019121918A (ja) | 2019-07-22 |
JP7091073B2 true JP7091073B2 (ja) | 2022-06-27 |
Family
ID=66995569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018000557A Active JP7091073B2 (ja) | 2018-01-05 | 2018-01-05 | 電子機器及びその制御方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10754444B2 (ja) |
JP (1) | JP7091073B2 (ja) |
CN (1) | CN110045896B (ja) |
DE (1) | DE102019100093A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016201714A (ja) | 2015-04-13 | 2016-12-01 | キヤノン株式会社 | 表示制御装置および表示制御方法 |
WO2017192125A1 (en) | 2016-05-02 | 2017-11-09 | Facebook, Inc. | Systems and methods for presenting content |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11195131A (ja) * | 1997-12-26 | 1999-07-21 | Canon Inc | 仮想現実方法及び装置並びに記憶媒体 |
JP4396555B2 (ja) * | 2005-03-17 | 2010-01-13 | 船井電機株式会社 | 映像データ再生装置 |
JP2009245392A (ja) * | 2008-03-31 | 2009-10-22 | Brother Ind Ltd | ヘッドマウントディスプレイ及びヘッドマウントディスプレイシステム |
JP5104679B2 (ja) * | 2008-09-11 | 2012-12-19 | ブラザー工業株式会社 | ヘッドマウントディスプレイ |
US9245177B2 (en) * | 2010-06-02 | 2016-01-26 | Microsoft Technology Licensing, Llc | Limiting avatar gesture display |
JP6161400B2 (ja) * | 2013-05-17 | 2017-07-12 | キヤノン株式会社 | 動画再生装置及びその制御方法 |
US9300882B2 (en) * | 2014-02-27 | 2016-03-29 | Sony Corporation | Device and method for panoramic image processing |
KR102227087B1 (ko) * | 2014-07-08 | 2021-03-12 | 엘지전자 주식회사 | 글래스 타입 단말기 및 그것의 제어방법 |
US20170192125A1 (en) * | 2014-07-17 | 2017-07-06 | Halliburton Energy Services, Inc. | Molecular Factor Computing Sensor for Intelligent Well Completion |
US9898868B2 (en) * | 2014-11-06 | 2018-02-20 | Seiko Epson Corporation | Display device, method of controlling the same, and program |
US20160216792A1 (en) * | 2015-01-26 | 2016-07-28 | Seiko Epson Corporation | Head mounted display, and control method and control program for head mounted display |
US10684485B2 (en) * | 2015-03-06 | 2020-06-16 | Sony Interactive Entertainment Inc. | Tracking system for head mounted display |
KR101716326B1 (ko) * | 2015-09-08 | 2017-03-14 | 클릭트 주식회사 | 가상현실영상 전송방법, 재생방법 및 이를 이용한 프로그램 |
US9819855B2 (en) * | 2015-10-21 | 2017-11-14 | Google Inc. | Balancing exposure and gain at an electronic device based on device motion and scene distance |
KR102609477B1 (ko) * | 2017-02-06 | 2023-12-04 | 삼성전자주식회사 | 파노라마 이미지 또는 동영상을 생성하는 전자 장치 및 그 방법 |
-
2018
- 2018-01-05 JP JP2018000557A patent/JP7091073B2/ja active Active
-
2019
- 2019-01-04 DE DE102019100093.9A patent/DE102019100093A1/de active Pending
- 2019-01-04 US US16/239,722 patent/US10754444B2/en active Active
- 2019-01-04 CN CN201910008123.2A patent/CN110045896B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016201714A (ja) | 2015-04-13 | 2016-12-01 | キヤノン株式会社 | 表示制御装置および表示制御方法 |
WO2017192125A1 (en) | 2016-05-02 | 2017-11-09 | Facebook, Inc. | Systems and methods for presenting content |
Also Published As
Publication number | Publication date |
---|---|
CN110045896A (zh) | 2019-07-23 |
JP2019121918A (ja) | 2019-07-22 |
DE102019100093A1 (de) | 2019-07-11 |
CN110045896B (zh) | 2023-07-11 |
US10754444B2 (en) | 2020-08-25 |
US20190212833A1 (en) | 2019-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7043255B2 (ja) | 電子機器及びその制御方法 | |
EP3226537B1 (en) | Mobile terminal and method for controlling the same | |
JP2021002288A (ja) | 画像処理装置、コンテンツ処理システム、および画像処理方法 | |
US11295530B2 (en) | Electronic apparatus for playing back a virtual reality video image and control method therefor | |
JP7183033B2 (ja) | 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体 | |
JP7094815B2 (ja) | 表示制御装置、表示制御装置の制御方法、プログラム、記憶媒体 | |
JP2020010130A (ja) | 電子機器 | |
JP7140527B2 (ja) | 電子機器及びその制御方法 | |
KR20200091188A (ko) | 전자 장치 및 그의 컨텐트 제공 방법 | |
JP7267764B2 (ja) | 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体 | |
JP2021174317A (ja) | 電子機器及びその制御方法 | |
JP2021089382A (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 | |
JP7091073B2 (ja) | 電子機器及びその制御方法 | |
US11380075B2 (en) | Electronic apparatus for playing back a virtual reality video image and control method therefor | |
US10937217B2 (en) | Electronic device and control method thereof for generating edited VR content | |
CN113766275A (zh) | 视频剪辑方法、装置、终端及存储介质 | |
US10200606B2 (en) | Image processing apparatus and control method of the same | |
JP2020129340A (ja) | 電子機器、電子機器の制御方法、プログラム | |
JP2021069045A (ja) | 表示制御装置、表示制御方法、プログラムおよび記憶媒体 | |
JP7210153B2 (ja) | 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体 | |
US20240176411A1 (en) | Electronic device and method for controlling electronic device | |
JP7214475B2 (ja) | 電子機器及びその制御方法 | |
JP7278774B2 (ja) | 電子機器及びその制御方法 | |
JP7204482B2 (ja) | 電子機器及びその制御方法 | |
JP7208002B2 (ja) | 電子機器及びその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20181116 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220517 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220615 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7091073 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |