JP7091073B2 - 電子機器及びその制御方法 - Google Patents

電子機器及びその制御方法 Download PDF

Info

Publication number
JP7091073B2
JP7091073B2 JP2018000557A JP2018000557A JP7091073B2 JP 7091073 B2 JP7091073 B2 JP 7091073B2 JP 2018000557 A JP2018000557 A JP 2018000557A JP 2018000557 A JP2018000557 A JP 2018000557A JP 7091073 B2 JP7091073 B2 JP 7091073B2
Authority
JP
Japan
Prior art keywords
frame
posture
range
electronic device
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018000557A
Other languages
English (en)
Other versions
JP2019121918A (ja
Inventor
誠司 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018000557A priority Critical patent/JP7091073B2/ja
Priority to US16/239,722 priority patent/US10754444B2/en
Priority to CN201910008123.2A priority patent/CN110045896B/zh
Priority to DE102019100093.9A priority patent/DE102019100093A1/de
Publication of JP2019121918A publication Critical patent/JP2019121918A/ja
Application granted granted Critical
Publication of JP7091073B2 publication Critical patent/JP7091073B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/50Picture reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Devices (AREA)

Description

本発明は、電子機器、電子機器の制御方法、プログラム、及び、記憶媒体に関し、特に、広範囲の映像を有する動画を表示する技術に関するものである。
全方位動画や視野角が広い動画においては、ユーザーが一度に視認可能な範囲は限られている。特許文献1では、動画の再生時に、広域の画像のうちの、より多くのユーザーが見ている視聴方向に、表示範囲を自動的に切り替えることで、ユーザーが動画の見どころを見れるようにすることが開示されている。
特開2016-201714号公報
しかしながら、特許文献1に開示された従来技術では、見どころがあると常に見どころの部分が表示されてしまうため、多くのユーザーが見ている視聴方向でない他の部分をユーザーが見たくても見れなくなってしまう可能性がある。一方で、見どころなどの情報を示さないとユーザーが見どころ以外の部分を見ている場合に、見どころに気付かない可能性がある。
そこで本発明は、ユーザーが広範囲の画像の一部が表示される動画をみている際の視認性を向上させることを目的とする。
本発明の電子機器は、表示部の姿勢を検出する検出手段と、動画を再生可能な再生手段と、前記検出手段により検出された前記表示部の姿勢に応じて、画像の一部の範囲であり且つ前記表示部に表示される範囲である表示範囲を変更する変更手段と、前記動画の第1のフレームが再生される場合に、前記検出手段により検出された姿勢が第1の姿勢でも第2の姿勢でも、主被写体が前記表示部に表示されるように制御し、前記動画の、前記第1のフレームとは異なる第2のフレームが再生される場合に、前記検出された姿勢が前記第1の姿勢と前記第2の姿勢とで、前記表示範囲が異なるように制御する制御手段と、を有し、前記制御手段は、前記第1のフレームが再生される場合であって、前記検出された姿勢に応じた範囲に前記主被写体が含まれている場合には、当該範囲が前記表示範囲として前記表示部に表示されるように制御することを特徴とする。
本発明によれば、ユーザーが広範囲の画像の一部が表示される動画をみている際の視認性を向上させることができる。
実施例1,2に係る電子機器の構成などの一例を示す図である。 実施例1,2に係るVR画像などの一例を示す図である。 実施例1に係る動画編集処理の一例を示すフローチャートである。 実施例1に係る動画編集処理の表示例を示す図である。 実施例1に係る動画再生処理の一例を示すフローチャートである。 実施例1に係る基準方向の更新の一例を示す図である。 実施例1に係る撮影モード処理の一例を示すフローチャートである。 実施例2に係る動画編集処理の一例を示すフローチャートである。 実施例2に係るポイント期間決定処理の一例を示すフローチャートである。 実施例2に係る動画再生処理の一例を示すフローチャートである。
<実施例1>
以下、本発明の実施例1に係る電子機器について説明する。実施例1に係る電子機器は動画を再生可能である。実施例1では、複数の動画データをつなぎ合わせたり、1つの長時間の動画データの複数箇所を抜き出したりして1つの動画ファイルとした、いわゆるダイジェスト形式の動画の編集方法と再生方法を例に説明する。
図1(A)に、本発明を適用可能な表示制御装置の一例としての電子機器100の構成の一例を示す。電子機器100は、スマートフォンなどの表示装置を用いて構成可能なものである。
図1(A)において、内部バス150に対してCPU101、メモリ102、不揮発性メモリ103、画像処理部104、表示部105、操作部106、記憶媒体I/F107、外部I/F109、及び、通信I/F110が接続されている。また、内部バス150に対して音声出力部112と姿勢検出部113も接続されている。内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができるようにされている。
CPU101は、電子機器100の全体を制御する制御部であり、少なくとも1つのプロセッサーからなる。メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリなど)からなる。CPU101は、例えば不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、電子機器100の各部を制御する。不揮発性メモリ103には、画像データや音声データ、その他のデータ、CPU101が動作するための各種プログラムなどが格納される。不揮発性メモリ103は例えばフラッシュメモリやROMなどで構成される。
画像処理部104は、CPU101の制御に基づいて、不揮発性メモリ103や記憶媒体108に格納された画像や、外部I/F109を介して取得した映像信号、通信I/F110を介して取得した画像などに対して各種画像処理を施す。画像処理部104が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理などが含まれる。また、全方位画像あるいは全方位ではないにせよ広範囲のデータを有する広範囲画像のパノラマ展開やマッピング処理、変換などの各種画像処理も行う。画像処理部104は特定の画像処理を施すための専用の回路ブロックで構成してもよい。また、画像処理の種別によっては画像処理部104を用いずにCPU101がプログラムに従って画像処理を施すことも可能である。
表示部105は、CPU101の制御に基づいて、画像やGUI(Graphical
User Interface)を構成するGUI画面などを表示する。CPU101は、プログラムに従い表示制御信号を生成し、表示部105に表示するための映像信号を生成して表示部105に出力するように電子機器100の各部を制御する。表示部105は出力された映像信号に基づいて映像を表示する。なお、電子機器100自体が備える構成としては表示部105に表示させるための映像信号を出力するためのインターフェースまでとし、表示部105は外付けのモニタ(テレビなど)で構成してもよい。
操作部106は、キーボードなどの文字情報入力デバイスや、マウスやタッチパネルと
いったポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッドなどを含む、ユーザー操作を受け付けるための入力デバイスである。なお、タッチパネルは、表示部105に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。
記憶媒体I/F107は、メモリーカードやCD、DVDといった記憶媒体108が装着可能とされ、CPU101の制御に基づき、装着された記憶媒体108からのデータの読み出しや、当該記憶媒体108に対するデータの書き込みを行う。外部I/F109は、外部機器と有線ケーブルや無線によって接続し、映像信号や音声信号の入出力を行うためのインターフェースである。通信I/F110は、外部機器やインターネット111などと通信して、ファイルやコマンドなどの各種データの送受信を行うためのインターフェースである。
音声出力部112は、動画や音楽データの音声や、操作音、着信音、各種通知音などを出力する。音声出力部112には、イヤホンなどを接続する音声出力端子112a、スピーカー112bが含まれるものとするが、無線通信などで音声出力を行ってもよい。
姿勢検出部113は、重力方向に対する電子機器100の姿勢を検出(検知)する。姿勢検出部113で検出された姿勢に基づいて、電子機器100が横に保持されているか、縦に保持されているか、上に向けられたか、下に向けられたか、斜めの姿勢になったかなどを判別可能である。姿勢検出部113としては、加速度センサー、ジャイロセンサー、地磁気センサー、方位センサーなどのうち少なくとも1つを用いることができ、複数を組み合わせて用いることも可能である。
なお操作部106には、タッチパネル106aが含まれる。CPU101はタッチパネル106aへの以下の操作、あるいは状態を検出できる。
・タッチパネル106aにタッチしていなかった指やペンが新たにタッチパネル106aにタッチしたこと、すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する。)
・タッチパネル106aを指やペンがタッチしている状態であること(以下、タッチオン(Touch-On)と称する。)
・指やペンがタッチパネル106aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する。)
・タッチパネル106aへタッチしていた指やペンがタッチパネル106aから離れたこと、すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する。)
・タッチパネル106aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する。)
タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出されると、タッチオフが検出される。
これらの操作・状態や、タッチパネル106a上に指やペンがタッチしている位置座標は内部バスを通じてCPU101に通知され、CPU101は通知された情報に基づいてタッチパネル106a上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチパネル106a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル106a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行なわれ
たと判定するものとする。タッチパネル106a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル106a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル106aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
図1(B)に、電子機器100の外観図の例を示す。表示部105は画像や各種情報を表示する。表示部105は上述した通りタッチパネル106aと一体的に構成されており、表示部105の表示面へのタッチ操作を検出できるようになっている。操作部106には図示のように操作部106b,106c,106d,106eが含まれる。操作部106bは電子機器100の電源のオンとオフを切り替える操作を受け付ける電源ボタンである。操作部106cと操作部106dは音声出力部112から出力する音声のボリュームを増減するボリュームボタンである。操作部106eは、表示部105にホーム画面を表示させるためのホームボタンである。
図1(C)に、電子機器100を装着可能なVR(Virtual Reality)ゴーグルであるヘッドマウントアダプターの外観図を示す。電子機器100は、VRゴーグルに装着することで、ヘッドマウントディスプレイとして使用することも可能である。挿入口120は、電子機器100を差し込むための挿入口である。表示部105の表示面を、VRゴーグルをユーザーの頭部に固定するためのヘッドバンド130側(すなわちユーザー側)に向けて電子機器100の全体をVRゴーグル差し込むことができる。こうして電子機器100が装着されたVRゴーグルを装着することにより、ユーザーはVRゴーグルを頭部に装着した状態で、ユーザーが手で電子機器100を保持することなく、電子機器100の表示部105を視認することができる。この場合、ユーザーが頭部または体全体を動かすと、電子機器100の姿勢も変化する。姿勢検出部113はこの時の電子機器100の姿勢の変化を検出し、この姿勢の変化に基づいてCPU101が後述するVR表示(VR表示処理)を行う。この場合に姿勢検出部113が電子機器100の姿勢を検出することは、ユーザーの頭部の姿勢(ユーザーの視線が向いている方向)を検出することと同等である。
電子機器100は、VR画像(VRコンテンツ)を表示部105においてVR表示することが可能である。
VR画像とは、VR表示をすることのできる画像であるものとする。VR画像には、全方位カメラ(全天球カメラ)で撮像した全方位画像(全天球画像)や、表示部105に一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つパノラマ画像などが含まれるものとする。また、カメラで撮影した画像に限らず、コンピュータグラフィックスス(CG)を用いて作成した画像であっても、VR表示可能なものはVR画像(VRコンテンツ)に含まれるものとする。VR画像には、静止画だけでなく、動画やライブビュー画像(カメラからほぼリアルタイムで取得した画像)も含まれる。VR画像は、最大で上下方向(垂直角度、天頂からの角度、仰角、俯角、高度角)360度、左右方向(水平角度、方位角度)360度の視野分の映像範囲(有効映像範囲)を持つ。また、VR画像は
、上下360度未満、左右360度未満であっても、通常のカメラで撮影可能な画角よりも広い広範な画角(視野範囲)、あるいは、表示部105に一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つ画像も含むものとする。例えば、左右方向(水平角度、方位角度)360度、天頂(zenith)を中心とした垂直角度210度の視野分(画角分)の被写体を撮影可能な全天球カメラで撮影された画像はVR画像の一種である。すなわち、上下方向と左右方向にそれぞれ180度(±90度)以上の視野分の映像範囲を有しており、人間が一度に視認できる範囲よりも広い映像範囲を有している画像はVR画像の一種である。このVR画像をVR表示すると、左右回転方向に姿勢を変化させることで、左右方向(水平回転方向)には継ぎ目のない全方位の映像を視聴することができる。上下方向(垂直回転方向)には、真上(天頂)から見て±105度の範囲では継ぎ目のない全方位の映像を視聴することができるが、真上から105度を超える範囲は映像が存在しないブランク領域となる。VR画像は、「映像範囲が仮想空間(VR空間)の少なくとも一部である画像」とも言える。
VR表示とは、VR画像のうち、姿勢検出部113で検出した電子機器100の姿勢に応じた視野範囲の映像を表示する、表示範囲を変更可能な表示方法である。電子機器100をVRゴーグルに装着して視聴する場合には、ユーザーの顔の向きに応じた視野範囲の映像を表示することになる。例えば、VR画像のうち、ある時点で左右方向に0度(特定の方位、例えば北)、上下方向に90度(天頂から90度、すなわち水平)を中心とした視野角(画角)の映像を表示しているものとする。この状態から、電子機器100の姿勢を表裏反転させると(例えば、表示面を南向きから北向きに変更すると)、同じVR画像のうち、左右方向に180度(逆の方位、例えば南)、上下方向に90度(水平)を中心とした視野角の映像に、表示範囲が変更される。ユーザーがVRゴーグルに装着した電子機器100を視聴している場合で言えば、ユーザーが顔を北から南に向ければ(すなわち後ろを向けば)、電子機器100に表示される映像も北の映像から南の映像に変わるということである。このようなVR表示によって、ユーザーに、視覚的にあたかもVR画像内(VR空間内)のその場にいるような感覚を提供することができる。
VR表示の具体例について説明する。図2(A)は、上下方向に180度、左右方向に360度の視野分の映像範囲を有するVR画像201を示す図である。VR表示時は、図2(A)に示すように、姿勢検出部113で検出した電子機器100の姿勢に応じて、VR画像201の一部の範囲202が、表示範囲として決定される。そして、図2(B)に示すように、表示範囲202の映像が、表示部105に表示される。表示範囲202は、電子機器100の姿勢変化に追従して変化する。例えば、ユーザーがVRゴーグルに装着した電子機器100を視聴している場合には、ユーザーが顔を左に向けると表示範囲202が左に移動し、ユーザーが顔を上に向けると表示範囲202が上に移動する。
図2(C)は、VR空間210を示す。図2(C)に示すように、VR表示では、ユーザーは、あたかもVR空間210内にいるような没入感や臨場感を得ることができる。VR表示の表示位置(表示範囲の位置)211は、XY軸平面(前後左右方向の面)における角度A1と、XZ軸平面(上下方向の面)における角度A2とを用いて表すことができる。角度A1は、「VR空間210の中心位置(ユーザーの位置)と表示位置211を通る方向の、Z軸(上下方向)まわりの回転角」とも言える。角度A2は、「VR空間210の中心位置と表示位置211を通る方向の、Z軸に垂直なY軸まわりの回転角」とも言える。電子機器100がZ軸を軸として回転すると、角度A1が変化して表示位置211が変化する。電子機器100がY軸を軸として回転すると、角度A2が変化して表示位置211が変化する。ユーザーがVRゴーグルに装着した電子機器100を視聴している場合には、ユーザーが顔を左右に振ると角度A1が変化し、ユーザーが顔を上下に振ると角度A2が変化する。タッチパネル106aに対するタッチ操作(スライド操作やフリック)により角度A1,A2を変更して表示位置を変更することもできる。表示位置が決定さ
れると、表示位置を中心とする表示範囲が決定される。なお、表示範囲のサイズは、VR画像の拡大倍率に応じて変わる。
図3に、電子機器100で行われる動画編集処理のフローチャートを示す。この処理は、不揮発性メモリ103に記録されたプログラムをメモリ102に展開してCPU101が実行することで実現される。電子機器100の電源がオンとされ、記憶媒体108に記録された画像や、通信先から取得した画像のうち、VR動画(VRコンテンツである動画)が選択され、編集モードへの遷移が指定されると、図3の処理が開始される。本実施例では、VR動画は複数のチャプタ(部分動画)に区分されており、図3の処理により、複数のチャプタから1つ以上のチャプタが選択され、選択されたチャプタからなる動画(組動画;ダイジェスト形式の動画)が生成される。
ステップS301では、CPU101は、VR動画の動画ファイルを取得する。
ステップS302では、CPU101は、操作部106に対し、ステップS301で取得されたVR動画のチャプタを選択する選択操作がされたか否かを判定する。選択操作がされた場合はステップS303へ進み、そうでない場合はステップS304へ進む。
ステップS303では、CPU101は、ステップS302の選択操作に基づき、ステップS301で取得されたVR動画の複数のチャプタのいずれかを選択し、選択したチャプタの状態を選択状態にする。
ステップS304では、CPU101は、ステップS303で選択状態となったチャプタ(選択チャプタ)の有無を判定する。選択チャプタがある場合はステップS305へ進み、そうでない場合はステップS315へ進む。
ステップS305では、CPU101は、操作部106に対し、選択チャプタの選択状態を解除する解除操作がされたか否かを判定する。解除操作がされた場合はステップS306へ進み、そうでない場合はステップS307へ進む。
ステップS306では、CPU101は、ステップS305の解除操作に基づき、選択チャプタの状態を解除状態にする。
ステップS307では、CPU101は、操作部106に対し、選択チャプタを組動画へ追加する追加操作がされたか否かを判定する。追加操作がされた場合はステップS308へ進み、そうでない場合はステップS309へ進む。
ステップS308では、CPU101は、ステップS307の追加操作に基づき、選択チャプタの状態を、組動画に追加される追加状態にする。
ステップS309では、CPU101は、操作部106に対し、ステップS308で追加状態となった選択チャプタを組動画から除外する除外操作がされたか否かを判定する。除外操作がされた場合はステップS310へ進み、そうでない場合はステップS311へ進む。
ステップS310では、CPU101は、ステップS309の除外操作に基づき、選択チャプタの状態を、組動画に追加されない除外状態にする。
ステップS311では、CPU101は、操作部106に対し、主被写体(選択チャプタの主被写体)を選択する選択操作がされたか否かを判定する。主被写体の選択操作がさ
れた場合はステップS312へ進み、そうでない場合はステップS313へ進む。
ステップS312では、CPU101は、ステップS311の選択操作に基づき、主被写体を選択し、選択チャプタのメタデータに、選択した主被写体に関する主被写体情報を追加する。主被写体情報は、主被写体を示す情報であってもよいし、そうでなくてもよい。
ステップS313では、CPU101は、操作部106に対し、主被写体の選択を解除する解除操作がされたか否かを判定する。主被写体の解除操作がされた場合はステップS314へ進み、そうでない場合はステップS302へ進む。
ステップS314では、CPU101は、ステップS313の解除操作に基づき、選択チャプタのメタデータから主被写体情報を削除する。
ステップS315では、CPU101は、操作部106に対し、組動画を生成する動画生成操作がされたか否かを判定する。動画生成操作がされた場合はステップS316へ進み、そうでない場合はステップS318へ進む。
ステップS316では、CPU101は、追加状態のチャプタ(追加チャプタ)について、チャプタ開始位置(組動画における追加チャプタの開始タイミング)をメタデータに記録する。
ステップS317では、CPU101は、追加チャプタからなる組動画の動画ファイルとして、追加チャプタの動画データとメタデータを含む動画ファイルを生成する。なお、組動画のフィルター効果の設定、組動画の再生速度の設定、等の他の設定が可能であってもよい。
ステップS318では、CPU101は、操作部106に対し、動画編集処理を終了する終了操作がされたか否かを判定する。終了操作がされた場合は動画編集処理を終了し、そうでない場合はステップS319へ進む。
ステップS319では、CPU101は、ステップS317で生成された組動画を再生する再生操作がされてか否かを判定する。再生操作がされた場合はステップS320へ進み、そうでない場合はステップS302へ進む。
ステップS320では、CPU101は、ステップS317で生成された組動画を再生する再生処理を行う。これにより、ユーザーは所望の組動画が作れたかどうかを確認できる。
図4は、動画編集処理の表示例を示す。動画編集処理では、動画編集GUI401が表示部105に表示される。動画編集GUI401は、映像を表示する箇所402と、各種ユーザー操作を受け付ける操作パネル403とを有する。箇所402には、ステップS301で取得されたVR動画、ステップS317で生成された組動画、等が表示される。ユーザーは、操作パネル403を用いて、動画の再生、動画の停止、等を指示できる。また、操作パネル403は、タイムライン404とチャプタ選択ボタン405を含む。タイムライン404は、動画の複数のフレームのうち、表示されているフレームの時間位置を示す。チャプタ選択ボタン405は、チャプタの状態を選択状態と非選択状態の間で切り替えるためのボタンである。例えば、チャプタ選択ボタン405が押下されると、チャプタの状態が選択状態にされ、選択状態のチャプタを示すタグ406がタイムライン404上に表示される。
図5に、電子機器100で行われる動画再生処理のフローチャートを示す。この処理は、不揮発性メモリ103に記録されたプログラムをメモリ102に展開してCPU101が実行することで実現される。電子機器100の電源がオンとされ、記憶媒体108に記録された画像や、通信先から取得した動画像のうち、VR動画が選択され、再生モードへの遷移が指定されると、図5の処理が開始される。
ステップS501では、CPU101は、VR動画(図3の動画編集処理で生成された組動画)の動画ファイルを取得する。
ステップS502では、CPU101は、ステップS501で取得した動画ファイルから、チャプタの主被写体情報を取得する。
ステップS503では、CPU101は、ステップS501で取得した動画ファイルにおけるN番目(Nは1以上の整数)のチャプタであるチャプタNの再生を開始する。Nの初期値は例えば1である。
ステップS504では、CPU101は、チャプタNの1フレームを取得する。本実施例では、ステップS504の処理が複数回繰り返される。それにより、複数のフレームが時系列順で取得される。
ステップS505では、CPU101は、図2(C)のVR空間においてユーザーから向かう方向であり、且つ、表示範囲を決定する基準となる方向である基準方向αを取得する。例えば、所定の方向が基準方向αとして取得される。所定の方向は、特に限定されず、チャプタNの撮影時における撮像装置の正面に対応する位置へ向かう方向などである。本実施例では、基準方向αが更新されることがある。その場合には、更新後の基準方向αが取得される。ステップS504でチャプタNの開始位置(最初)のフレームが取得された場合には、更新後の基準方向αでなく、所定の方向が基準方向αとして取得されてもよい。
ステップS506では、CPU101は、姿勢検出部113から得られた姿勢情報に基づき、VR空間においてユーザーから向かう方向であり、且つ、VR空間においてユーザーが見ている方向である視聴方向βを決定する。
ステップS507では、CPU101は、ステップS504で取得したフレームが、チャプタNの開始位置のフレームであるか否かを判定する。取得したフレームが開始位置のフレームである場合はステップS508へ進み、そうでない場合はステップS511へ進む。
ステップS508では、CPU101は、チャプタNのメタデータにおける主被写体情報の有無を判定する。主被写体情報がある場合はステップS509へ進み、そうでない場合はステップS511へ進む。
ステップS509では、CPU101は、チャプタNの主被写体情報に基づき、VR空間においてユーザーから主被写体へ向かう方向である注目方向γを決定する。
ステップS510では、CPU101は、ステップS506で決定した視聴方向βがステップS511で決定した注目方向γに略一致するように、基準方向αを更新する(「略」は「完全」を含む)。図6に示すように、基準方向αを更新すれば、ユーザーを中心として、VR空間に描かれた映像を回転させることができ、視聴方向βを注目方向γに略一
致させることができる。
ステップS511では、CPU101は、姿勢検出部113から得られた姿勢情報に基づき、電子機器100の姿勢の変化、すなわちユーザーが見ている方向の変化を検出する。
ステップS512では、CPU101は、ステップS511の検出結果に基づき、ステップS506で決定した視聴方向βを更新する。
ステップS513では、CPU101は、視聴方向βに基づき、ステップS504で取得したフレームについて、視聴方向βが向かう位置を含む範囲を表示範囲として決定し、決定した表示範囲の映像を表示部105に表示する。ステップS510で基準方向αが更新された場合には、電子機器100の姿勢に依存せずに主被写体が表示されるように表示範囲が決定されることになる。また、ステップS511で電子機器100の姿勢の変化が検出された場合には、当該変化に追従するように表示範囲の位置が変更されることになる。
ステップS514では、CPU101は、ステップS504で取得したフレームがチャプタNの最終フレームであるか否かを判定する。取得したフレームが最終フレームである場合はステップS515へ進み、そうでない場合はステップS504へ進む。
ステップS515では、CPU101は、チャプタNが最終チャプタであるか否かを判定する。チャプタNが最終チャプタである場合は動画再生処理を終了し、そうでない場合はステップS516へ進む。
ステップS516では、CPU101は、変数Nに1を加算する。
以上述べたように、本実施例によれば、チャプタ開始フレーム(チャプタの開始タイミングに対応するフレーム)が再生される場合に、電子機器100の姿勢に依存せずに主被写体が表示されるように制御される。そして、他のフレームが再生される場合に、電子機器100の姿勢に応じて異なる表示範囲が表示されるように制御される。これらにより、ユーザーが広範囲の画像の一部が表示される動画をみている際の視認性を向上させることができる。具体的には、VR表示の醍醐味である没入感や臨場感をユーザーに与えつつ、広範囲の映像を有する動画の見どころをユーザーに適切に視聴させることができる。
なお、主被写体情報の有無に依らずに基準方向αの更新(調節)を行ってもよい。例えば、撮像装置の向きを変えずに撮影されたVR動画の場合などにおいて、チャプタの開始時に表示範囲をリセットしたいユーザーがいると考えられる。そのため、チャプタの開始時に、ステップS505で取得された基準方向αを注目方向γとして用いて、基準方向αを更新してもよい。これにより、チャプタの開始時に、更新前の基準方向αにある映像をユーザーが見れるように表示範囲を決定できる。
なお、チャプタ開始フレームの表示範囲に対するチャプタ開始フレームの主被写体の相対位置が、前フレーム(チャプタ開始フレームの1つ前のフレーム)の表示範囲に対する前フレームの主被写体の相対位置と略一致するように制御してもよい。具体的には、ステップS510にて、現在のチャプタの開始時における主被写体の位置が、1つ前のチャプタの終了時における主被写体の位置に略一致するように、基準方向αを更新してもよい。
なお、以下の場合には、検出された姿勢に応じた範囲が表示範囲として表示部105に表示されるように制御してもよい。即ち、以下の場合には、基準方向αの更新を取りやめ
てもよい。これらの場合には、基準方向αを更新しなくても、ユーザーは主被写体などを容易に見ることができる。さらに、基準方向αを更新せずに、検出した姿勢に応じて表示範囲を決定することにより、VR体験(没入感や臨場感)の低下を抑制することもできる。
・検出された姿勢に応じた範囲に主被写体が含まれている場合。すなわち、更新前の基準方向αに対応する表示範囲内に主被写体が含まれている場合。
・検出された姿勢に応じたチャプタ開始フレームの範囲に対するチャプタ開始フレームの主被写体の相対位置と、前フレームの表示範囲に対する前フレームの主被写体の相対位置との差が所定値未満である場合。すなわち、更新前の基準方向αと更新後の基準方向αとの差が所定値未満である場合。
・前フレームの表示範囲にチャプタ開始フレームの主被写体が含まれている場合。すなわち、現在のチャプタの開始時における主被写体の位置が更新前の表示範囲内に収まっている場合。
なお、基準方向αを一度に変更すると、表示範囲の位置が一度に大きく変化し、ユーザーに不快感を与える虞がある。そこで、数フレームで徐々に基準方向αを変更して表示範囲の位置を徐々に変更してもよい。ただし、チャプタの切り替わりによって、映像の撮影場所の切り替わり、シーンの切り替わり、等が生じる場合には、基準方向αを一度に変更してもよい。すなわち、チャプタ開始フレームの表示範囲と前フレームの表示範囲との差が所定値未満に制限されるように制御してもよい。そして、前フレームからチャプタ開始フレームへの画像の変化量が所定量よりも大きい場合に、チャプタ開始フレームの表示範囲と前フレームの表示範囲との差が所定値未満に制限されないように制御してもよい。
なお、動画編集処理では、1つのチャプタに対して複数の被写体のそれぞれを主被写体として選択してもよい。そして、複数の主被写体が表示範囲内に収まるように基準方向αを更新してもよい。
なお、動画編集処理においてチャプタの選択後に主被写体を選択する例を説明たが、これに限らない。チャプタが未選択の状態で、主被写体の選択操作に応じて、主被写体の選択だけでなく、チャプタの選択を行ってもよい。
なお、1つのVR動画から抽出されたチャプタからなる組動画を生成する例を説明したが、これに限らない。例えば、電子機器100が、動画撮影機能を有し、複数回の撮影で得られた複数のVR動画のそれぞれをチャプタとして含む組動画を生成してもよい。
図7は、電子機器100で行われる撮影モード処理のフローチャートを示す。この処理は、不揮発性メモリ103に記録されたプログラムをメモリ102に展開してCPU101が実行することで実現される。電子機器100の電源がオンとされ、撮影モードへの遷移が指定されると図7の処理が開始される。
ステップS701では、CPU101は、被写体の現状を表すライブビュー画面を表示部105に表示するLV制御を開始する。
ステップS702では、図3のステップS311と同様に、CPU101は、操作部106に対し、主被写体を選択する選択操作がされたか否かを判定する。主被写体の選択操作がされた場合はステップS703へ進み、そうでない場合はステップS704へ進む。
ステップS703では、CPU101は、ステップS702の選択操作に基づき、主被写体を選択する。
ステップS704では、図3のステップS313と同様に、CPU101は、操作部106に対し、主被写体の選択を解除する解除操作がされたか否かを判定する。主被写体の解除操作がされた場合はステップS705へ進み、そうでない場合はステップS706へ進む。
ステップS705では、CPU101は、ステップS704の解除操作に基づき、主被写体の選択を解除する。
ステップS706では、CPU101は、操作部106に対し、VR動画を撮影する撮影操作がされたか否かを判定する。撮影操作がされた場合はステップS707へ進み、そうでない場合はステップS713へ進む。動画の撮影は、ユーザーのシャッターボタンの押下や撮影開始、終了を指示するアイテムの選択によって開始され、撮影の開始と同じ操作で停止されてもよい。また、1分や2分といった所定時間経過後に自動的に動画の撮影を停止してもよい。
ステップS707では、CPU101は、撮影処理を実行し、撮影したVR動画の動画データを取得する。
ステップS708では、CPU101は、主被写体が選択されているか否かを判定する。主被写体が選択されている場合はステップS709へ進み、そうでない場合はステップS710へ進む。
ステップS709では、CPU101は、ステップS707で取得された動画データのメタデータに、選択されている主被写体に関する主被写体情報を追加する。
ステップS710では、CPU101は、組動画の動画ファイルが記憶媒体108に生成されている否かを判定する。動画ファイルが生成済みである場合はステップS711へ進み、そうでない場合はステップS712へ進む。
ステップS711では、CPU101は、記憶媒体108に記録済みの動画ファイルに対して、ステップS707で取得された動画データとそのメタデータとを、最終チャプタのデータとして追加する。
ステップS712では、CPU101は、ステップS707で取得された動画データとそのメタデータとを含む動画ファイルを生成し、生成した動画ファイルを記憶媒体108に記録する。
ステップS713では、CPU101は、操作部106に対し、撮影モード処理を終了する終了操作がされたか否かを判定する。撮影モード処理の終了操作がされた場合は撮影モード処理を終了し、そうでない場合はステップS702へ進む。
<実施例2>
以下、本発明の実施例2に係る電子機器について説明する。実施例2では、実施例1とは異なり、ダイジェスト形式の動画に限らない動画の編集方法と再生方法を例に説明する。本発明を適用可能な表示制御装置としての電子機器100の構成図と外観図は、それぞれ図1(A),1(B)と同様であり、当該電子機器100を装着可能なVRゴーグル(ヘッドマウントアダプター)の外観図は、図1(C)と同様である。
図8に、電子機器100で行われる動画編集処理のフローチャートを示す。この処理は、不揮発性メモリ103に記録されたプログラムをメモリ102に展開してCPU101
が実行することで実現される。電子機器100の電源がオンとされ、記憶媒体108に記録された画像や、通信先から取得した画像のうち、VR動画(VRコンテンツである動画)が選択され、編集モードへの遷移が指定されると、図8の処理が開始される。
ステップS801では、CPU101は、VR動画の動画ファイルを取得する。
ステップS802では、CPU101は、操作部106に対し、ステップS801で取得されたVR動画のフレームを選択する選択操作がされたか否かを判定する。選択操作がされた場合はステップS803へ進み、そうでない場合はステップS804へ進む。
ステップS803では、CPU101は、ステップS802の選択操作に基づき、ステップS801で取得されたVR動画の複数のフレームのいずれかを選択し、選択したフレームの状態を選択状態にする。
ステップS804では、CPU101は、ステップS803で選択状態となったフレーム(選択フレーム)の有無を判定する。選択フレームがある場合はステップS805へ進み、そうでない場合はステップS811へ進む。
ステップS805では、CPU101は、操作部106に対し、選択フレームの選択状態を解除する解除操作がされたか否かを判定する。解除操作がされた場合はステップS806へ進み、そうでない場合はステップS807へ進む。
ステップS806では、CPU101は、ステップS805の解除操作に基づき、選択フレームの状態を解除状態にする。
ステップS807では、CPU101は、操作部106に対し、選択フレームにポイントを付加する付加操作がされたか否かを判定する。付加操作がされた場合はステップS808へ進み、そうでない場合はステップS809へ進む。
ステップS808では、CPU101は、ステップS807の付加操作に基づき、選択フレームのメタデータに、ポイント情報を追加する。付加操作には、主被写体を指示する操作が含まれ、ポイント情報には、指示された主被写体に関する主被写体情報が含まれる。
ステップS809では、CPU101は、操作部106に対し、選択フレームのポイントを解除する解除操作がされたか否かを判定する。ポイントの解除操作がされた場合はステップS810へ進み、そうでない場合はステップS802へ進む。
ステップS810では、CPU101は、ステップS809の解除操作に基づき、選択フレームのメタデータから、ポイント情報を削除する。
ステップS811では、CPU101は、操作部106に対し、動画を生成する動画生成操作がされたか否かを判定する。動画生成操作がされた場合はステップS812へ進み、そうでない場合はステップS814へ進む。
ステップS812では、CPU101は、後述するポイント期間決定処理を行う。
ステップS813では、CPU101は、フレームに必要に応じてポイント情報が付加された動画の動画ファイルを生成する。
ステップS814は、CPU101は、操作部106に対し、動画編集処理を終了する終了操作がされたか否かを判定する。終了操作がされた場合は動画編集処理を終了し、そうでない場合はステップS802へ進む。
図9に、電子機器100で行われるポイント期間決定処理(ステップS812)のフローチャートを示す。この処理は、不揮発性メモリ103に記録されたプログラムをメモリ102に展開してCPU101が実行することで実現される。
ステップS901では、CPU101は、ステップS801で取得されたVR動画のフレームを取得する。本実施例では、ステップS901の処理が複数回繰り返される。それにより、複数のフレームが時系列順で取得される。
ステップS902では、CPU101は、ステップS901で取得したフレームが最終フレームであるか否かを判定する。取得したフレームが最終フレームである場合はステップS903へ進み、そうでない場合はステップS905へ進む。
ステップS903では、CPU101は、メタデータにポイント情報が追加されているフレームの有無を判定する。メタデータにポイント情報が追加されているフレームがある場合はポイント期間決定処理を終了し、そうでない場合はステップS904へ進む。
ステップS904にて、CPU101は、ステップS801で取得されたVR動画の最初のフレームを、ポイント開始フレームかつポイント終了フレームとして設定する。具体的には、CPU101は、最初のフレームのメタデータに、ポイント開始フレームかつポイント終了フレームであることを示すポイント情報を追加する。本実施例では、ポイント開始フレームからポイント終了フレームまでの期間がポイント期間として設定可能である。ステップS904では、最初のフレームのみの期間がポイント期間として設定される。
ステップS905では、CPU101は、ステップS901で取得したフレームのメタデータにおけるポイント情報の有無を判定する。ポイント情報がある場合はステップS914へ進み、そうでない場合はステップS906へ進む。なお、ポイント情報がある場合は、ステップS901で取得したフレームがポイント開始フレームとしてユーザーに指定されていることを意味する。
ステップS906では、CPU101は、ステップS901で取得したフレームで所定音(歓声などの特徴的な音)の出力が開始するか否かを判定する。所定音の出力が開始する場合はステップS907へ進み、そうでない場合はステップS908へ進む。
ステップS907では、CPU101は、ステップS901で取得したフレームにおける、所定音が発せられる部分を、主被写体の部分として選択する。
ステップS908では、CPU101は、ステップS901で取得したフレームで被写体の数の変化が開始するか否かを判定する。被写体数の変化が開始する場合はステップS909へ進み、そうでない場合はステップS910へ進む。ここでの被写体は、例えば、人物、乗り物(自動車、飛行機、等)、自然物(木、山、雲、等)、等の所定種類の被写体である。本実施例では、人数の変化(人数の増加または減少)が開始するか否かを判定するとする。
ステップS909では、CPU101は、ステップS901で取得したフレームにおける、人数変化が生じた部分を、主被写体の部分として選択する。なお、人数が減少した場合には、残っている複数の人物のいずれかを主被写体として選択してもよいし、残ってい
る全ての人物を含む部分を主被写体の部分として選択してもよい。
ステップS910では、CPU101は、ステップS901で取得したフレームが、ステップS801で取得されたVR動画の撮影時における撮像装置の姿勢変化の開始タイミングに対応するか否かを判定する。姿勢変化の開始タイミングに対応する場合はステップS911へ進み、そうでない場合はステップS912へ進む。
ステップS911では、CPU101は、ステップS901で取得したフレームから主被写体を自動検出する。例えば、所定種類の被写体、所定サイズ以上の被写体、等が、主被写体として自動検出される。
ステップS912では、CPU101は、ステップS901で取得したフレームが、ステップS801で取得されたVR動画の撮影時における撮像装置の振動の開始タイミングに対応するか否かを判定する。振動の開始タイミングに対応する場合はステップS913へ進み、そうでない場合はステップS901へ進む。
ステップS913では、CPU101は、ステップS901で取得したフレームから主被写体を自動検出する。例えば、所定種類の被写体、所定サイズ以上の被写体、等が、主被写体として自動検出される。
ステップS914では、CPU101は、ステップS901で取得したフレームを、ポイント開始フレームとして決定する。
ステップS915では、CPU101は、ステップS901で取得したフレームが、直前のポイント開始フレームから所定フレーム数(所定時間)後のフレームであるか否かを判定する。ポイント開始フレームから所定フレーム数後のフレームである場合はステップS920へ進み、そうでない場合はステップS916へ進む。
ステップS916では、CPU101は、ステップS901で取得したフレームで所定音(歓声などの特徴的な音)の出力が終了するか否かを判定する。所定音の出力が終了する場合はステップS920へ進み、そうでない場合はステップS917へ進む。
ステップS917では、CPU101は、ステップS901で取得したフレームで被写体の数の変化が終了するか否かを判定する。被写体数の変化が終了する場合はステップS920へ進み、そうでない場合はステップS918へ進む。ここでの被写体は、例えば、人物、乗り物(自動車、飛行機、等)、自然物(木、山、雲、等)、等の所定種類の被写体である。本実施例では、人数の変化(人数の増加または減少)が終了するか否かを判定するとする。
ステップS918では、CPU101は、ステップS901で取得したフレームが、ステップS801で取得されたVR動画の撮影時における撮像装置の姿勢変化の終了タイミングに対応するか否かを判定する。姿勢変化の終了タイミングに対応する場合はステップS920へ進み、そうでない場合はステップS919へ進む。
ステップS919では、CPU101は、ステップS901で取得したフレームが、ステップS801で取得されたVR動画の撮影時における撮像装置の振動の終了タイミングに対応するか否かを判定する。振動の終了タイミングに対応する場合はステップS920へ進み、そうでない場合はステップS901へ進む。
ステップS920では、CPU101は、ステップS901で取得したフレームを、ポ
イント終了フレームとして決定する。
ステップS921では、CPU101は、これまでの処理結果に基づいて、ステップS901で取得したフレームのメタデータにポイント情報を追加したり、当該フレームのポイント情報を更新したりする。ステップS901で取得したフレームにポイント情報が付加されていない場合は、ポイント情報が生成されて付加され、ステップS901で取得したフレームにポイント情報が付加されている場合は、付加されているポイント情報が更新される。ステップS921で付加されるポイント情報は、ポイント開始フレーム、ポイント終了フレーム、または、ポイント期間の他のフレームであることを示す。また、ステップS921で付加されるポイント情報は、主被写体(主被写体の部分)に関する主被写体情報を含む。ポイント期間の複数のフレームのうち、ポイント開始フレームでないフレームには、ポイント開始フレームと同様の主被写体情報が付加される。例えば、所定音の出力が開始するポイント開始フレームからのポイント期間の各フレームに対しては、所定音が発せられる部分を主被写体の部分として示す主被写体情報が付加される。
なお、1つのVR動画におけるポイント期間の数は特に限定されない。例えば、1つのチャプタ、1つのシーン、1つの動画、等に、1つのポイント期間が設定されてもよいし、複数のポイント期間が設定されてもよい。上述したポイント終了フレームの1つ前のフレームが、ポイント終了フレームとして設定されてもよい。即ち、上述したポイント終了フレームは、ポイント期間でない期間の開始フレームであってもよい。ポイント期間(ポイント開始フレームやポイント終了フレーム)の決定方法は上記方法に限らない。動画編集時にポイント期間を設定するのではなく、電子機器100が、動画撮影機能を有し、撮影時にポイント期間を設定してもよい。
図10に、電子機器100で行われる動画再生処理のフローチャートを示す。この処理は、不揮発性メモリ103に記録されたプログラムをメモリ102に展開してCPU101が実行することで実現される。電子機器100の電源がオンとされ、記憶媒体108に記録された画像や、通信先から取得した動画像のうち、VR動画が選択され、再生モードへの遷移が指定されると、図10の処理が開始される。
ステップS1001では、CPU101は、VR動画(図8の動画編集処理で生成された動画)の動画ファイルを取得する。
ステップS1002では、CPU101は、ステップS1001で取得した動画ファイルから、フレームのポイント情報を取得する。
ステップS1003では、CPU101は、ステップS1001で取得した動画ファイルの再生を開始する。
ステップS1004では、CPU101は、ステップS1001で取得した動画ファイルの1フレームを取得する。本実施例では、ステップS1004の処理が複数回繰り返される。それにより、複数のフレームが時系列順で取得される。
ステップS1005では、CPU101は、基準方向αを取得する。
ステップS1006では、CPU101は、姿勢検出部113から得られた姿勢情報に基づき、視聴方向βを決定する。
ステップS1007では、CPU101は、ステップS1002で取得されたポイント情報に基づき、ステップS1004で取得したフレームがポイント期間のフレームである
か否かを判定する。取得したフレームがポイント期間のフレームである場合はステップS1008へ進み、そうでない場合はステップS1010へ進む。
ステップS1008では、CPU101は、ステップS1004で取得したフレームの主被写体情報に基づき、注目方向γを決定する。
ステップS1009では、CPU101は、ステップS1006で決定した視聴方向βがステップS1008で決定した注目方向γに略一致するように、基準方向αを更新する。
ステップS1010では、CPU101は、姿勢検出部113から得られた姿勢情報に基づき、電子機器100の姿勢の変化、すなわちユーザーが見ている方向の変化を検出する。
ステップS1011では、CPU101は、ステップS1010の検出結果に基づき、ステップS1006で決定した視聴方向βを更新する。
ステップS1012では、CPU101は、表示範囲を変更するユーザー操作(表示範囲変更操作;タッチムーブ、フリック、ボタン操作、等)の有無を判定する。表示範囲変更操作があった場合はステップS1013へ進み、そうでない場合はステップS1014へ進む。
ステップS1013では、CPU101は、ステップS1012で行われた表示範囲変更操作に基づき、基準方向αを更新する。
ステップS1014では、CPU101は、視聴方向βに基づき、ステップS1004で取得したフレームについて、視聴方向βが向かう位置を含む範囲を表示範囲として決定し、決定した表示範囲の映像を表示部105に表示する。ステップS1009で基準方向αが更新された場合には、電子機器100の姿勢に依存せずに主被写体が表示されるように表示範囲が決定されることになる。ステップS1010で電子機器100の姿勢の変化が検出された場合には、当該変化に追従するように表示範囲の位置が変更されることになる。ステップS1012で表示範囲変更操作が行われた場合には、表示範囲変更操作に従って表示範囲が変更されることになる。例えば、基準方向αと視聴方向β(ユーザーが見ている方向)が図2(C)の角度A1,A2=0度の方向である状態でユーザーが角度A1を30度増やす表示範囲変更操作を行うと、基準方向αが角度A1=30度かつ角度A2=0度の方向に変更される。これにより、視聴方向βが角度A1,A2=0度の方向である状態で、ユーザーは、角度A1=30度かつ角度A2=0度の方向にある範囲を見ることができる。
ステップS1015では、CPU101は、ステップS1004で取得したフレームが最終フレームであるか否かを判定する。取得したフレームが最終フレームである場合は動画再生処理を終了し、そうでない場合はステップS1004へ進む。
以上述べたように、本実施例によれば、適宜設定されたポイント期間において、電子機器100の姿勢に依存せずに主被写体が表示されるように制御される。そして、他の期間において、電子機器100の姿勢に応じて異なる表示範囲が表示されるように制御される。これらにより、ユーザーが広範囲の画像の一部が表示される動画をみている際の視認性を向上させることができる。具体的には、VR表示の醍醐味である没入感や臨場感をユーザーに与えつつ、広範囲の映像を有する動画の見どころをユーザーに適切に視聴させることができる。
なお、CPU101が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
また、上述した実施形態においては、本発明をスマートフォンなどの電子機器100に適用した場合を例にして説明したが、これはこの例に限定されずVR画像の一部分を表示するように制御することが可能である電子機器であれば適用可能である。もちろん、スマートフォンではなく、ヘッドマウントディスプレイ(HMD)に適用することも可能である。また、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレームなどに適用可能である。また、本発明は音楽プレーヤー、ゲーム機、電子ブックリーダー、タブレット端末、スマートフォン、投影装置、ディスプレイを備える家電装置や車載装置などに適用可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:電子機器 101:CPU 113:姿勢検出部

Claims (15)

  1. 表示部の姿勢を検出する検出手段と、
    動画を再生可能な再生手段と、
    前記検出手段により検出された前記表示部の姿勢に応じて、画像の一部の範囲であり且つ前記表示部に表示される範囲である表示範囲を変更する変更手段と、
    前記動画の第1のフレームが再生される場合に、前記検出手段により検出された姿勢が第1の姿勢でも第2の姿勢でも、主被写体が前記表示部に表示されるように制御し、前記動画の、前記第1のフレームとは異なる第2のフレームが再生される場合に、前記検出された姿勢が前記第1の姿勢と前記第2の姿勢とで、前記表示範囲が異なるように制御する制御手段と、
    を有し、
    前記制御手段は、前記第1のフレームが再生される場合であって、前記検出された姿勢に応じた範囲に前記主被写体が含まれている場合には、当該範囲が前記表示範囲として前記表示部に表示されるように制御する
    ことを特徴とする電子機器。
  2. 前記制御手段は、前記第1のフレームが再生される場合であって、前記検出された姿勢に応じた範囲に前記主被写体が含まれていない場合に、前記検出された姿勢に依存しない範囲が前記表示範囲として前記表示部に表示されるように制御する
    ことを特徴とする請求項1に記載の電子機器。
  3. 前記第2のフレームは、前記第1のフレームの1つ前のフレームであり、
    前記制御手段は、前記第1のフレームが再生される場合であって、前記検出された姿勢に応じた範囲に前記主被写体が含まれていない場合に、前記第1のフレームの表示範囲に対する前記第1のフレームの前記主被写体の相対位置が、前記第2のフレームの表示範囲に対する前記第2のフレームの主被写体の相対位置と略一致するように制御する
    ことを特徴とする請求項1または2に記載の電子機器。
  4. 前記第2のフレームは、前記第1のフレームの1つ前のフレームであり、
    前記制御手段は、前記第1のフレームが再生される場合であって、前記検出された姿勢
    に応じた前記第1のフレームの範囲に対する前記第1のフレームの前記主被写体の相対位置と、前記第2のフレームの表示範囲に対する前記第2のフレームの主被写体の相対位置との差が所定値未満である場合には、前記検出された姿勢に応じた前記第1のフレームの前記範囲が前記表示範囲として前記表示部に表示されるように制御する
    ことを特徴とする請求項1~のいずれか1項に記載の電子機器。
  5. 前記第2のフレームは、前記第1のフレームの1つ前のフレームであり、
    前記制御手段は、前記第1のフレームが再生される場合であって、前記第2のフレームの表示範囲に前記第1のフレームの前記主被写体が含まれている場合には、前記検出された姿勢に応じた前記第1のフレームの前記範囲が前記表示範囲として前記表示部に表示されるように制御する
    ことを特徴とする請求項1~のいずれか1項に記載の電子機器。
  6. 前記制御手段は、前記第1のフレームが再生される場合であって、前記主被写体が設定されていない場合には、前記検出された姿勢に応じた範囲が前記表示範囲として前記表示部に表示されるように制御する
    ことを特徴とする請求項1~のいずれか1項に記載の電子機器。
  7. 前記第2のフレームは、前記第1のフレームの1つ前のフレームであり、
    前記制御手段は、前記第1のフレームが再生される場合であって、前記検出された姿勢に応じた範囲に前記主被写体が含まれていない場合に、前記第1のフレームの表示範囲と前記第2のフレームの表示範囲との差が所定値未満に制限されるように制御する
    ことを特徴とする請求項1~のいずれか1項に記載の電子機器。
  8. 前記制御手段は、前記第2のフレームから前記第1のフレームへの画像の変化量が所定量よりも大きい場合に、前記第1のフレームの表示範囲と前記第2のフレームの表示範囲との前記差が前記所定値未満に制限されないように制御する
    ことを特徴とする請求項に記載の電子機器。
  9. 前記第1のフレームは、前記動画のチャプタの開始タイミングに対応するフレームである
    ことを特徴とする請求項1~のいずれか1項に記載の電子機器。
  10. 前記第1のフレームの期間を設定可能な設定手段、をさらに有する
    ことを特徴とする請求項1~のいずれか1項に記載の電子機器。
  11. 前記制御手段は、
    ユーザーによって指定されたフレーム、
    所定音の出力が開始するフレーム、
    被写体の数の変化が開始するフレーム、
    前記動画の撮影時における撮像装置の姿勢変化の開始タイミングに対応するフレーム、または、
    前記動画の撮影時における撮像装置の振動の開始タイミングに対応するフレームが、前記期間の開始フレームとなるように制御する
    ことを特徴とする請求項10に記載の電子機器。
  12. 前記制御手段は、
    前記期間の開始フレームから所定フレーム数後のフレーム、
    所定音の出力が終了するフレーム、
    被写体の数の変化が終了するフレーム、
    前記動画の撮影時における撮像装置の姿勢変化の終了タイミングに対応するフレーム、または、
    前記動画の撮影時における撮像装置の振動の終了タイミングに対応するフレームが、前記期間の終了フレームとなるように制御する
    ことを特徴とする請求項10または11に記載の電子機器。
  13. 表示部の姿勢を検出する検出ステップと、
    動画を再生する再生ステップと、
    前記検出ステップにより検出された前記表示部の姿勢に応じて、画像の一部の範囲であり且つ前記表示部に表示される範囲である表示範囲を変更する変更ステップと、
    前記動画の第1のフレームが再生される場合に、前記検出ステップにより検出された姿勢が第1の姿勢でも第2の姿勢でも、主被写体が前記表示部に表示されるように制御し、前記動画の、前記第1のフレームとは異なる第2のフレームが再生される場合に、前記検出された姿勢が前記第1の姿勢と前記第2の姿勢とで、前記表示範囲が異なるように制御する制御ステップと、
    を有し、
    前記制御ステップでは、前記第1のフレームが再生される場合であって、前記検出された姿勢に応じた範囲に前記主被写体が含まれている場合には、当該範囲が前記表示範囲として前記表示部に表示されるように制御する
    ことを特徴とする電子機器の制御方法。
  14. コンピュータを、請求項1~12のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
  15. コンピュータを、請求項1~12のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
JP2018000557A 2018-01-05 2018-01-05 電子機器及びその制御方法 Active JP7091073B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018000557A JP7091073B2 (ja) 2018-01-05 2018-01-05 電子機器及びその制御方法
US16/239,722 US10754444B2 (en) 2018-01-05 2019-01-04 Electronic apparatus and control method therefor
CN201910008123.2A CN110045896B (zh) 2018-01-05 2019-01-04 电子设备及其控制方法和计算机可读介质
DE102019100093.9A DE102019100093A1 (de) 2018-01-05 2019-01-04 Elektronische Vorrichtung und Steuerverfahren für diese

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018000557A JP7091073B2 (ja) 2018-01-05 2018-01-05 電子機器及びその制御方法

Publications (2)

Publication Number Publication Date
JP2019121918A JP2019121918A (ja) 2019-07-22
JP7091073B2 true JP7091073B2 (ja) 2022-06-27

Family

ID=66995569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018000557A Active JP7091073B2 (ja) 2018-01-05 2018-01-05 電子機器及びその制御方法

Country Status (4)

Country Link
US (1) US10754444B2 (ja)
JP (1) JP7091073B2 (ja)
CN (1) CN110045896B (ja)
DE (1) DE102019100093A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016201714A (ja) 2015-04-13 2016-12-01 キヤノン株式会社 表示制御装置および表示制御方法
WO2017192125A1 (en) 2016-05-02 2017-11-09 Facebook, Inc. Systems and methods for presenting content

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11195131A (ja) * 1997-12-26 1999-07-21 Canon Inc 仮想現実方法及び装置並びに記憶媒体
JP4396555B2 (ja) * 2005-03-17 2010-01-13 船井電機株式会社 映像データ再生装置
JP2009245392A (ja) * 2008-03-31 2009-10-22 Brother Ind Ltd ヘッドマウントディスプレイ及びヘッドマウントディスプレイシステム
JP5104679B2 (ja) * 2008-09-11 2012-12-19 ブラザー工業株式会社 ヘッドマウントディスプレイ
US9245177B2 (en) * 2010-06-02 2016-01-26 Microsoft Technology Licensing, Llc Limiting avatar gesture display
JP6161400B2 (ja) * 2013-05-17 2017-07-12 キヤノン株式会社 動画再生装置及びその制御方法
US9300882B2 (en) * 2014-02-27 2016-03-29 Sony Corporation Device and method for panoramic image processing
KR102227087B1 (ko) * 2014-07-08 2021-03-12 엘지전자 주식회사 글래스 타입 단말기 및 그것의 제어방법
US20170192125A1 (en) * 2014-07-17 2017-07-06 Halliburton Energy Services, Inc. Molecular Factor Computing Sensor for Intelligent Well Completion
US9898868B2 (en) * 2014-11-06 2018-02-20 Seiko Epson Corporation Display device, method of controlling the same, and program
US20160216792A1 (en) * 2015-01-26 2016-07-28 Seiko Epson Corporation Head mounted display, and control method and control program for head mounted display
US10684485B2 (en) * 2015-03-06 2020-06-16 Sony Interactive Entertainment Inc. Tracking system for head mounted display
KR101716326B1 (ko) * 2015-09-08 2017-03-14 클릭트 주식회사 가상현실영상 전송방법, 재생방법 및 이를 이용한 프로그램
US9819855B2 (en) * 2015-10-21 2017-11-14 Google Inc. Balancing exposure and gain at an electronic device based on device motion and scene distance
KR102609477B1 (ko) * 2017-02-06 2023-12-04 삼성전자주식회사 파노라마 이미지 또는 동영상을 생성하는 전자 장치 및 그 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016201714A (ja) 2015-04-13 2016-12-01 キヤノン株式会社 表示制御装置および表示制御方法
WO2017192125A1 (en) 2016-05-02 2017-11-09 Facebook, Inc. Systems and methods for presenting content

Also Published As

Publication number Publication date
CN110045896A (zh) 2019-07-23
JP2019121918A (ja) 2019-07-22
DE102019100093A1 (de) 2019-07-11
CN110045896B (zh) 2023-07-11
US10754444B2 (en) 2020-08-25
US20190212833A1 (en) 2019-07-11

Similar Documents

Publication Publication Date Title
JP7043255B2 (ja) 電子機器及びその制御方法
EP3226537B1 (en) Mobile terminal and method for controlling the same
JP2021002288A (ja) 画像処理装置、コンテンツ処理システム、および画像処理方法
US11295530B2 (en) Electronic apparatus for playing back a virtual reality video image and control method therefor
JP7183033B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JP7094815B2 (ja) 表示制御装置、表示制御装置の制御方法、プログラム、記憶媒体
JP2020010130A (ja) 電子機器
JP7140527B2 (ja) 電子機器及びその制御方法
KR20200091188A (ko) 전자 장치 및 그의 컨텐트 제공 방법
JP7267764B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JP2021174317A (ja) 電子機器及びその制御方法
JP2021089382A (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP7091073B2 (ja) 電子機器及びその制御方法
US11380075B2 (en) Electronic apparatus for playing back a virtual reality video image and control method therefor
US10937217B2 (en) Electronic device and control method thereof for generating edited VR content
CN113766275A (zh) 视频剪辑方法、装置、终端及存储介质
US10200606B2 (en) Image processing apparatus and control method of the same
JP2020129340A (ja) 電子機器、電子機器の制御方法、プログラム
JP2021069045A (ja) 表示制御装置、表示制御方法、プログラムおよび記憶媒体
JP7210153B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
US20240176411A1 (en) Electronic device and method for controlling electronic device
JP7214475B2 (ja) 電子機器及びその制御方法
JP7278774B2 (ja) 電子機器及びその制御方法
JP7204482B2 (ja) 電子機器及びその制御方法
JP7208002B2 (ja) 電子機器及びその制御方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220615

R151 Written notification of patent or utility model registration

Ref document number: 7091073

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151