JP7491297B2 - 情報処理装置、情報処理方法、プログラム - Google Patents
情報処理装置、情報処理方法、プログラム Download PDFInfo
- Publication number
- JP7491297B2 JP7491297B2 JP2021501647A JP2021501647A JP7491297B2 JP 7491297 B2 JP7491297 B2 JP 7491297B2 JP 2021501647 A JP2021501647 A JP 2021501647A JP 2021501647 A JP2021501647 A JP 2021501647A JP 7491297 B2 JP7491297 B2 JP 7491297B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- screen
- display
- cut
- designation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 111
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000012545 processing Methods 0.000 claims description 321
- 238000000034 method Methods 0.000 claims description 262
- 230000008569 process Effects 0.000 claims description 249
- 238000012937 correction Methods 0.000 claims description 202
- 230000004044 response Effects 0.000 claims description 65
- 230000002265 prevention Effects 0.000 claims description 54
- 238000003384 imaging method Methods 0.000 description 98
- 238000009432 framing Methods 0.000 description 86
- 238000010586 diagram Methods 0.000 description 67
- 230000006641 stabilisation Effects 0.000 description 57
- 238000011105 stabilization Methods 0.000 description 57
- 238000009966 trimming Methods 0.000 description 42
- 230000000875 corresponding effect Effects 0.000 description 38
- 230000006870 function Effects 0.000 description 37
- 230000007704 transition Effects 0.000 description 35
- 238000005516 engineering process Methods 0.000 description 34
- 230000003287 optical effect Effects 0.000 description 31
- 230000008676 import Effects 0.000 description 28
- 238000007781 pre-processing Methods 0.000 description 28
- 230000008859 change Effects 0.000 description 26
- 230000009466 transformation Effects 0.000 description 20
- 238000004364 calculation method Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 13
- 102100035353 Cyclin-dependent kinase 2-associated protein 1 Human genes 0.000 description 12
- 238000009877 rendering Methods 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 9
- 230000005484 gravity Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000010079 rubber tapping Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 239000013256 coordination polymer Substances 0.000 description 6
- 101000737813 Homo sapiens Cyclin-dependent kinase 2-associated protein 1 Proteins 0.000 description 5
- 238000012790 confirmation Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000005096 rolling process Methods 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 101000760620 Homo sapiens Cell adhesion molecule 1 Proteins 0.000 description 3
- 101000661816 Homo sapiens Suppression of tumorigenicity 18 protein Proteins 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 101001139126 Homo sapiens Krueppel-like factor 6 Proteins 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000226585 Antennaria plantaginifolia Species 0.000 description 1
- 101000911772 Homo sapiens Hsc70-interacting protein Proteins 0.000 description 1
- 101000661807 Homo sapiens Suppressor of tumorigenicity 14 protein Proteins 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000037433 frameshift Effects 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/78—Television signal recording using magnetic recording
- H04N5/782—Television signal recording using magnetic recording on tape
- H04N5/783—Adaptations for reproducing at a rate different from the recording rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/683—Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/685—Vibration or motion blur correction performed by mechanical compensation
- H04N23/687—Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
- H04N25/61—Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
- H04N5/772—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Description
また、画像処理の分野では、画像内に映し出される被写体のうち対象被写体を追尾するトラッキング技術が広く知られている(例えば、下記特許文献1を参照)
このような環境下では、ユーザは撮像した画像をそのまま出力するのではなく、構図等を考慮して、撮像した画像(元画像)の一部を切り出すという画像処理を実行させることがある。このような画像の切り出しは、元画像における対象被写体が映し出されている部分が含まれるように行うことが考えられるが、この際、画像処理を行う装置が、被写体のトラッキング技術を利用して、ユーザにより指定された対象被写体が画枠内に含まれるように切り出し範囲を設定し、設定した範囲の画像を切り出すことが考えられる。
例えば表示画面上で画像内容を認識できる状態で、ユーザがトラッキングの対象被写体を配置する位置(表示エリア内の位置)を指定できるようにする。
すなわち、表示エリア内に表示される画像は、元画像からの切出画像とされる。
すなわち、画像内の被写体のうちから、トラッキング対象としての被写体の指定を受け付けるようにする。
例えばユーザが指定したトラッキング対象被写体の配置位置を反映した画像が表示されるようにする。
例えば、表示画面上で、ユーザが元画像のうちで切出画像の画枠に含まれる範囲を指定できるようにする。
例えば表示エリア上に、配置位置の指定のための照準となる操作画像を重畳表示させ、ユーザが操作画像により、画枠内の位置を指定できるようにする。
例えば、表示エリア上で、或る箇所を操作画像で指定する操作により、その部分の被写体をトラッキングターゲットとし、かつその操作画像の位置を、トラッキングターゲットの配置位置として受け付けるようにする。
例えば表示画面上で元画像から切り出される範囲を表示させ、その画像に操作画像を表示させる。その画面上で、切り出し範囲の変更や操作画像の移動を受け付けるようにする。
例えば表示画面上のアイコンにより用意される操作により、画面上で行われるユーザ操作の認識モードを切り替えるようにする。
表示画面が第1の画面の状態か第2の画面の状態かにより、画面上で行われるユーザ操作の認識を切り替えるようにする。
表示画面が第2の画面であるときは、例えば画面全体、或いは表示エリア内に、切り出し範囲の画像を表示させるが、それが操作に応じて変更されるようにする。第1の画面であるときは、操作に応じて操作画像による指定位置が移動されるようにする。
すなわち、第2の画面では、操作に応じて、表示エリアにおいて例えば元画像の移動、拡大、縮小、回転等の画像変化が生じ、第1の画面では、操作に応じて、例えば表示エリア内での元画像の変化は生じないが、操作画像の配置位置が変化する。
これにより、画像群を構成する個々の画像について、ユーザに切出画像の画枠内での対象被写体の配置位置を任意位置に指定させることが可能となる。
これにより、所定の順番で連続した複数の画像のうち一枚の画像についてトラッキング対象の配置位置が指定されることで、順番的に以降に位置するフレーム画像についても、指定位置に基づく位置にトラッキング対象を位置させる画像切り出し処理が行われることになる。
これにより、動画を構成する各フレーム画像について画像切り出しを行う場合において、ユーザに切出画像の画枠内での対象被写体の配置位置を任意位置に指定させることが可能となる。
これにより、ユーザはトラッキング区間についても任意に指定することが可能とされる。
例えば表示画面上で元画像の全体を表示させるが、その中で切り出し範囲内と切り出し範囲外とが区別できるような表示態様とする。
例えば撮像装置で撮像された画像における手ぶれ等に起因する揺れを仮想天球面上での座標変換により補正し、この揺れ補正がなされて平面投影された画像の切り出し範囲をユーザの操作に基づいて設定する。この場合に、切り出し範囲が揺れ補正を有効に保つ範囲を越えないようにはみ出し防止処理を行う。表示制御部は、このはみ出し防止処理で制限される範囲の切り出し範囲がユーザに認識できるように表示制御を行う。
はみ出し防止処理は、操作情報に基づいて設定した切り出し範囲を、揺れ補正が有効な範囲に収める処理となるが、その際に揺れ補正が有効に保たれる範囲として許容可動範囲を設定する。つまり許容可動範囲内であれば、切り出し範囲を移動してもよいという範囲である。表示上では、この許容可動範囲をユーザが認識できるような表示が行われるようにする。
例えば許容可動範囲を越える場合に、切り出し範囲の変更ができなくなったり、切り出し範囲が許容可動範囲内に戻ってしまうような表示を実行させる。
これにより、例えば表示画面上で画像内容を認識できる状態で、ユーザがトラッキングの対象被写体を配置する位置(表示エリア内の位置)を指定できるようにする。
本技術に係るプログラムは、このような情報処理方法に相当する処理を情報処理装置に実行させるプログラムである。
これにより本技術に係る処理を各種の情報処理装置で実行可能とする。
<1.画像処理装置として適用できる機器の構成>
<2.画像ファイル及びメタデータ>
<3.画面遷移概要>
<4.画像処理>
<5.画像処理についてのまとめ及び変形例>
<6.画像処理のUIについて>
<7.UIに係る処理>
<8.UIについての変形例>
<9.UIについてのまとめ>
<10.プログラム>
<11.本技術>
以下の実施の形態では、主にスマートフォンなどの携帯端末により本技術に係る画像処理装置が実現される例で説明していくが、画像処理装置は、各種の機器において実現できる。まずは本技術を適用できる機器について説明しておく。
画像ソースとしては撮像装置1、サーバ4、記録媒体5などが想定される。
画像処理装置としてはスマートフォンなどの携帯端末2やパーソナルコンピュータ3などが想定される。
サーバ4はローカルサーバ、ネットワークサーバ、クラウドサーバなどのいずれであっても良いが、撮像装置1で撮像された画像ファイルMFを提供できる装置を指す。このサーバ4がなんらかの伝送路を介して画像ファイルMFを携帯端末2やパーソナルコンピュータ3に転送することが考えられる。
揺れ補正処理は、動画を構成する画像データのフレーム毎に、天球モデルへの貼付処理が行われた後に、当該フレームに対応する姿勢情報を用いて行う揺れ補正処理である。
切り出し領域設定処理は、画像の切り出し領域をユーザの操作情報に基づいて設定したうえで、該切り出し領域が揺れ補正を有効に保つ領域からはみ出さないように修正するはみ出し防止処理を行う処理である。
実効切り出し領域画像生成処理は、揺れ補正処理が行なわれた状態で平面に投影した画像について、はみ出し防止処理を施した切り出し領域(実効切り出し領域CL)で画像を切り出すことで、実効切り出し領域画像を生成する処理である。切り出した画像は出力画像とすることができる。
例えば撮像装置1の内部のマイクロコンピュータ等が上記の画像処理を行う。つまり撮像装置1は撮像によって生成した画像ファイルMFを、そのまま上記の画像処理を行うことで、画像処理結果としての画像出力を行うことができるものとする。
もちろん撮像装置1や携帯端末2に限らず、画像ソース兼画像処理装置となりうる機器は他にも各種考えられる。
なお図1Bで説明したように携帯端末2で撮像した画像ファイルMFについてその携帯端末2で画像処理をすることを想定する場合、撮像機能に関し以下の撮像装置1と同等の構成を携帯端末2が備えればよいことになる。
なお、図示していないがレンズ系11には手ぶれ等による画像の揺れ(フレーム間揺れ:interframe shake)及びブラー(blur)を補正する光学手ぶれ補正機構(optical image stabilization mechanism)が設けられている場合がある。
この撮像素子部12では、イメージセンサ12aで受光した光を光電変換して得た電気信号について、例えばCDS(Correlated Double Sampling)処理、AGC(Automatic Gain Control)処理などを実行し、さらにA/D(Analog/Digital)変換処理を行う。そしてデジタルデータとしての撮像信号を、後段のカメラ信号処理部13やカメラ制御部18に出力する。
なお、図示していない光学手ぶれ補正機構としては、レンズ系11側ではなく、イメージセンサ12a側を移動させることで画像の揺れを補正する機構とされている場合やジンバルを用いた空間光学手ぶれ補正機構(balanced optical image stabilization mechanism)の場合等もあり、どのような方式であっても構わない。
光学手ぶれ補正機構では、揺れ(interframe shake)に加えて後述するがフレーム内のブラーも合わせて補正される。
またカメラ信号処理部13は各種補正処理も行う。但し手ぶれ補正については、撮像装置1内で行う場合もあれば、行わない場合も想定される。
同時化処理では、各画素についての画像データが、R,G,B全ての色成分を有するようにする色分離処理を施す。例えば、ベイヤー配列のカラーフィルタを用いた撮像素子の場合は、色分離処理としてデモザイク処理が行われる。
YC生成処理では、R,G,Bの画像データから、輝度(Y)信号および色(C)信号を生成(分離)する。
解像度変換処理では、各種の信号処理が施された画像データに対して、解像度変換処理を実行する。
処理F1としての光学手ぶれ補正では、レンズ系11のヨー方向、ピッチ方向のシフトによるレンズ内手ぶれ補正や、イメージセンサ12aのヨー方向、ピッチ方向のシフトによるボディ内手ぶれ補正が行われることで、手ぶれの影響を物理的にキャンセルした状態で被写体の像がイメージセンサ12aに結像するようにされる。このレンズ内手ぶれ補正と、ボディ内手ぶれ補正は一方のみの場合もあり、双方を用いる場合もある。レンズ内手ぶれ補正とボディ内手ぶれ補正の双方を用いる場合はボディ内手ぶれ補正ではヨー方向、ピッチ方向のシフトは行わないことが考えられる。
またレンズ内手ぶれ補正とボディ内手ぶれ補正の双方とも採用されず、手ぶれに対しては電子手ぶれ補正(electrical image stabilization)のみ、または、光学手ぶれ補正のみが行われる場合もある。
処理F2ではレンズ歪み補正が行われる。
処理F3では電子手ぶれ補正の1つの要素としてのフォーカルプレーン歪み補正が行われる。なお、これは例えばCMOS型のイメージセンサ12aによりローリングシャッター方式の読み出しが行われる場合の歪みを補正するものとなる。
処理F5では電子手ぶれ補正によって生じる台形歪み分に対する台形歪み補正が行われる。電子手ぶれ補正によって生じる台形歪み分とは、画像の中央から離れた場所を切り出すことにより生じるパース歪みである。
処理F6では、電子手ぶれ補正の1つの要素としてのピッチ方向、ヨー方向のシフトや切り出しが行われる。
例えば以上の手順で手ぶれ補正、レンズ歪み補正、台形歪み補正が行われることになる。
なお、ここで挙げた処理の全てを実施することは必須ではなく処理の順番も適宜入れ替えても構わない。
なおカメラ信号処理部13はカメラ制御部18からの情報等を用いて、画像ファイルMFに付加するメタデータの生成も行う。
また図2では音声処理系については図示を省略しているが、実際には音声収録系、音声処理系を有し、画像ファイルMFには動画としての画像データとともに音声データも含まれるようにしてもよい。
なお、この画像データは予め設定されたアスペクト比を持ち、画像データのフレーム全体が後述する撮像領域(captured area)に相当する。
記録制御部14の実際の形態は多様に考えられる。例えば記録制御部14は、撮像装置1に内蔵されるフラッシュメモリとその書込/読出回路として構成されてもよいし、撮像装置1に着脱できる記録媒体、例えばメモリカード(可搬型のフラッシュメモリ等)に対して記録再生アクセスを行うカード記録再生部による形態でもよい。また撮像装置1に内蔵されている形態としてHDD(Hard Disk Drive)などとして実現されることもある。
表示部15は、カメラ制御部18の指示に基づいて表示画面上に各種表示を実行させる。
例えば表示部15は、記録制御部14において記録媒体から読み出された画像データの再生画像を表示させる。
また表示部15にはカメラ信号処理部13で表示用に解像度変換された撮像画像の画像データが供給され、表示部15はカメラ制御部18の指示に応じて、当該撮像画像の画像データに基づいて表示を行う場合がある。これにより構図確認中の撮像画像である、いわゆるスルー画(被写体のモニタリング画像)が表示される。
また表示部15はカメラ制御部18の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を画面上に実行させる。
例えば外部の表示装置、記録装置、再生装置等に対して撮像画像データ(静止画ファイルや動画ファイル)の送信出力を行う。
また出力部16はネットワーク通信部であるとして、例えばインターネット、ホームネットワーク、LAN(Local Area Network)等の各種のネットワークによる通信を行い、ネットワーク上のサーバ、端末等との間で各種データ送受信を行うようにしてもよい。
操作部17によりユーザの操作が検知され、入力された操作に応じた信号はカメラ制御部18へ送られる。
メモリ部19は、カメラ制御部18が処理に用いる情報等を記憶する。図示するメモリ部19としては、例えばROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリなど包括的に示している。
メモリ部19はカメラ制御部18としてのマイクロコンピュータチップに内蔵されるメモリ領域であってもよいし、別体のメモリチップにより構成されてもよい。
カメラ制御部18はメモリ部19のROMやフラッシュメモリ等に記憶されたプログラムを実行することで、この撮像装置1の全体を制御する。
例えばカメラ制御部18は、撮像素子部12のシャッタースピードの制御、カメラ信号処理部13における各種信号処理の指示、ユーザの操作に応じた撮像動作や記録動作、記録した画像ファイルの再生動作、レンズ鏡筒におけるズーム、フォーカス、絞り調整等のレンズ系11の動作、ユーザインタフェース動作等について、必要各部の動作を制御する。
メモリ部19におけるROMやフラッシュメモリ(不揮発性メモリ)は、CPUが各部を制御するためのOS(Operating System)や、画像ファイル等のコンテンツファイルの他、各種動作のためのアプリケーションプログラムや、ファームウエア等の記憶に用いられる。
これらのモータドライバはカメラ制御部18からの指示に応じて駆動電流を対応するドライバに印加し、フォーカスレンズやズームレンズの移動、絞り機構の絞り羽根の開閉等を実行させることになる。
センサ部23としては例えばIMU( inertial measurement unit:慣性計測装置)が搭載されており、例えばピッチ-、ヨー、ロールの3軸の角速度(ジャイロ)センサで角速度を検出し、加速度センサで加速度を検出することができる。
またセンサ部23としては、位置情報センサ、照度センサ等が搭載されていても良い。
携帯端末2は、例えば図4に示す構成を備えた情報処理装置として実現できる。なお、パーソナルコンピュータ3やサーバ4についても、同様に図4の構成の情報処理装置により実現できる。
CPU71、ROM72、およびRAM73は、バス74を介して相互に接続されている。このバス74にはまた、入出力インタフェース75も接続されている。
例えば入力部76としては、キーボード、マウス、キー、ダイヤル、タッチパネル、タッチパッド、リモートコントローラ等の各種の操作子や操作デバイスが想定される。
入力部76によりユーザの操作が検知され、入力された操作に応じた信号はCPU71によって解釈される。
表示部77は各種表示を行う表示部であり、例えば情報処理装置70の筐体に設けられるディスプレイデバイスであったり、情報処理装置70に接続される別体のディスプレイデバイス等により構成される。
表示部77は、CPU71の指示に基づいて表示画面上に各種の画像処理のための画像や処理対象の動画等の表示を実行する。また表示部77はCPU71の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を行う。
通信部80は、インターネット等の伝送路を介しての通信処理を行ったり、各種機器との有線/無線通信、バス通信などによる通信を行う。
ドライブ82により、リムーバブル記録媒体81からは画像ファイルMF等のデータファイルや、各種のコンピュータプログラムなどを読み出すことができる。読み出されたデータファイルは記憶部79に記憶されたり、データファイルに含まれる画像や音声が表示部77や音声出力部78で出力されたりする。またリムーバブル記録媒体81から読み出されたコンピュータプログラム等は必要に応じて記憶部79にインストールされる。
即ち情報処理装置70(CPU71)は、前処理部31、画像処理部32、UI処理部36としての機能を備える。
なお本明細書において「インポート」とは、情報処理装置70が例えば記憶部79などに取り込んでいることでアクセス可能な画像ファイルMFなどを画像処理の対象とすることを指し、前処理を行って画像処理可能に展開することをいう。例えば撮像装置1から携帯端末2に転送することを指すものではない。
前処理部31は、ユーザ操作等により指定された画像ファイルMFを画像処理対象となるようにインポートするとともに、前処理として画像ファイルMFに付加されたメタデータに関する処理を行う。例えば動画の各フレームに対応するメタデータを抽出して記憶する処理を行う。
ここで、補正する「揺れ」とは、その画像ファイルMFの撮像を行った撮像装置1の動きによる画像の振動を指すが、特にはフレーム間で生じる振動成分(フレーム間での画像の揺らぎ)をいう。そして「(フレーム間)揺れ補正」とは、このようなフレーム間の振動としてあらわれる揺れを補正することを指す。上述したシフトや切り出しによる方式の電子手ぶれ補正は「揺れ補正」に含まれる。また、前述した光学手ぶれ補正では、「揺れ補正(interframe shake correction」と「ブラー補正」が同時に行われることになる。
なお撮像素子部12がローリングシャッター方式のCMOS型のイメージセンサ12aを搭載する場合は、ライン毎に揺れ及びブラーの量は異なることになる。
実効切り出し領域の設定については、ユーザの操作に応じて固定的な切り出し領域の設定をすることに限られず、ユーザのトラッキングターゲット(追尾対象)の指定に応じて、トラッキングターゲットを含むように実効切り出し領域の設定を行うようにしてもよい。
この場合、実効切り出し領域設定部34は、画像解析やフレーム間比較などにより動画の各フレームにおいてトラッキングターゲットの位置を特定する処理も行う。
図示のようにUI処理部36は、受付部36aと表示制御部36bとを有している。受付部36aは、主として画像処理のためのユーザ操作の受け付けを行い、表示制御部36bは、主として画像処理のためのユーザ操作に基づき実行される処理に応じた表示制御を行う。
UI処理部36は、これら受付部36aや表示制御部26bによって、後述するインポート画面、プレビュー画面、フレーミング画面、トリミング画面、スピード画面、アスペクト比設定画面、エクスポート画面といった各画面により、ユーザの操作の受付や表示の制御を行う。
なお、CPU71が受付部36aや表示制御部36bとして実行する処理の詳細については後に改めて説明する。
例えば撮像装置1と、図5の機能を備えた情報処理装置70に該当する携帯端末2により、例えば図6のような流れで処理が行われることになる。
ステップS91の撮像とは、撮像素子部12による撮像画像信号の出力(RAWデータ出力)を示している。
ステップS92のカメラプロセスはいわゆる現像処理であり、撮像画像信号に対してカメラ信号処理部13において行われる上述した各種の信号処理のことである。図3で説明した各種の補正処理を含む。
またステップS93のメタデータ生成処理は、例えばセンサ部23により得られるIMUデータやカメラの制御信号に応じて画像に関連づけるメタデータを生成する処理であり、カメラ信号処理部13或いはカメラ制御部18において行われる。
カメラ信号処理部13では、ステップS92のカメラプロセスが行われた画像データとステップS93のメタデータ生成処理で生成されたメタデータを含めてステップS94の画像ファイル生成処理が行われ、画像ファイルMFが生成される。
携帯端末2では画像ファイルMFのインポート時の前処理(ステップS95)として、画像ファイルMFを画像処理対象とし、また各フレームに対応づけたメタデータの記憶管理が行われる。
また、インポートされ前処理が行われた画像ファイルMFについてはステップS96の画像処理を任意の時点で行うことができる。この画像処理では、揺れ補正部33による揺れ補正や実効切り出し領域設定部34による実効切り出し領域設定、実効切り出し領域画像生成処理部35による平面投影及び切り出し処理等が行われる。
そして画像処理の経過や結果を表示或いは保存のためにステップS97として保存/表示処理が行われる。
このような流れにより、ユーザは撮像装置1で撮像した動画を携帯端末2において画像処理し、再生、記憶、アップロード等をすることができる。
その場合の処理の流れを図7に示している。即ち撮像装置1内でステップS95の前処理、ステップS96の画像処理、ステップS97の保存/表示処理も行われるようにした場合を示している。
また図1Bでは携帯端末2が撮像を行う場合も言及したが、その場合、この図7に示した処理が携帯端末2内で行われるようにすることが考えられる。
例えば破線で囲って示すように撮像と画像処理が撮像装置1と携帯端末2で行われる場合、撮像装置1ではステップS91の撮像により得た撮像画像信号(RAWデータ)と、ステップS93のメタデータ生成処理で生成したメタデータにより、ステップS94の画像ファイル生成処理を行って画像ファイルMFを生成する。RAWデータの場合は図6,図7のステップS92としたカメラプロセスは行われない。
携帯端末2では、このような画像ファイルMFに対して前処理(ステップS95)、画像処理(ステップS96)、保存/表示処理(ステップS97)を行う。
なお図8のようにRAWデータを画像処理対象とする場合において、撮像装置1内で電子手ぶれ補正や光学手ぶれ補正が行われる場合も想定されるし、行われない場合も想定される。
付言すれば、カメラプロセスが行われる図6,図7の場合も、撮像装置1内で電子手ぶれ補正や光学手ぶれ補正が行われる場合も想定されるし、行われない場合も想定される。
即ち撮像装置1内で、ステップS95の前処理、ステップS96の画像処理、ステップS97の保存/表示処理が行われる場合も有り得る。
また携帯端末2内で、ステップS91の撮像、ステップS93のメタデータ生成処理、ステップS94の画像ファイル生成処理が行われる場合も有り得る。
画像ファイルMFの内容とメタデータの内容を説明する。
図9Aは画像ファイルMFに含まれるデータを示している。図示のように画像ファイルMFには「ヘッダー」「サウンド」「ムービー」「メタデータ」としての各種のデータが含まれる。
「サウンド」は動画とともに収録された音声データである。例えば2チャネルステレオ音声データが格納される。
「ムービー」は動画データであり、動画を構成する各フレーム(#1、#2、#3・・・)としての画像データで構成される。
「メタデータ」としては、動画を構成する各フレーム(#1、#2、#3・・・)に対応づけられた付加情報が記述される。
センサ部23として撮像装置1に搭載されるIMUでは、角速度データと加速度データを所定のサンプリングレートで出力している。一般に、このサンプリングレートは撮像画像のフレームレートより高く、このため1フレーム期間に多くのIMUデータサンプルが得られるものとなっている。
また加速度データとしても、アクセルサンプル#1、アクセルサンプル#2・・・アクセルサンプル#mというように、1フレームについてm個のサンプルが対応づけられる。
n=mの場合もあるし、n≠mの場合もある。
なお、ここではメタデータは各フレームに対応づけられる例で説明しているが、例えばIMUデータはフレームとは完全に同期しない場合もある。そのような場合、例えば各フレームの時間情報と関連する時間情報を、タイミング情報TMにおけるIMUサンプルタイミングオフセットとして持つようにされる。
そして、座標変換パラメータHPとは、少なくとも、レンズ歪み補正パラメータ、台形歪み補正パラメータ、フォーカルプレーン歪み補正パラメータ、電子手ぶれ補正パラメータ、光学手ぶれ補正パラメータを含みうる用語としている。
図10Aにはレンズ系11とイメージセンサ12aの模式図において、像高Y、角度α、入射瞳位置d1、射出瞳位置d2を示している。
レンズ歪み補正パラメータは、画像処理においては、イメージセンサ12aの各画素についての入射角度を知りたいために用いられる。そのため像高Y、角度αの関係がわかれば良い。
像高Y、角度αの関係がわかるようにメタデータとして必要なのは、歪み補正前の最大像高H0と、N個の各像高に対する入射角度のデータd0、d1、・・・d(N-1)となる。“N”は一例として10程度であることが想定される。
つまり、これらのパラメータを用いて逆補正を行えば、レンズ歪み補正、台形歪み補正、フォーカルプレーン歪み補正、電子手ぶれ補正、光学手ぶれ補正が施された画像データを、各補正処理前、即ち、撮像素子部12のイメージセンサ12aに結像したときの状態に戻すことができる。
つまり、これらのパラメータを用いて逆補正を行えば、レンズ歪み補正、台形歪み補正、フォーカルプレーン歪み補正が施された画像データを、光学歪み補正前の状態に戻すことができる。
本実施の形態の画像処理においては、これらは主に各フレームのラインとIMUデータを対応づけるために用いられる。
但しイメージセンサ12aがCCDの場合やグローバルシャッター方式のCMOSの場合であっても、 電子シャッターやメカシャッターを用いて露光重心がずれる場合は、露光開始タイミングと幕速も用いて露光重心に合わせた補正が可能となる。
携帯端末2における画像処理時の画面遷移の例を説明する。
図11に携帯端末2の表示画面上に現れる各種画面の遷移を示している。各画面について簡単に説明する。
なお、以下説明する各画面のうち、プレビュー画面102、フレーミング画面103、トリミング画面104、スピード画面105、アスペクト比設定画面106、エクスポート画面108で出力される画像は、後述する図14のステップST19の処理を経た出力画像oPDである。
但し、これらの画面で出力される画像は、必ずしも図14の処理を経た出力画像oPDでなくてもよいが、その場合、ユーザが設定したり視認している領域と、最終的な図14の処理後の領域や歪み具合が若干異なる可能性もある。
動画処理のためのアプリケーションプログラムを起動すると、インポート画面101が現れる。
インポート画面101は動画処理開始前の画面である。このインポート画面101では画像ファイルMFのサムネイル等が表示され、処理対象とする画像ファイルMFをユーザが選択できるようにしている。
選択された画像ファイルMFは処理対象の画像ファイルMFとしてインポート及び前処理される。
インポート画面101においてユーザが1又は複数の画像ファイルMFを選択する操作を完了することで、インポート処理を経て表示はプレビュー画面102に遷移する。プレビュー画面102ではインポートされた画像処理可能な動画(画像ファイルMF)のリストが表示されるとともに、その中で指定された動画のプレビュー再生が可能とされる。
プレビュー画面102では、ユーザは選択した動画(画像ファイルMF)の再生、動画の追加、削除、画像処理のリセットなどの操作を行うことができる。
動画再生はプレビュー画面102上で行われる。
画像処理対象とする動画の追加や新規プロジェクト(新たな画像処理アクション)の操作が行われた場合、インポート画面101に戻って選択が可能とされる。動画の削除(画像処理対象からの除外)はプレビュー画面102において可能とされる。
プレビュー画面102からの所定の操作により、表示はフレーミング画面103に遷移する。フレーミング画面103はインポートした動画のうちで、プレビュー画面102で処理対象として指定した動画を個別にフレーミング処理するための画面である。
このフレーミング画面103では、例えば処理対象となっている動画の或るフレームの静止画像が表示された状態において、ユーザはそのフレームの画像上で、画像の実効切り出し領域の指定、画像の拡大縮小、画像の回転、トラッキングターゲット(追尾対象)の指定、トラッキングターゲットの画面内での配置位置の指定などの操作が可能とされる。
その後、フレーミング画面103からの所定の操作により、表示はプレビュー画面102に戻る。
例を挙げる。図12Aは、或るフレームの画像全体114と、表示枠115を示している。この表示枠115の範囲がフレーミング画面103で表示される範囲であるとする。つまりフレーミング画面103上では、画像全体114のうちの一部が切り出されて表示されている。この表示枠115の範囲内が実効切り出し領域に相当する。
例えば画面上のドラッグ操作により、図12Aから図12Bのように表示枠115に含まれる範囲が移動される。つまり表示枠115に対して画像が上下左右に移動されることで、表示される範囲が変化する。
またユーザが例えばピンチアウト/ピンチイン操作により画像の拡大・縮小を指示することで、表示枠115に含まれる範囲が変化する。例えば図12Bから縮小操作が行われると、図12Cのようになる。つまり表示枠115に含まれる(ユーザが視認している)画像が縮小されるように、表示枠115に対して画像全体114が縮小され、表示枠115に含まれる被写体の範囲が広くなる。即ち表示されている画像が縮小されることで、より広い範囲が表示される状態となる。
図示しないが、逆にユーザが拡大操作を行うことで、表示枠115に対して画像全体114が拡大され、表示枠115に含まれる被写体の範囲が狭くなる。即ちより狭い範囲が拡大されて表示される状態となる。
このような表示枠115で表示される範囲についての操作は、ユーザによる切り出し領域の指定操作となる。
例えばフレーミング画面103においてユーザがトラッキングターゲット指定のための操作を行うと、図13Aのようにターゲット指定照準116が表示される。ユーザはドラッグ操作やタップ操作などでターゲット指定照準の位置を任意に指定できる。例えば図13Bのように人の顔の部分を指定することができる。
この図13Bの状態では、当該人物の顔をトラッキングターゲットとして指定したことになり、さらに、トラッキングターゲットの画面内で右上に配置するという、トラッキングターゲットの画面内での配置位置を指定したことにもなる。
表示枠115内の画像範囲の移動、拡大、縮小、回転のみでトラッキングターゲットが指定されていない場合は、各フレームでは、その画像範囲の移動、拡大・縮小・回転の操作で指定された範囲が固定的に実効切り出し領域となる。
一方で上記のように表示枠に含める画像範囲とともにトラッキングターゲット及びその配置位置が指定された場合、動画内の他のフレームは、その指定に応じて実効切り出し領域が計算されることになる。即ち動画を構成する各フレームでは、トラッキングターゲットの画面内位置も変化するため、フレーム毎に実効切り出し領域は計算されて変化する。
具体的には、各フレームでは、表示枠115の拡大縮小操作で指定された実効切り出し領域のサイズにおいて、指定されたトラッキングターゲットが、指定された配置位置に位置するように、実効切り出し領域がそれぞれ計算される。
トラッキングターゲットの大きさの変化に応じて、適切に実効切り出し領域の大きさを変化させても良い。
プレビュー画面102からの所定の操作により、表示はトリミング画面104に遷移する。トリミング画面104はインポートした動画のうちで、プレビュー画面102で処理対象として指定した動画を個別にトリミング処理(時間軸方向のカット)するための画面である。
トリミング画面104では、動画内でトリミングする範囲を選択できる。例えば動画の時間軸方向にバーを表示し、切り取りする範囲の開始点、終了点を指定するような操作が可能とされる。
トリミング画面104からの所定の操作により、表示はプレビュー画面102に戻る。
なお、本明細書においては、トリミングは1フレーム内の一部領域を切り出す処理を含まない。
プレビュー画面102からの所定の操作により、表示はスピード画面105に遷移する。スピード画面105はインポートした動画のうちで、プレビュー画面102で処理対象として指定した動画を個別にスピード処理するための画面である。
例えばスピード画面105では、動画内でスピード(再生速度)を設定する範囲を選択したり、当該範囲の再生速度を指定するような操作が可能とされる。
スピード画面105からの所定の操作により、表示はプレビュー画面102に戻る。
より具体的には、メタデータに含まれるタイミング情報TMで設定されているフレームレートと異なるフレームレートとすることで、スローモーションや高速再生を行うための再生速度である。
プレビュー画面102からの所定の操作により、表示はアスペクト比設定画面106に遷移する。アスペクト比設定画面106はインポートした動画についてファイル単位で出力動画のアスペクト比を設定するための画面である。
なお、インポートした動画と設定された出力画像(出力動画)のアスペクト比が異なる場合は、フレーミング画面で行われる実効切り出し領域の設定と同様の意味合いを持つことがある。
即ち、フレーミング画面で実効切り出し領域が設定されていなくても、撮像領域から、アスペクト比が異なる出力画像の実効切り出し領域が設定されることになる。
例えばアスペクト比設定画面106では、「1:1」「4:5」「5:4」「16:9」「9:16」などのアスペクト比が選択可能とされる。
アスペクト比設定画面106からの所定の操作により、表示はプレビュー画面102に戻る。
またアスペクト比設定画面106を、インポートした動画のうちで、プレビュー画面102で処理対象として指定した動画を構成する複数フレームの全体のアスペクト比を設定できるようにするための画面としてもよい。
プレビュー画面102からの所定の操作により、表示は設定画面107に遷移する。設定画面107では当該アプリケーションプログラムの動作等についての設定操作が可能とされる。
設定画面107からの所定の操作により、表示はプレビュー画面102に戻る。
プレビュー画面102からの所定の操作により、表示はエクスポート画面108に遷移する。エクスポート画面108は、上記各画面で行った画像処理内容を反映させた動画を書き出す処理を行っているときの画面である。即ちユーザは、各種画像処理の操作を行ったら、プレビュー画面102に戻ってエクスポートを指示する。これにより、エクスポート画面108に遷移し、画像処理内容どおりに加工された動画の書き出し処理が実行される。
書き出された動画は、ユーザが任意に記録したり、携帯端末2のネットワーク通信を介してウェブサイト、SNS(Social Networking Service)等にアップロードしてシェアしたりすることができる。
なお、書き出し処理中にユーザがキャンセル操作をおこなった場合や、書き出し処理が完了した場合、表示はプレビュー画面102に戻る。
以上の各画面でのユーザインタフェースを行いながら実行される動画に関する処理の具体例を説明していく。
図14は、図5の前処理部31(CPU71)によって動画(画像ファイルMF)のインポート時に行われる前処理としての手順、及び画像処理部32(CPU71)によって行われる画像処理としての手順を示すとともに、各処理で用いる情報の関係性を示している。
なおステップST1,ST2,ST3,ST4の一部又は全部を撮像装置1側で行ってもよい。その場合は、前処理においては、以下説明するそれらの処理後の内容がメタデータとして取得される。
これは、全フレームについて対応づけられているIMUデータについて、全てを時系列順に並べて連結し、動画のシーケンス全体に対応するIMUデータを構築する処理となる。
そして連結したIMUデータに対して積分処理を行って、動画のシーケンス上の各時点での撮像装置1の姿勢を表すクオータニオン(Quaternion)QDを算出し、これを記憶保持する。クオータニオンQDを算出するとしているのは一例である。
なお角速度データのみでクオータニオンQDを計算することもできる。
図14の画像処理は、フレーミング画面103でユーザに指定される実効切り出し領域の情報を反映させながら、プレビュー画面102、フレーミング画面103、トリミング画面、スピード画面105、アスペクト比設定画面106としての各画面で、画像ファイルMFの動画或いは一時停止中の静止画が再生される際に定常的に行われる処理を示している。
また画像処理部32(CPU71)は、トラッキング(ステップST16)、表示領域指定(ステップST17)、はみ出し防止(ステップST18)としての各処理を行う。これらステップST16、ST17、ST18の処理は、図5の実効切り出し領域設定部34の機能による処理となる。
また画像処理部32(CPU71)は、平面投影及び切り出し(ステップST19)の処理を行う。このステップST19の処理は、図5の実効切り出し領域画像生成処理部35の機能による処理となる。
なお、動画が圧縮などのエンコード処理をされたものでない場合は、このステップST11でのデコード処理は不要である。
図15Aに画像データiPDを示している。像高hは画像中心からの距離である。図中の各円は像高hが等しくなる位置を示している。
この画像データiPDのフレームについての画角、ズーム位置、レンズ歪み情報から、そのフレームにおける「イメージセンサ面と入射角φの関係」を計算し、イメージセンサ面の各位置の「data0」・・・「dataN-1」とする。そして「data0」・・・「dataN-1」から図15Bのような像高hと入射角φの関係の1次元のグラフとして表現する。入射角φは光線の角度(光軸から見た角度)である。
この1次元のグラフを撮像画像の真ん中を中心に1回転させて、各ピクセルと入射角の関係を求める。
それに従って図15Cの画素G1から天球座標上の画素G2のように、画像データiPDの各画素について天球モデルMTへのマッピングを行うことになる。
従ってこの状態で天球モデルMTの画像を所定方向に回転させることで、揺れ補正が実現できることになる。
同期処理では、フレーム番号FNに対応して、ライン毎に適したクオータニオンQD(#LN)を特定し取得する処理を行う。なお『(#LN)』はフレーム内のライン番号を示し、そのラインに対応する情報であることを表すものとする。
例えばイメージセンサ12aがCCD型でグローバルシャッター方式の撮像が行われる場合は、フレーム単位のクオータニオンQD(#FN)を用いれば良い。
なお、イメージセンサ12aとしてのCCDやCMOSのグローバルシャッターの時でも電子シャッター(メカシャッターでも同様)を用いていると重心がずれるので、フレームの露光期間の中心(電子シャッターのシャッター速度に応じてずれる)のタイミングのクオータニオンを用いると良い。
ブラーとは、同一フレーム内の撮像装置と被写体の間の相対的な動きによる、画像のにじみのことである。即ち露光時間内の揺れによる画像のにじみである。露光時間が長くなる程、ブラーとしてのにじみの影響は強くなる。
電子手ぶれ補正は、フレーム毎に切り出す画像範囲を制御する方式を用いる場合、フレーム間に生じる「揺れ」を軽減/解消できるものであるが、露光時間内の相対的な揺れは、このような電子手ぶれ補正では低減できない。
また手ぶれ補正で切り出し領域を変化させるときは、各フレームの姿勢情報を用いるが、その姿勢情報が、露光期間の開始又は終了のタイミング等の露光期間の中心とずれたものであると、その姿勢を基準とした露光時間内の揺れの方向が偏ることになり、にじみが目立ちやすい。さらに、CMOSのローリングシャッターではラインごとに露光期間が異なる。
図16には、撮像装置1の垂直期間の同期信号cVと、この同期信号cVから生成されるイメージセンサ12aの同期信号sV、及びIMUデータのサンプルタイミングを示すとともに、露光タイミング範囲120を示している。
露光タイミング範囲は、ローリングシャッター方式で露光時間t4としたときの1フレームの各ラインの露光期間を平行四辺形で模式的に示したものである。さらに同期信号cVと同期信号sVの時間的なオフセットt0、IMUサンプルタイミングオフセットt1、読み出し開始タイミングt2、読み出し時間(幕速)t3、露光時間t4を示している。なお読み出し開始タイミングt2は同期信号sVから所定時間t2ofを経たタイミングとなる。
各IMUサンプルタイミングで得られる各IMUデータについてはフレームに紐づけられる。例えば期間FH1におけるIMUデータは平行四辺形で露光期間を示した現フレームに紐付いたメタデータとされ、期間FH1におけるIMUデータは次のフレームに紐付いたメタデータとされる。但し図14のステップST2で全IMUデータを連結することで、各フレームとIMUデータの紐付けを解除し時系列でIMUデータを管理できる状態になっている。
この場合に、現フレームの各ラインの露光重心(破線Wのタイミング)に相当するIMUデータを特定する。これはIMUデータとイメージセンサ12aの有効画素領域との時間的な関係がわかれば計算できる。
即ち露光時間、露光開始タイミング、読み出し時間、露光フレーム数、IMUサンプルオフセット、フレームレートの情報である。
そして露光重心のIMUデータから計算されたクオータニオンQDを特定し、ライン毎の姿勢情報であるクオータニオンQD(#LN)とする。
画像処理部32はステップS15の揺れ補正では、ステップS14でフレームの画像が貼り付けられた天球モデルMTの画像を、ライン毎にクオータニオンQD(#LN)を用いて姿勢の変化(揺れ)をキャンセルさせるように回転させることで、揺れ補正を行う。揺れ補正済天球モデルhMTの画像は、ステップST19の処理に送られる。
さらにクオータニオンQD(#LN)が各ラインの露光重心に対応するものであることで、ブラーが目立たない画像となっている。
図17Aは、平面投影する矩形の座標平面131の一例を示している。平面投影される画像の各座標を(x,y)とする。
図17Bに示すように座標平面131を、天球モデルMTの真上に真ん中で接するように3次元空間上に配置(正規化)する。即ち、その座標平面131の中心が天球モデルMTの中心と一致し、かつ天球モデルMTと接する位置に配置されるようにする。
またxnorm、ynorm、znormは、正規化したx、y、z座標である。
上記(数1)の各式により、座標平面131の座標は、半径1.0の半球の球面上の座標に正規化される。
図18Bのように、座標平面131を、天球表面に透視射影する(領域132)。即ち座標から天球の中心に向かって直線を引いた時に球面と交差する点を求めることになる。各座標は、以下のように計算される。
この関係で平面投影された画像データが得られる。
このトラッキング処理は、ユーザによる操作情報DR1により指定されたトラッキングターゲットが、現フレームの画像データPD(#FN)のうちで、どの位置に存在するかを検出する処理となる。
画像処理部32は、トラッキングターゲットを指定する操作が行われた場合、指定された被写体を認識し、追尾対象として記憶する。そしてその後、フレーム毎に、当該トラッキングターゲットの画面内の位置を判定する処理を行っていくことになる。
トラッキングターゲットの画面内の位置の判定は、画像解析による被写体判定(例えば顔判定、人物判定など)を行ったり、前フレームのトラッキングターゲットの画面内位置情報TPpを用いて行う。
そして判定した現フレームの画像データPD(#FN)におけるトラッキングターゲットの画面内位置情報TPをステップS17の処理に提供する。画面内位置情報TPは、現在のフレームの座標系において、トラッキングターゲットが撮像されている範囲を座標値により示した情報であればよい。
ここでの要求切り出し領域CLrqの設定とは、次のステップST18の処理を行う前の仮設定(実際に切り出し処理を行う領域としての実効切り出し領域CLの候補)という意味である。このステップST17は、ユーザ操作やトラッキングターゲットの情報に基づいて実効切り出し領域CLを指定する処理であるが、後述するはみ出し防止処理で修正する前の実効切り出し領域CLを、要求切り出し領域CLrqと呼んでいる。
例えばはみ出し防止処理が行われない場合や、はみ出し防止処理が行われても実質的な修正が行われない場合など、ステップST17で設定される要求切り出し領域CLrqがそのまま実効切り出し領域CLとなる場合もある。
実効切り出し領域の指定操作の操作情報とは、図12で説明したようにフレーミング画面103において表示枠115に入る範囲を指定する操作の情報となる。
アスペクト比の選択操作の操作情報とは、アスペクト比設定画面106で選択したアスペクト比の操作情報である。アスペクト比設定画面106での選択により、例えばフレーミング画面103等における表示枠115のアスペクト比が変化することで、ユーザは任意のアスペクト比を指定した上で、そのアスペクト比の状態において、フレーミング画面103で実効切り出し領域を指定できる。
トラッキングターゲットの配置位置の情報は、画像データPDのフレーム内の座標系ではなく、選択されたアスペクト比としての固定の表示枠115内の座標系としての座標値であればよい。
具体的には例えば、操作情報DR2における切り出し領域の指定操作とアスペクト比の選択操作に応じて切り出し領域としての座標範囲を計算する。そしてトラッキングターゲットの画面内位置情報TP(画像データPDのフレーム内での座標値)が、実効切り出し領域としての表示枠115内の座標系で配置位置として指定された座標値に一致(又は近接)するようにする。
このはみ出し防止処理では、当該フレームを含む前後の複数フレームについてのクオータニオンQD(#LN)や座標変換パラメータHPを用いる。
そこでこれらが生じずに品質のよい動画を出力できるようにするための切り出し領域を制限するはみ出し防止処理を行う。
この図19では、撮像領域(以下「キャプチャードエリア」ともいう)61、アベイラブルエリア(可動領域)62、要求切り出し領域CLrq、実効切り出し領域CLを示している。
アベイラブルエリア(可動領域)62は、前後のフレームの揺れを考慮した、切り出しを許容する領域である。つまりステップST15での揺れ補正天球モデルMTの回転による揺れ補正を有効に保つ範囲である。
実効切り出し領域CLは、アベイラブルエリア62に収まるように要求切り出し領域CLrqを移動したものである。この実効切り出し領域CLが、実際に切り出される領域となる。
具体的には、座標変換パラメータHPを使って、画角やレンズの歪みを考慮して天球モデルMT上に撮像領域を割り当てる処理となる。
割り当てる領域は、座標変換パラメータHPを使った逆補正が適用されたものを用いる。
さらに天球モデルMT上で揺れ補正を適用するため、図19に示すキャプチャードエリア61は天球モデルMT上で揺れをキャンセルする方向を向いている。
第3処理(表示範囲の修正)は、算出されたアベイラブルエリア62を用いて、要求切り出し領域CLrqを、実効切り出し領域CLに修正する処理となる。
図20Aは、フレーム#i、#i+1、#i+2においてキャプチャードエリア61と切り出し領域60の関係を示している。
揺れの影響でキャプチャードエリア61に含まれる(つまり撮像されている)被写体範囲は変動する。ここで揺れ補正を有効に保つように各フレームの切り出し領域60を設定すると、例えばフレーム#i+1では破線で示す切り出し領域60となり、画欠けが生じることとなってしまう。
具体的には前後のフレームのゆれ情報を使って、切り出し領域60が予めはみ出しそうな部分には行かないように余裕を持った枠としてアベイラブルエリア62を設定し、切り出し領域60をその範囲でのみ動かすようにする。
アベイラブルエリア62は揺れ補正マージンとしての意味を持つため、揺れの大きさに従ってフレーム毎に動的に変化することになる。
はみ出し防止処理では、各フレームについて、この図20Bの切り出し領域60のような実効切り出し領域CLが得られるように要求切り出し領域CLrqを修正することになる。
第1の算出手法を図21に示す。
アベイラブルエリア62は、処理対象のフレーム及び該フレームから時間軸方向に後の時点のフレームを含んで連続する複数フレームの各キャプチャードエリア61(撮像領域)を用いて設定する。この場合に、アベイラブルエリア62は、複数フレームの各フレームにおいて揺れ補正した状態のキャプチャードエリア61に共通に含まれる範囲とする。
各フレームのキャプチャードエリア61は揺れ補正を反映して天球モデルMTに紐づけられている。つまり、各フレームについて、座標変換パラメータHPを使って、画角やレンズの歪みを考慮して天球モデルMT上に撮像画角(キャプチャードエリア61)を割り当て、さらにクオータニオンQD(#LN)を用いて回転させる。図ではこのように天球モデルMTに紐づけられてそれぞれ揺れ補正をキャンセルする方向を向いているキャプチャードエリア61を重ねて示している。
各フレームのキャプチャードエリア61は揺れ補正の分だけ動いているため、前後±m個のフレームのキャプチャードエリア61を重ねてANDを取ることで、その共通の範囲は、キャプチャードエリア61内にいることが補償される。そこで、この範囲をアベイラブルエリア62とする。
ANDの取り方としては、必ず凸多角形になるので、2つの凸多角形の交差を取る処理をキャプチャードエリア61の数だけ繰り返せばよい。
時間的距離に応じて寄与度合の調整をしないと、±mフレームの範囲から大きな揺れが生じているフレームが抜けた場合にアベイラブルエリア62の形が不連続に変化してしまう。これに対し、時間的に遠いフレームのキャプチャードエリア61については、アベイラブルエリア62への寄与度合いを下げることで、アベイラブルエリア62が一時的に大きく変動するようなことを防止できる。
具体的には、ローパスフィルタを掛けたクオータニオンQDに基づいてアベイラブルエリア62を算出する手法である。
破線はローパスフィルタをかけることで得たキャプチャードエリア61の上端及び下端の低周波変動成分61Lである。
一点鎖線がアベイラブルエリア62としての上端と下端を示す。
そこでキャプチャードエリア61の低周波変動成分61Lが、キャプチャードエリア61からはみ出した量を時間的な距離で重みづけして補償することで、滑らかにキャプチャードエリア61の内側に収めるようにアベイラブルエリア62を求める。
図22Bは、図22Aの一部(±mフレームの範囲)を拡大し、矢印で重みづけの方向を示している。
図22Cは、低周波変動成分61Lをキャプチャードエリア61内に収める重み付けを二次元で示している。
各フレーム(#i)について、低周波変動成分61Lをキャプチャードエリア61内に収めるのに必要なクオータニオン(q_crct i)を求める。
j∈[-m,m]について、
Wj=1-|j/m|
q_crct_smooth i=max{slerp(q_crct i+j,q_identity;Wj)}
として、なめらかに補正するためのクオータニオンq_crct_smooth iを4つの端点全てについて求める(なお、この式は“j”に対するmax関数である)。
クオータニオンq_crct_smooth iは図22Bに矢印で示す重み付けの最大値に相当する。
なおslerpは球面線形補間、q_identity は単位クオータニオンである。
クオータニオンq_crctは低周波変動成分61Lの端点毎に、キャプチャードエリア61の中心に方向に回転させた際のキャプチャードエリア61の辺とぶつかるまでの回転量として求められる。
但し、以上の例のように前後のフレームの動きを使ってアベイラブルエリア62を作ると、動きが大きい場合、アベイラブルエリア62が、要求切り出し領域CLrqが収まらないほど小さくなることがある。
図23Aは、フレーム間で激しい動きがあって揺れ補正後のキャプチャードエリア61が大きくずれている状態を示している。この場合、アベイラブルエリア62が図23Bのように小さくなり、要求切り出し領域CLrqが収まらない。
具体的には、図23Cの状態で「アベイラブルエリア62の外側にある要求切り出し領域CLrqの頂点」「要求切り出し領域CLrqの外側にあるアベイラブルエリア62の頂点」の集合で新たな凸多角形を作り、それを図23Dの拡張したアベイラブルエリア62とする。
そこで図23Dのように、アベイラブルエリア62をキャプチャードエリア61内に収まるように移動させる。
要求切り出し領域CLrqがアベイラブルエリア62からはみ出している場合、要求切り出し領域CLrqを移動させることになるが、移動方向としてはヨー方向、ピッチ方向、ロール方向がある。
即ち図24Aのように、要求切り出し領域CLrqを、アベイラブルエリア62の中心CTに向かって必要最低限の量だけ動かす。ここではロール成分は変更せず、ヨー成分とピッチ成分の変更により移動させる(矢印yp)。
この移動により要求切り出し領域CLrqがアベイラブルエリア62に収まれば、それで表示範囲の修正を完了させる。即ち移動された要求切り出し領域CLrqを実効切り出し領域CLとする。
そのような場合には、まずアベイラブルエリア62の中心に要求切り出し領域CLrqの中心が重なるようにする。そして図24B、図24Cのように、ロール成分の変更を行う。この場合、各図で矢印Rとして示すように、要求切り出し領域CLrqの全体をアベイラブルエリア62内に収めるために必要な最小の回転量だけ回転させる。そして収まった状態の要求切り出し領域CLrqを実効切り出し領域CLとする。
この図では現在のフレーム#iの前後mフレーム(フレーム#i-mからフレーム#i+m)を示している。
各フレームについては、それぞれステップS20として、対応する座標変換パラメータHP(HP(#i-m)・・・HP(#i+m))を用いて天球モデルMTと撮像画角の紐付けが行われる。これにより理想天球上でキャプチャードエリア61が表現される。
なお、例えばフレーム#iに対応するクオータニオンQD(#i)とは、当該フレーム#iにおけるライン毎に対応するクオータニオンQD(LN)のこととなる。
このステップS21により、天球モデルMT上で揺れをキャンセルするような方向を向いたキャプチャードエリア61が表現される。
算出されたアベイラブルエリア62については、ステップS23で必要に応じて拡張される。即ち要求切り出し領域CLrqにより決められる要求切り出し領域CLrqとアベイラブルエリア62が比較され、収まらない場合は上述の拡張処理が行われる。
また出力画像のアスペクト比、切り出し位置、大きさを要求切り出し領域CLrqで表現し、それをアベイラブルエリア62の内側に収める方式にすることで、揺れ補正と切り出し位置等を同時に考慮した処理を実現している。
但し通常レンズと魚眼レンズの場合、キャプチャードエリア61の表現が異なることになる。
図26Aは通常レンズの場合、図26Bは魚眼レンズの場合とで天球モデルMT上での表現とキャプチャードエリア61の形状を示している。魚眼レンズを用いた撮像の場合、イメージセンサ12aの撮像画素範囲65内で円形の結像領域66が形成されることになるため、キャプチャードエリア61としては図示のように円や多角形で表現することになる。
以上の実施の形態としての画像処理によっては次のような効果が得られる。
実施の形態の画像処理装置は、動画を構成する画像データのフレームであって、天球モデルMTへの貼付処理が行われたフレーム毎に、当該各フレームに対応する姿勢情報(IMUデータ、クオータニオンQD)を用いて揺れ補正を行う揺れ補正部33を備える。また画像処理装置は、要求切り出し領域CLrqに対して、各フレームからの実効切り出し領域CLが揺れ補正を有効に保つ可動領域からはみ出さないように修正するはみ出し防止処理を行うことで、各フレームに適用する実効切り出し領域CLを設定する実効切り出し領域設定部34を備える。さらに画像処理装置は、揺れ補正部33で揺れ補正が行なわれた上で天球モデルMTから平面モデルに投影された画像であって、実効切り出し領域設定部34で設定された実効切り出し領域CLの画像である実効切り出し領域画像を生成する処理を行う実効切り出し領域画像生成処理部35を備える。
即ち撮像装置1で撮像された画像における手ぶれ等に起因する揺れを天球モデルMT上での座標変換により補正し、この揺れ補正がなされて平面投影された画像の実効切り出し領域CLを設定する。
天球モデルMT上でフレーム毎に揺れに対する補正を加味した回転を行って揺れ補正を行うことで、台形歪みが生じない補正が可能となる。そのうえで例えばユーザ操作や何らかの自動制御などによって設定される要求切り出し領域CLrqに応じて平面投影画像を得ることで、要求切り出し領域CLrqが反映された実効切り出し領域CLが設定され、そのうえで揺れ補正が行われかつ台形歪みのない出力画像データoPDが得られる。さらにはみ出し防止処理が行われることで、揺れ補正が適切に反映された動画出力とすることができる。
これらにより元の画像ファイルMFに対してユーザや自動制御の要求に適った出力領域を反映したうえで揺れや歪みの少ない高品位な画像が得られることになる。
また揺れ補正部33としては、少なくとも図14のステップST15の処理が行われるものであればよく、ステップST11、ST12、ST13、ST14の一部又は全部は揺れ補正部33の機能の外部(例えば揺れ補正部33を有する画像処理装置とは別の装置)でおこなわれてもよい。
また、図8ではRAWデータを画像処理対象とする場合を示したが、その場合、揺れ補正部33では、ステップST12の撮像装置内部補正キャンセルの処理は不要となる。
これによりユーザの意図やユーザの望む出力領域が適切に反映されたうえで揺れ補正が行われ、かつ台形歪みのない出力画像データoPDが得られる。
これによりトラッキングターゲットを考慮した切り出し領域設定が可能となる。
また実施の形態では、実効切り出し領域設定部34は、ユーザ操作に基づく操作情報DR1を用いてトラッキングターゲットを設定する例を挙げた。
これによりユーザが注目したい被写体(トラッキングターゲット)を考慮した切り出し領域設定が可能となる。即ち注目したい被写体をとらえながら適切に揺れ補正がなされた出力画像を得ることができる。
また、トラッキングターゲットをユーザによる設定によらず自動的に指定するような処理を行っても良い。例えば顔検出を行い、顔を検出したら自動的に、その顔をトラッキングターゲットとするような処理である。
即ちユーザの操作によりトラッキングターゲットの被写体が指定された場合、各フレームにおいてそのトラッキングターゲットの配置を考慮して実効切り出し領域CLを設定する。
これによりユーザが注目したい被写体(トラッキングターゲット)が、動画が進行する上でフレームアウトしないような切り出し位置設定が可能となる。
これによりユーザが注目したい被写体(トラッキングターゲット)を、画面内でどのあたりに表示させたいかを指定し、各フレームにおいて、その画面内の配置位置(配置位置付近)にトラッキングターゲットが位置するような切り出し領域設定が可能となる。従ってトラッキングターゲットとされた被写体が、例えば画面の中央や左よりの位置など、ユーザが望む配置位置付近にある状態で動画が進行するような動画処理が実現されることになる。
またトラッキングターゲット配置位置を自動指定してもよい。例えば画面の中央、或いは、右寄りの位置など、所定の位置に自動設定する。これによりユーザによるトラッキングターゲット配置位置の指定操作がなくとも、所定位置にトラッキングターゲットをとらえるような切り出し領域設定が可能となる。
例えば図12で説明したフレーミング画面103上でのユーザ操作により出力画像の領域を指定できるようにしており、その操作情報DR2を実効切り出し領域CLの設定に用いる。
これによりユーザが任意に指定した画像の出力領域を切り出しながら、適切に揺れ補正がなされた出力画像を得ることができる。
例えばアスペクト比設定画面106でのユーザの操作により出力画像のアスペクト比を指定できるようにしており、その操作情報DR2を切り出し領域設定に用いる。
これによりユーザが任意に指定したアスペクト比であって、適切に揺れ補正がなされた出力画像を得ることができる。
これによりユーザが任意に指定したトラッキングターゲットや出力領域、アスペクト比等に基づく切り出し領域は、画像内容などにより無制限に変動するものではなく、あくまでも揺れ補正が適切に維持できる範囲となるように修正される。従って、ユーザの各種指定を反映しながらも、揺れ補正が適切に行われた出力画像データoPDを得ることができる。
また揺れ補正が適切に維持できるようにするためには、揺れ補正を行った天球モデルMTの座標上で撮像領域(キャプチャードエリア61)を設定し、その中で可動領域(アベイラブルエリア62)を計算し、さらにアベイラブルエリア62内に収まるように要求切り出し領域CLrqを修正する。そして修正した要求切り出し領域CLrqを最終的な実効切り出し領域CLとする。つまりアベイラブルエリア62により切り出し領域を制限する。これにより天球モデルMTでの揺れ補正を反映する切り出し領域設定を適切に行うことができる。
即ち図21の第1の算出手法や図22の第2の算出手法のように、連続する複数フレームのキャプチャードエリア61を用いることで、ある程度の期間の時間軸方向(フレーム間)で発生する揺れがあっても、各フレームに共通に含まれている画像範囲を検出することができる。これは、当該複数フレームの期間において画像が欠けず、また揺れ補正が有効な領域である。これをアベイラブルエリア62とする。これによりアベイラブルエリア62を揺れの大きさによって動的に変化させることになり、出力画像データoPDによる動画上で、揺れによって画欠けが生じず揺れ補正も維持できる切り出し領域設定が実現される。従って品質の高い動画を容易に作成できることになる。
なお、アベイラブルエリア62を、処理対象のフレーム及び該フレームから時間軸方向に後の時点のフレームを含んで連続する複数フレームの各キャプチャードエリア61を用いて設定することもできる。
また、アベイラブルエリア62を、処理対象のフレーム及び該フレームから時間軸方向に前の時点のフレームを含んで連続する複数フレームの各キャプチャードエリア61を用いて設定することもできる。
即ち図21で第1の算出手法として説明したように、連続する複数フレームについての揺れ補正を行った状態のキャプチャードエリア61を用いることで、切り出し枠を設定しても画欠けが生じない範囲となるアベイラブルエリア62を設定することができる。揺れ補正を行った状態のキャプチャードエリア61に共通の範囲であるため揺れ補正も有効な範囲ともなる。
またこの場合に、キャプチャードエリア61をそのまま用いてもよいが、現在フレームとの遠近によって、キャプチャードエリア61の揺れ補正の度合いを変えることなどで、時間的距離に応じて寄与度合いを調整することで、遠い時点での大きい揺れなどの影響を和らげ、アベイラブルエリア62の変化をなめらかにすることができる。これは再生される動画において急激に画角が変化するような状態を生じさせないものとなる。
即ち図22で第2の算出手法として説明した例である。
キャプチャードエリア61の各端点の変化の低周波変動成分61Lを用いて各フレームのアベイラブルエリア62を設定することで、時間軸方向のアベイラブルエリア62の変化をなめらかにし、急激に切り出し領域の変化が生じない動画を得ることができる。
但し、単に低周波変動成分61Lを用いたのみでは画欠けが生じないこと(つまり切り出し領域がキャプチャードエリア61内であること)を補償できないため、フレーム毎に、キャプチャードエリア61内に収まるように低周波変動成分61Lで規定される各端点の位置を修正する。これにより、画欠けが生じずかつ切り出し領域の変化がなめらかな動画を得ることができる。
即ち表示範囲の修正として図24で説明したように、アベイラブルエリア62に収まるまで必要な距離だけ要求切り出し領域CLrqを回転させずに移動させる。これによりユーザが任意に指定したトラッキングターゲットや出力領域、アスペクト比等に基づく切り出し領域については、できるだけ回転を生じないようにアベイラブルエリア62内に移動させることになり、再生される動画上ではむやみな画像の回転が生じないようにすることができる。
即ち回転をさせない状態ではアベイラブルエリア62に収まらないときのみ要求切り出し領域CLrqを回転させる。このように切り出し領域の修正としては、やむを得ないときのみ回転させることとし、これによって画欠けができるだけ生じないようにする。
メタデータとして付加されたIMUデータから撮像装置の姿勢情報であるクオータニオンQDを計算する。これを用いて天球モデルMT上での揺れ補正を行うことで、撮像時の状況に対応した適切な揺れ補正を行うことができる。特に本実施の形態の場合、撮像時に行われたカメラ内部補正はキャンセルされているため、撮像時の撮像装置1の姿勢をそのまま反映することで最適な揺れ補正が可能となる。
露光期間内における被写体と撮像装置の相対的な揺れにより、いわゆるブラーが生じ、これはシャッタースピードによって露光時間が長くなるほど目立つ。この場合に、各ラインの露光開始タイミングの姿勢情報を用いると、各ラインの露光期間内の相対的揺れが、姿勢情報からみて一方向の揺れとなり、画像上で目立ちやすくなる。
一方で図16のように各ラインの露光期間内の重心位置のIMUデータに基づいて姿勢情報を取得することとすると、露光期間内の相対的揺れが、姿勢情報の状態からみて双方向の揺れとなり、視覚上、時間方向に相殺されるように感じられ、これによって画像においてブラーが目立たなくなるようにすることができる。
例えば撮像装置1においては撮像時に手ぶれ補正などの補正処理が行われるが、処理対象の画像データに対して、これらの既に行われている補正をキャンセルした後に揺れ補正を行うようにする。
これにより、撮像時の補正の影響を受けずに、元々の撮像画像データ、例えば撮像素子部12から取り出された状態の画像データに対して、適切な揺れ補正を行うことができる。つまり撮像を行った撮像装置1の性能等に影響を受けずに、画像処理装置の処理能力に応じて高品質な揺れ補正を実現できる。
座標変換パラメータHPは、例えばレンズ歪、台形歪、フォーカルプレーン歪、電子手ぶれ補正、光学手ぶれ補正の各パラメータなど、撮像画像の画枠(画角を含めた画像の範囲)を変化させる場合の情報である。
これにより、撮像時の画枠に関する補正をキャンセルすることができ、撮像装置1で画枠(画像の範囲)を補正した場合に、それを元に戻すことができる。
これにより、揺れ補正部33の処理や実効切り出し領域設定部34の処理においてフレーム毎のメタデータを使用できる。
また画像処理部32の機能による処理として図14にステップST11からステップST19の処理を示したがこれに限られない。例えばステップST11の処理は外部で行われてもよく、その場合、画像処理部32はステップST12からステップST19の処理を行うものとしても良い。
さらに、画像処理部32はステップST12の撮像装置内補正キャンセルの処理を行わないものでも良い。
また画像処理部32はステップST16のトラッキングに関する処理を行わないことも考えられる。
また画像処理部32はステップST14の同期処理を行わないことも考えられる。
少なくとも本開示の画像処理装置としては、画像処理部32による処理として、ステップST13(天球モデルMTへの貼り付け)、ステップST15(揺れ補正)、ステップST17(出力領域指定)、ステップST18(はみ出し防止処理)、ステップST19(平面投影及び切り出し)の処理が行われるようにすれば良い。
・光学手ぶれ補正が行われ、電子手ぶれ補正が行われない場合
・光学手ぶれ補正も、電子手ぶれ補正も行われない場合
・光学手ぶれ補正が行われず、電子手ぶれ補正が行われる場合
・光学手ぶれ補正と、電子手ぶれ補正の両方が行われる場合
これらそれぞれの場合の撮像装置1で撮像された画像に対して、実施の形態の画像処理装置の処理を適用することができる。
続いて、先の図11等によりその概要を示した画像処理に係る表示画面の詳細について説明する。
ここで、以下で説明する各種画面におけるユーザ操作の受け付けや操作に応じた表示制御については、前述したUI処理部36の受付部36aや表示制御部36bとして示したCPU71の処理により実現されるものである。
図27は、インポート画面101の例を示した図である。前述のように、インポート画面101は、動画処理のためのアプリケーションプログラムの起動に応じて表示部77に現れる画面であり、ユーザによって処理対象とする画像ファイルMFの選択が行われる。
メニューボタンI11が操作(例えばタッチ操作)されると、図中の画面外に示したメニューパネルI11aが表示される。なお、メニューパネルI11aを画面外に示したのは図示の都合からであり、実際には、メニューパネルI11aはメニューボタンI11上にオーバーレイ表示される。
メニューパネルI11aには、設定ボタンI11bが配置され、該設定ボタンI11bが操作されると、前述した設定画面107が呼び出される。
なお、フォルダ選択エリアI12においては、アプリフォルダボタンI12aがデフォルトで選択状態とされる。
再生ボタンI15dが操作されると動画表示エリアI15aにおける動画再生が開始され、再度再生ボタンI15dが操作されると動画再生が一時停止される。シークバー15bは、再生済みの部分とそれ以外の部分とを異なる表示態様で表すと共に、丸い部分のスライド操作により早送り/早戻しが可能とされる。
再生時間情報I15cは、本例では動画の総時間と再生中の箇所の時間の双方を表す。
閉じるボタンI15eが操作されると、オーバーレイ再生が終了し、インポート画面101がオーバーレイ再生前の状態に戻される(例えば図27の状態)。
なお、上記では、サムネイル画像I13aにおける選択受付ボタンI13b以外の部分をタップする操作がオーバーレイ再生の指示操作となる例を挙げたが、例えば図27下部の丸破線内に示すように、オーバーレイ再生指示のための再生ボタンPbを設けることもできる。この場合、以下で説明するサムネイルの選択操作(インポート対象として選択するための操作)は、図中の梨地部で表すような、再生ボタンPbの表示領域以外の所定領域をタップする操作とすることもできる。
・既に50個の画像ファイルMFが選択状態で、新たに51個目の画像ファイルMFが選択された状態か否か
・新たに選択された画像ファイルMFを含めると、選択中の動画の総時間が60分を超えるか否か
・処理対象外の画像ファイルMF(対象機種以外の撮像装置1により生成された画像ファイルMF)であるか否か
をそれぞれ判定する。
上記判定の結果、インポート可能と判定した場合(上記全ての判定で否定結果が得られた場合)、CPU71は操作された選択受付ボタンI13bの表示態様を、選択状態を表す表示態様(例えば、特定色表示とする)に変化させる(図29A参照)。また、これと共に、操作された選択受付ボタンI13bには、何番目に選択状態となった画像ファイルMFであるかを表すための数値情報を表記する(図29A参照)。例えば、1番目に選択された画像ファイルMFであれば「1」の表記を行う)。
ここで、選択状態の選択受付ボタンI13bが再度操作された場合、該選択受付ボタンI13bの選択状態を表す表示態様は解除され、該当する画像ファイルMFの選択状態も解除される。
なお、選択受付ボタンI13bに対し何番目に選択されたかを表す数値情報を表示することは必須ではない。
このようにアクティブ化された選択完了ボタンI14が操作されると、例えば図29Bに例示するプレビュー画面102の表示に遷移する。
選択完了ボタンI14の操作により、選択された画像ファイルMFが画像処理対象の画像ファイルMFとして確定される。本例では、選択完了ボタンI14の操作に応じ、選択された画像ファイルMFが選択された順に連結される。
図30を参照し、プレビュー画面102の詳細を説明する。
図示のようにプレビュー画面102には、動画リストエリアI21、メニューボタンI22、動画メニューボタンI23、プレビューエリアI24、再生ボタンI25、再生時間表示エリアI26、タイムラインI27、アスペクト比設定ボタンI28、及びエクスポートボタンI29が設けられると共に、画面下部にはフレームボタンB1、トリムボタンB2、及びスピードボタンB3が設けられている。
また、動画リストエリアI21において、サムネイル画像を長押しすると、ドラッグ&ドロップ操作により動画の順番の入れ替えが可能とされる(順番入れ替え時はタイムラインI27が再描画される)。
図31は、動画メニューパネルI23aが呼び出された際のプレビュー画面102を例示している。図示のように動画メニューパネルI23aには、動画追加ボタンI23b、動画削除ボタンI23c、及び動画コピーボタンI23dが配置される。動画追加ボタンI23bが操作されるとインポート画面に遷移し、画像処理対象の動画の追加が可能となる。動画削除ボタンI23bが操作されると、プレビュー画面102において不図示の確認ダイアログが表示され、ダイアログ上でOKをタップすると動画リストエリアI21においてフォーカス中の動画が削除される(画像処理対象から除外される)。このように動画が削除された際、動画リストエリアI21におけるフォーカス枠が一つ後ろの動画(サムネイル画像)へずれる(リスト末尾の動画が削除された際は一つ前へずれる)。
動画コピーボタンI23dが操作されると、動画リストエリアI21においてフォーカス中の動画がコピーされ、該フォーカス中の動画の一つ後ろに挿入される。なお、コピー対象の動画が後述するフレーミング、トリミング、スピードなどの画像処理が行われた動画である場合は、画像処理内容を維持した状態でコピーされる。なお、動画コピーボタンI23dが操作されたとき、コピーを行うと合計1時間を超える場合には、動画コピーボタンI23dの操作に応じてエラーダイアログが表示される。
ここで、表示枠115は、元画像からの切り出し範囲を表す枠に相当するものである(後述するフレーミング画面103の説明を参照)。この表示枠115内の領域は、請求項に言う「表示エリア」の一態様である。
再生時間表示エリアI26には、総再生時間(画像処理対象として選択されている全ての動画の再生時間を合計した時間)、及び現在再生中の箇所の時間が表示される。
また、本例のプレビュー画面102におけるタイムラインI27では、現在の再生位置が連結された動画の先頭である場合には、再生位置バーI27aより左側が黒色に塗りつぶされ、現在の再生位置が連結された動画の末尾である場合には再生位置バーI27aより右側が黒色に塗りつぶされて表示される。
図32は、これら再生速度の変更やトラッキングの処理がそれぞれ行われた区間をタイムラインI27上で示す表示の例を示している。
図示のようにこの図の例では、プレビュー画面102のタイムラインI27上において、再生速度の変更が行われた区間をスピードバーSsとして表示し、トラッキングの処理が行われた区間をトラッキングバーStとして表示している。本例では、スピードバーSs内には、該当する区間に設定された再生速度を表す情報(図示の例では「×2」)を表示している。また、トラッキングバーSt内には、トラッキングの処理が行われた区間である旨を表す情報(図示の例では人の上半身とそれを囲う枠とを模したイラスト)を表示している。
また、それぞれの区間の区別を容易化するために、本例では、スピードバーSsとトラッキングバーStの表示色を異ならせるものとしている。
図33は、縮小ボタンI30の操作に応じてプレビューエリアI24がズームアウト表示状態とされたプレビュー画面102を例示している。
図示のようにズームアウト表示状態のプレビューエリアI24では、表示枠115の大きさが縮小されると共に、フォーカス中の動画について、表示枠115の外側の画像部分も表示される。すなわち、前述したキャプチャードエリア61(図19)としての画像全域のうち、表示枠115(図19ではディスプレイエリア63に相当)の外側の画像部分も表示されるものである。
ここで、キャプチャードエリア61の画像は、表示枠115による切り出しが行われる場合における、切り出し元の画像と換言できるものであり、以下、この意味で「元画像」と表記する。
本例では、表示枠115により元画像から切り出される範囲とそれ以外の範囲との区別が明確となるように、元画像における表示枠115外の画像部分を、表示枠115内の画像部分とは異なる表示態様で表示するものとしている。具体的に本例では、元画像における表示枠115外の画像部分をグレーアウト表示するものとしている。
また、拡大ボタンI31が操作されると、拡大ボタンI31の表示が縮小ボタンI30の表示に切り替えられ、これによりプレビューエリアI24をズームアウト表示状態に再度切り替えることが可能とされる。
エクスポートボタンI29は、エクスポート画面108(後述するサイズ選択ダイアログI70の表示状態)への遷移を指示するためのボタンとして機能する。
続いて、図34に示すアスペクト比設定画面106について説明する。
図示のようにアスペクト比設定画面106には、戻るボタンI35、及びアスペクト比選択エリアI36が設けられている。またアスペクト比設定画面106には、プレビュー画面102と同様のプレビューエリアI24、再生ボタンI25、再生時間表示エリアI26、タイムラインI27、及び縮小ボタンI30が設けられている。
なお、アスペクト比のデフォルト値は、前回エクスポートした動画のアスペクト比である。1度もエクスポートが行われていない場合は初期値である「1:1」がデフォルト値となる。また、アプリケーションプログラムのアップデート後は前回分を忘れて初期値に戻される。
図36は、トリミング画面104の例を示している。
トリミング画面104においては、プレビュー画面102と同様の動画リストエリアI21、プレビューエリアI24、再生ボタンI25、タイムラインI27、及び縮小ボタンI30が設けられると共に、アスペクト比設定画面106と同様の戻るボタンI35が設けられている。
また、トリミング画面104においては、タイムラインI27に対し、開始点アイコンI41、終了点アイコンI42が設けられると共に、タイムラインI27の上方に時間対比表示エリアI43が設けられている。さらに、トリミング画面104にはリセットボタンI44が設けられる。
また、トリミング画面104における再生位置バーI27aは、スワイプ操作により左右に移動可能とされ、再生位置バーI27aが移動されたときは、プレビューエリアI24における表示画像が、再生位置バーI27aが示す再生位置の画像に変化する。これにより、ユーザによるトリミング開始点、終了点の探索作業の容易化が図られる。
開始点アイコンI41、終了点アイコンI42が操作されると、図示のようにタイムラインI27におけるトリミングにより除外される動画部分のサムネイルがグレーアウト表示され、トリミングによって抽出される動画部分が明確化される。
また、図示は省略したが、開始点アイコンI41、終了点アイコンI42について、アイコンのタップ中には、例えばアイコン上部等のアイコン近傍に、アイコンの位置に対応する再生時間の情報が表示される。
図39は、スピード画面105の例を示している。
スピード画面105においては、プレビュー画面102と同様の動画リストエリアI21、プレビューエリアI24、再生ボタンI25、タイムラインI27、及び縮小ボタンI30が設けられると共に、アスペクト比設定画面106と同様の戻るボタンI35、及びスピード選択エリアI50が設けられている。
また、スピード画面105においても、再生位置バーI27aは、トリミング画面104の場合と同様にスワイプ操作により左右に移動可能とされており、プレビューエリアI24においては再生位置バーI27aが示す再生位置の画像が表示される。これにより、ユーザによるスピード設定の開始点、終了点の探索作業の容易化が図られる。
スピード選択エリアI50において何れかの再生速度を表す選択ボタンが操作されると、図40に例示するように、タイムラインI27に対して開始点アイコンI51、終了点アイコンI52が表示される。なお、これら開始点アイコンI51、終了点アイコンI52としても、先の開始点アイコンI41、終了点アイコンI42と同様に、アイコンタップ中にはアイコンの示す位置の再生時間の表示が行われる。
ユーザはこれらアイコンをスワイプ操作することで、スピード選択エリアI50において選択した再生速度を適用したい動画区間を指定することができる。
また、このように動画区間が指定されると、タイムラインI27においては、該動画区間を表す区間バーI53が表示される。本例において、この区間バーI53内には、スピード選択エリアI50において選択した再生速度を表す情報が表示される。図41では、「×2」の再生速度が選択された場合に対応して、区間バーI53内に「×2」の表記が行われた場合を例示している。なお、このような区間バーI53内における情報表示は、区間バーI53が短すぎる場合には行われない。
さらに、スピードの適用区間設定中においてスピード選択エリアI50内のリセットボタンが操作されたときは、スピード設定内容をリセットし、図39に示す初期状態のスピード画面105に画面状態を戻す。
続いて、フレーミング画面103について説明する。
図42に例示するように、フレーミング画面103には、プレビュー画面102と同様の動画リストエリアI21、プレビューエリアI24、再生ボタンI25、再生時間表示エリアI26、タイムラインI27、及び縮小ボタンI30が設けられると共に、アスペクト比設定画面106と同様の戻るボタンI35が設けられている。
さらに、フレーミング画面103には、回転ボタンI61、トラッキングボタンI62、及びトラッキング開始ボタンI63が設けられると共に、プレビューエリアI24の表示枠115内には、前述したターゲット指定照準116が表示されている。
前述のように、本例のフレーミング画面103では、表示枠115内でのドラッグ操作やピンチアウト/ピンチイン操作を行うことで、元画像における表示枠115に含まれる範囲を移動させたり、拡大/縮小させることができる。すなわち、表示枠115に対し元画像を縦横斜め方向に移動させることによる元画像からの切り出し範囲の指定や、表示枠115に対し元画像を拡大/縮小させることによる元画像からの切り出し範囲の指定を行うことができる。また、表示枠115内における2本指を用いた回転操作を行うことで、元画像の表示枠115に対する回転角度を変化させることも可能とされる。すなわち、表示枠115に対し元画像を回転させることによる元画像からの切り出し範囲の指定を行うことも可能とされる。
このとき、上記した2本指による回転操作で中途半端な角度になっていた場合でも、回転ボタンI61の操作により元画像の回転角度は90の倍数の角度に調整される。
なお、図44では、ズームアウト表示状態とされたプレビューエリアI24に対する操作で切り出し範囲が指定される様子を示している。
例えば、図44Aに操作Swとして示すような表示枠115内に対する左方向へのスワイプ操作が行われたとする。このような操作に応じては、図44Bに示すように元画像が表示枠115に対して左方向(スワイプ方向)に移動され、結果として元画像における表示枠115に含まれる範囲が変化する。つまり、元画像からの切り出し範囲が変化する。
このようにすることで、元画像の中でどのような範囲を切り出し範囲としているかをユーザに明確に認識させることができる。
トラッキングの画像処理では、トラッキングターゲットの画面内での配置位置の指定をユーザより受け付ける。トラッキングに係る操作を行いたい場合、ユーザはフレーミング画面103におけるトラッキングボタンI62を操作する(例えばタップ操作)。
本例において、トラッキングモード時のフレーミング画面103では、表示枠115内の画像が例えばグレーアウト表示される等、表示態様が変更されることで、モードが移行したことをユーザが容易に知覚できるようにしている。
なお、トラッキング開始ボタンI63が操作される前のフレーミング画面103において、ターゲット指定照準116の位置は、所定の初期位置(本例では表示枠115の中央)とされる(図42参照)。
また、本例では、表示枠115内をタップする操作のみでなく、ターゲット指定照準116をドラッグ操作により移動させる操作によっても対象被写体の切出画像内での配置位置の指定を行うことが可能とされる。
ここで、上記説明から理解されるように、本実施の形態では、表示枠115内の指定位置に対象被写体が配置されるように元画像からの切り出しを行う処理は、表示枠115内に表示された画像、すなわち、動画を構成する1枚のフレーム画像に対して行われた指定操作に応じて、順番的にそのフレーム画像よりも以降に位置する各フレーム画像についても行われることになる。つまり、表示枠115内の指定位置に対象被写体が配置されるように切り出しが行われた動画を生成させるにあたり、ユーザは、各フレーム画像に対して配置位置の指定操作を行う必要はなく、この点で操作負担の軽減が図られている。
なお、動画は、複数の画像から構成される画像群であって、該画像群が、所定の順番で連続した複数の画像で構成されたものと換言できる。
また、トラッキング開始ボタンI63が操作されたことに応じては、タイムラインI27内において、トラッキングの区間を示す区間バーI66の表示も開始される。
この区間バーI66は、トラッキングの開始フレーム(トラッキング開始ボタンI63が操作されたときにプレビューエリアI24において表示されていたフレーム)から、プレビュー再生の進行に応じて、図49のように徐々に延伸するバー表示とされ、該区間バーI66の延伸は、ストップボタンI65の操作等によりトラッキングの区間の終点が定まったことに応じて停止される。これにより、タイムラインI27上においてトラッキング区間が示される。
また、トラッキング処理の対象としている動画の最後まで達した場合にも、トラッキングが終了し、この場合は該動画の最終フレームがトラッキング区間の終点として定まる。
トラッキングの終了後にこのリセットボタンI67が操作されるか、或いはトラッキング中にキャンセルボタンI64が操作されると、フレーミング画面103がトラッキング開始前の状態(例えば図47の状態)に戻る。
これにより、同一画面上で切り出し範囲の指定と、トラッキングターゲット又はその配置位置の指定の操作を明確に切り分けることができる。
これによりユーザは、第2の画面の状態で操作を行ったときは、画像が移動、拡大、縮小、回転されることで、切り出し範囲の指定操作であることが明確に認識できる。同様に第1の画面の状態で操作を行ったときは、ターゲット指定照準116が移動されることで、ユーザはトラッキングターゲット及びその配置位置の指定操作であることを明確に認識できる。
CPU71は、このような画像処理部32による画像処理で得られる動画を、プレビュー動画としてプレビューエリアI24に表示させる制御を行う。
この図の例では、表示枠115の下辺がアベイラブルエリア62の下辺と一致した状態とされている。
具体的に、本例では、上記説明のように図50に示した操作Swに応じて表示枠115内にアベイラブルエリア62外の画像部分を表示させるが、このような表示状態は、操作Swとしてのスワイプ操作が完了するまでの間(画面に対する接触状態が継続している間)の、一時的な期間のみ継続し、スワイプ操作が完了したことに応じ、表示枠115内にアベイラブルエリア62外の画像部分が含まれなくなるように、表示枠115に対する元画像の位置を調整する。つまり、例えば図50に示す表示枠115と元画像の位置関係のように、表示枠115の下辺がアベイラブルエリア62の下辺に一致する状態とする。このように、切り出し範囲の指定操作が、アベイラブルエリア62に基づき制限される。
また、上記のようにアベイラブルエリア62に基づき切り出し範囲の指定操作を制限する表示を行うことで、ユーザに切り出し範囲の変更操作が制限される状況を理解させ易くなる。
また、ズームアウト表示状態のプレビューエリアI24において(図33等参照)、表示枠115外の領域にアベイラブルエリア62を表現する表示を行うこともできる。
続いて、エクスポート画面108について説明する。
図53に例示するように、エクスポート画面108には、切出画像の最終出力サイズを選択するためのサイズ選択ダイアログI70が設けられ、サイズ選択ダイアログI70には、ダイアログタイトルI70aと、フルHDボタンI70bと、HDボタンI70cとが配置されている。
本例では、エクスポートボタンI29が操作されたことに応じて表示される初期状態のエクスポート画面108は、プレビュー画面102上にオーバーレイ表示される。サイズ選択ダイアログI70の外部をタップするとプレビュー画面102に戻ることができる。
なお、フルHDボタンI70bについては、フルHDでのレンダリングが不能な機種ではグレーアウト表示され、タップ時にエラーダイアログが表示される。
レンダリング中のエクスポート画面108においては、処理中ステータスエリアI71において、プログレスバーI71aが表示されると共に、処理中表記エリアI71b内に処理中文言と処理中アニメーションが表示される。
また、レンダリング中のエクスポート画面108にはキャンセルボタンI72が設けられ、キャンセルボタンI72が操作されると不図示の確認ダイアログが表示され、ダイアログ上でOKが選択されるとレンダリング処理がキャンセルされ、プレビュー画面102に戻る。
この場合のエクスポート画面108には、プレビューエリアI24(表示枠115を含む)、再生ボタンI25、再生時間表示エリアI26、タイムラインI27が設けられ、レンダリングされた動画について再生ボタンI25やタイムラインI27内の再生位置バーI27a等を用いたプレビュー再生を行うことが可能とされる。
また、この場合のエクスポート画面108には、戻るボタンI35とシェアボタンI73が設けられている。戻るボタンI35が操作されるとプレビュー画面102に戻る。シェアボタンI73が操作されると、SNSの選択画面(OS標準)が表示される。この選択画面を介して、ユーザは画像処理後の動画を所望のSNSサイトにアップロードすることが可能とされる。
上記により説明した画像処理に係るUIのうち、特にフレーミング画面103のUIに係る処理について図56から図58のフローチャートを参照して説明する。
以下で説明する処理は、CPU71がUI処理部36として実行する処理であり、CPU71は、前述した動画処理のためのアプリケーションプログラムに従ってこれらの処理を実行する。
フレームボタンB1が操作されフレーミング画面103に遷移すべき状態となったことに応じ、CPU71はステップS102で先頭フレーム出力処理を実行する。すなわち、前述したように動画リストエリアI21でフォーカス中の動画について、先頭フレームの画像がプレビューエリアI24に表示されたフレーミング画面103を表示させる処理を行う(図42参照)。先の説明から理解されるように、フレームボタンB1の操作に応じて表示される初期状態のフレーミング画面103では、プレビューエリアI24はズームイン表示状態であり、フレーミング画面103には縮小ボタンI30が表示される。
また、本例では、プレビューエリアI24に表示されるフレーム画像については、前述した編集処理部32によるゆれ補正やはみ出し防止の処理(アベイラブルエリア62の算出)が行われた画像を表示する。
トラッキング区間が設定された動画であると判定した場合、CPU71はステップS104でトラッキング区間のバーを表示するための処理を行う。具体的には、フレーミング画面103のタイムラインI27において前述した区間バーI66(図48参照)を表示させる処理を行う。その後、処理をステップS105に進める。
一方、トラッキング区間が設定された動画でなければ、CPU71はステップS104の処理をパスしてステップS105に処理を進める。
ポーズ状態あれば、CPU71は図57に示す切り出し範囲指定、及びトラッキングに係る処理に移行する(詳細は後述する)。
トラッキング区間がなければ、CPU71はステップS108に進み、現在の切り出し範囲を維持した切出動画の表示開始処理を実行する。このステップS108の表示開始処理としては、現在の表示枠115によって指定されている切り出し範囲で元画像から切り出しが行われた切出画像を、プレビューエリアI24において表示させる処理を開始する。なお、前述のように本例では、プレビュー再生する動画についても画像処理部32によるゆれ補正やはみ出し防止の処理を実行させる。
ステップS111で再生終了状態と判定した場合、CPU71はステップS105に戻る。一方、ステップS110でポーズ状態と判定した場合、CPU71はステップS112で再生停止処理、すなわち再生中の動画のプレビュー再生を一時停止させ、ステップS105に戻る。
前述のように図57の処理は、ステップ105でポーズ状態と判定された場合に実行される。
先ず、CPU71は、ステップS115からS120の処理により、縮小ボタンI30の操作(S115)、拡大ボタンI31の操作(S116)、切り出し範囲の移動操作(S117)、回転操作(S118)、拡大/縮小操作(S119)、トラッキングボタンI62(S120)の操作を待機する。
ステップS117の切り出し範囲の移動操作とは、本例では表示枠115内でのスワイプ操作が該当する。また、ステップS118の回転操作は、表示枠115内での2本指による回転操作や、回転ボタンI61の操作を包括的に表す。さらに、ステップS118の拡大/縮小操作は、本例では表示枠115内でのピンチアウト/ピンチインの操作が該当する。
ここで、ステップS120でトラッキングボタンI62の操作がないと判定した場合、CPU71は図56に示したステップS105に戻る。
さらに、ステップS118で回転操作があったと判定した場合、CPU71はステップS127で操作に応じて元画像を動かす処理を実行し、続くステップS128で切り出し範囲の設定処理を実行し、ステップS105に戻る。
また、ステップS119で拡大/縮小操作があったと判定した場合、CPU71はステップS129で操作に応じて元画像を動かす処理を実行し、続くステップS130で切り出し範囲の設定処理を実行し、ステップS105に戻る。
ここで、本例では、ステップS125、S127、S129の操作に応じて元画像を動かす処理において、CPU71は必要に応じ、前述したアベイラブルエリア62を表現する表示の処理や、アベイラブルエリア62に基づき切り出し範囲の指定操作(具体的に本例では切り出し範囲の移動操作、回転操作、拡大/縮小操作)が制限されることを示す表示の処理を実行する。
先ず、CPU71はステップS201で、画面内容更新処理を実行する。すなわち、フレーミング画面103の画面内容を、図45に例示したトラッキングモード時の画面内容に更新する処理を実行する。
ここで、CPU71は、ステップS203で戻るボタンI35の操作があったと判定した場合には、プレビュー画面102への遷移処理を行う。
そして、さらに続くステップS205でCPU71は、トラッキング開始操作、すなわちトラッキング開始ボタンI63の操作を待機する。
トラッキング開始ボタンI63が操作され、トラッキング開始操作があったと判定した場合、CPU71はステップS207で画面内容更新処理を実行する。ステップS207の更新処理では、フレーミング画面103の画面内容を、先の図48で例示したようなキャンセルボタンI64、及びストップボタンI65を含む画面内容に更新する。
ステップS210でストップボタンI65の操作があった、又は動画の最後まで到達したと判定した場合、CPU71はステップS213に進み、ステップS208で開始させた切出動作の表示、及びステップS209で開始させたバー延伸の停止処理を実行し、続くステップS214でトラッキング区間の設定を行う。
また、CPU71はステップS211でトラッキング不能状態(例えば対象被写体のフレーアウト等)であると判定した場合にも、ステップS214に進んでトラッキング区間の設定を行う。
ここで、ステップS212でキャンセルボタンI64の操作があったと判定した場合、CPU71はステップS201に戻る。これにより、フレーミング画面103がトラッキング開始前の状態(例えば図47の状態)に戻される。
また、ステップS217で戻るボタンI35の操作があったと判定した場合、CPU71はプレビュー画面102への遷移処理を実行する。
ここで、画像処理に係るUIの詳細については各種の変形例が考えられる。
例えば、図59に示す変形例としてのフレーミング画面103’のように、画面内に拡大/視点変更モードボタンB4、傾き補正モードボタンB5、トラッキングモードボタンB6を配置し、これらボタンが示す各モードにおいてそれぞれ異なる種別の操作受付を行うようにすることもできる。
具体的に、拡大/視点変更モードボタンB4は、元画像の拡大/縮小や元画像の移動による切り出し範囲の指定操作を受け付ける拡大/視点変更モードへの移行を指示するボタンとされ、傾き補正モードボタンB5は、元画像の回転による切り出し範囲の指定操作を受け付ける傾き補正モードへの移行を指示するボタンとされる。トラッキングモードボタンB6は、前述したトラッキングボタンI62と同様、トラッキングモードへの移行を指示するモードである。
拡大/視点変更モードボタンB4が操作されると、画面上に拡大/視点変更モードで可能な操作の説明が記されたガイドダイアログが表示され、該ダイアログに表示されたOKボタンが操作されると、表示枠115に対する操作によって元画像の拡大/縮小や元画像の移動による切り出し範囲の指定が可能とされる。この場合もOKボタンB9やリセットボタンB10の操作により、画面内容が初期状態に戻される。
傾き補正モードボタンB5が操作されると、画面上に傾き補正モードで可能な操作の説明が記されたガイドダイアログが表示され、該ダイアログに表示されたOKボタンが操作されると、図示のように左回転ボタンB11、右回転ボタンB12が表示され、これらのボタン操作によって表示枠115に対する元画像の回転を指示することができる。この場合もOKボタンB9やリセットボタンB10の操作により、画面内容が初期状態に戻る。
ここで、図64に示したアスペクト比設定ボタンI28’はプレビュー画面102のみではなくフレーミング画面103を始めとした各種の画像処理に係る画面上に配置しておき、各種の画面上に呼び出し可能とすることができる。このとき、ダイアログ上でアスペクト比の指定操作が行われると、ダイアログを表示状態から非表示状態として、ダイアログ表示直前の画面状態に戻すこともできる。なお、アスペクト比が指定された場合は、表示枠115を指定されたアスペクト比で表示する。
なお、アスペクト比設定ボタンI28’の表示形態は上記で例示した表示形態に限定されず、例えば図66に示すアスペクト比設定ボタンI28’’のように現在設定されているアスペクト比を表記した形態の画像を画面内に配置することもできる(図中の例ではプレビューエリアI24近傍に配置する例としている)。このアスペクト比設定ボタンI28’’の操作に応じて各種の画面上において図65のダイアログを表示して縦横比の指定を受け付ける。
上記のように実施の形態の情報処理装置(例えば携帯端末2)は、所定の画像を表示エリア(表示枠115)に表示する第1の画面において、トラッキング対象の表示エリアにおける配置位置の指定を受け付ける受付部(同36a)を備えるものである。
例えば表示画面上で画像内容を認識できる状態で、ユーザがトラッキングの対象被写体を配置する位置(表示エリア内の位置)を指定できるようにする。
これにより、ユーザに、例えば図13や図46のような手法で、対象被写体の表示エリア内での配置位置を任意位置に指定させることが可能となる。
従って、トラッキングの対象被写体の画枠内における配置位置の自由度が向上し、作画自由度の向上を図ることができる。
すなわち、表示エリア内に表示される画像は、元画像からの切出画像とされる。
これにより、画枠内にトラッキングの対象被写体が含まれるように元画像から画像を切り出す画像処理が行われる場合において、ユーザに画枠内での対象被写体の配置位置を任意位置に指定させることが可能となる。
従って、トラッキングの対象被写体の画枠内における配置位置の自由度が向上し、作画自由度の向上を図ることができる。
すなわち、画像内の被写体のうちから、トラッキング対象としての被写体の指定を受け付けるようにする。
これにより、ユーザは画像内の任意の被写体をトラッキングの対象被写体として指定することが可能となり、この点での作画自由度の向上が図られる。
例えばユーザが指定したトラッキング対象被写体の配置位置を反映した画像が表示されるようにする。
これによりユーザはトラッキング対象被写体の配置位置の指定が適切であるか否かを確認でき、トラッキング対象被写体の配置位置の指定作業について、良好な作業環境を提供することができる。
例えば、表示画面上で、ユーザが元画像のうちで切出画像の画枠に含まれる範囲を指定できるようにする。
具体的には、例えば図12Aから図12Bや図44のように、表示範囲内に現れる元画像(フレーム画像全体)を移動させたり、図12Cで説明したように元画像に対する拡大や縮小の操作を行って、切出画像として用いる範囲、つまり切り出し範囲CL’を指定することができる。これにより撮像後において、元画像から任意の切り出し範囲を指定し、望ましい画像範囲を採用する画像編集が可能となる。
例えば表示エリア上に、配置位置の指定のための照準となる操作画像を重畳表示させ、ユーザが操作画像により、画枠内の位置を指定できるようにする。
ユーザはターゲット指定照準116を移動させることで、トラッキングターゲットの切り出し画像内での配置位置を指定できる。特にターゲット指定照準116によって、直感的な配置位置指定の操作が可能となり、操作性を向上させることができる。
例えば、表示エリア上で、或る箇所を操作画像で指定する操作により、その部分の被写体をトラッキングターゲットとし、かつその操作画像の位置を、トラッキングターゲットの配置位置として受け付けるようにする。
このようにすることで、ユーザはターゲット指定照準116の移動により、トラッキングターゲットの指定と、その配置位置を同時に指定でき、操作性を向上させることができる。
例えば表示画面上で元画像から切り出される範囲を表示させ、その画像に操作画像を表示させる。その画面上で、切り出し範囲の変更や操作画像の移動を受け付けるようにする。
このようにすることで、ユーザは切り出し範囲の指定とターゲット指定照準116の移動によるトラッキングターゲットの指定や配置位置の指定をシームレスに行うことができる。
具体的には例えば、切り出し範囲を移動させることで、トラッキングターゲットにしたい被写体が切り出し範囲内で所望の配置位置となるようにする。そしてその被写体をターゲット指定照準116で指定する(図12,図13や図44,図46参照)。このようにすれば、ユーザがターゲットを認識しながら切り出し範囲やターゲット配置位置を指定する操作を直感的で容易なものとすることができる。
例えば表示画面上のアイコンにより用意される操作により、画面上で行われるユーザ操作の認識モードを切り替えるようにする。
例えばトラッキングボタンI62の操作に応じて、操作入力を切り出し範囲の指定操作とターゲット指定照準116の移動操作とを切り分けて認識する。このようにすることで同一画面上でのユーザ操作を的確に認識できる。
表示画面が第1の画面の状態か第2の画面の状態かにより、画面上で行われるユーザ操作の認識を切り替えるようにする。
例えばフレーミング画面103に遷移したときの初期状態では、切り出し範囲の画像とターゲット指定照準116の表示を行うが、ターゲット指定照準116は固定とする第2の画面である。この場合、ユーザのドラッグ等の操作によって、画像が移動され、切り出し範囲の指定が変更されるものとする。
第2の画面の状態からトラッキングボタンI62が操作された場合は、第1の画面となる。ここでいう第1の画面とは、ターゲット指定照準116が移動可能な状態の画面である。この場合のユーザの画面上の操作は、ターゲット指定照準116の移動操作と認識する。
このようにすることで、同一画面上で切り出し範囲の指定と、トラッキングターゲット又はその配置位置の指定の操作を明確に切り分けることができ、ユーザの操作に対する誤認識も生じにくい。従ってユーザにストレスの少ない操作環境を提供できる。
表示画面が第2の画面であるときは、例えば画面全体、或いは表示エリア内に、切り出し範囲の画像を表示させるが、それが操作に応じて変更されるようにする。
第1の画面であるときは、操作に応じて操作画像による指定位置が移動されるようにする。
ユーザは第2の画面の状態で操作を行ったときは、画像が移動、拡大、縮小、回転されることで、切り出し範囲の指定操作であることが明確に認識できる。同様に第1の画面の状態で操作を行ったときは、ターゲット指定照準116が移動されることで、ユーザはトラッキングターゲット及びその配置位置の指定操作であることを明確に認識できる。これによりユーザにとってわかりやすい操作環境を提供できる。
すなわち、第2の画面では、操作に応じて、表示エリアにおいて例えば元画像の移動、拡大、縮小、回転等の画像変化が生じ、第1の画面では、操作に応じて、例えば表示エリア内での元画像の変化は生じないが、操作画像の配置位置が変化する。
これにより、ユーザは、第2の画面の状態で操作を行ったときは、切り出し範囲の指定操作であることが明確に認識でき、第1の画面の状態で操作を行ったときはトラッキングターゲット及びその配置位置の指定操作であることを明確に認識できる。
従って、ユーザにとってわかりやすい操作環境を提供できる。
これにより、画像群を構成する個々の画像について、ユーザに切出画像の画枠内での対象被写体の配置位置を任意位置に指定させることが可能となる。
従って、トラッキングの対象被写体の画枠内における配置位置の自由度が向上し、作画自由度の向上を図ることができる。
これにより、所定の順番で連続した複数の画像のうち一枚の画像についてトラッキング対象の配置位置が指定されることで、順番的に以降に位置するフレーム画像についても、指定位置に基づく位置にトラッキング対象を位置させる画像切り出し処理が行われることになる。
従って、所定の順番で連続した複数の画像について指定位置に基づく位置にトラッキング対象を位置させる画像切り出しを行う場合におけるユーザ操作負担の軽減を図ることができる。
これにより、動画を構成する各フレーム画像について画像切り出しを行う場合において、ユーザに切出画像の画枠内での対象被写体の配置位置を任意位置に指定させることが可能となる。
従って、トラッキングの対象被写体の画枠内における配置位置の自由度が向上し、作画自由度の向上を図ることができる。
これにより、ユーザはトラッキング区間についても任意に指定することが可能とされる。
従って、トラッキング区間の指定自由度の向上が図られ、この面でも作画自由度の向上を図ることができる。
例えば表示画面上で元画像の全体を表示させるが、その中で切り出し範囲内と切り出し範囲外とが区別できるような表示態様とする。
このようにすることで、ユーザは元画像の中でどのような範囲を切り出し範囲としているかを明確に認識でき、切り出し範囲の良否判断や変更操作に有用な画像を提供できることになる。
例えば撮像装置で撮像された画像における手ぶれ等に起因する揺れを仮想天球面上での座標変換により補正し、この揺れ補正がなされて平面投影された画像の切り出し範囲をユーザの操作に基づいて設定する。この場合に、切り出し範囲が揺れ補正を有効に保つ範囲を越えないようにはみ出し防止処理を行う。表示制御部は、このはみ出し防止処理で制限される範囲の切り出し範囲がユーザに認識できるように表示制御を行う。
ここで、フレーミング画面103の表示では、はみ出し防止処理が範囲されることで、ユーザに、切り出し範囲指定の限度を明確に伝えることができる。例えば図51等のように、はみ出し防止処理によるアベイラブルエリア62を越えるような切り出し範囲指定ができないことを示す表示を行うことで、ユーザは適正な切り出し範囲の指定を行うことができる。
はみ出し防止処理は、操作情報に基づいて設定した切り出し範囲を、揺れ補正が有効な範囲に収める処理となるが、その際に揺れ補正が有効に保たれる範囲として許容可動範囲を設定する。つまり許容可動範囲内であれば、切り出し範囲を移動してもよいという範囲である。表示上では、この許容可動範囲をユーザが認識できるような表示が行われるようにする。
フレーミング画面103の表示上ではアベイラブルエリア62を表現する表示が行われることで、このアベイラブルエリア62内で切り出し範囲の指定が可能であることがわかる。これにより切り出し範囲の指定可能な範囲をユーザが理解しやすくなる。
例えば許容可動範囲を越える場合に、切り出し範囲の変更ができなくなったり、切り出し範囲が許容可動範囲内に戻ってしまうような表示を実行させる。
フレーミング画面103の表示上で切り出し範囲の指定が行われるときに、アベイラブルエリア62を越える場合に、その操作が不能となったりアベイラブルエリア62内に戻ってしまうような表示を行うことで、ユーザは、切り出し範囲の変更操作が制限される状況を理解できる。またアベイラブルエリア62も表示されることで、指定が不能な場合に、操作の不具合ではなく、制限されていることが理解しやすいものとなる。
実施の形態のプログラムは、図56から図58に例示した処理を、例えばCPU、DSP等、或いはこれらを含むデバイスに実行させるプログラムである。
即ち実施の形態のプログラムは、所定の画像を表示エリアに表示する第1の画面において、トラッキング対象の前記表示エリアにおける配置位置の指定を受け付ける処理を情報処理装置に実行させるプログラムである。このようなプログラムにより、上述した実施の形態の情報処理装置を、例えば携帯端末2,パーソナルコンピュータ3、或いは撮像装置1などの機器において実現できる。
あるいはまた、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magnet optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
なお本技術は以下のような構成も採ることができる。
(1)
所定の画像を表示エリアに表示する第1の画面において、トラッキング対象の前記表示エリアにおける配置位置の指定を受け付ける受付部を備える
情報処理装置。
(2)
前記所定の画像は元画像から切り出した画像である
前記(1)に記載の情報処理装置。
(3)
前記受付部は、前記トラッキング対象の指定を受け付ける
前記(1)又は(2)に記載の情報処理装置。
(4)
指定された前記配置位置に基づく前記表示エリア内の位置に前記トラッキング対象が配置されるように前記所定の画像の表示制御を行う表示制御部を備えた
前記(1)から(3)の何れかに記載の情報処理装置。
(5)
前記受付部は、前記元画像から切り出す範囲の指定を受け付ける
前記(2)から(4)の何れかに記載の情報処理装置。
(6)
前記表示制御部は、前記第1の画面に、トラッキング対象の配置位置の指定操作に用いる操作画像を表示させる
前記(4)又は(5)に記載の情報処理装置。
(7)
前記受付部は、前記操作画像に対する操作に基づき、前記トラッキング対象の指定と前記トラッキング対象の前記配置位置の指定を受け付ける
前記(6)に記載の情報処理装置。
(8)
前記所定の画像は元画像から切り出した画像であり、
前記受付部は、画面に対する操作として、前記元画像から切り出す範囲の指定と前記操作画像による前記トラッキング対象に関する操作を受け付ける
前記(6)又は(7)に記載の情報処理装置。
(9)
前記受付部は、画面上の操作を、前記元画像から切り出す範囲の指定操作として認識する状態と、前記操作画像による前記トラッキング対象に関する操作として認識する状態とを切り替える
前記(8)に記載の情報処理装置。
(10)
前記受付部は、第2の画面では、画面上の操作を、前記元画像から切り出す画像範囲の指定操作として認識し、前記第1の画面では、画面上の操作を、前記操作画像による前記トラッキング対象に関する操作として認識する
前記(8)又は(9)に記載の情報処理装置。
(11)
前記表示制御部は、
前記第2の画面で前記受付部に認識された操作に対応して切り出し範囲となる画像の範囲を変更する表示を行い、
前記第1の画面で前記受付部に認識された操作に対応して前記操作画像による指定位置を移動させる表示を行う
前記(10)に記載の情報処理装置。
(12)
前記第2の画面では、操作に応じて、前記表示エリアにおいて前記元画像が変化し、
前記第1の画面では、操作に応じて、前記表示エリアにおいて前記操作画像の配置位置が変化する
前記(10)又は(11)に記載の情報処理装置。
(13)
前記元画像は、複数の画像から構成される画像群の一画像とされる
前記(2)から(12)の何れかに記載の情報処理装置。
(14)
所定の順番で連続した前記複数の画像のうち、前記配置位置の指定を受け付けた画像の順番以降の少なくとも一つの画像に対して、指定された前記配置位置に基づく前記表示エリア内の位置に前記トラッキング対象が配置されるように画像の切り出し処理を行う
前記(13)に記載の情報処理装置。
(15)
前記画像群は、動画を構成する一連のフレーム画像により構成された
前記(13)又は(14)に記載の情報処理装置。
(16)
前記受付部は、指定された前記配置位置に基づく前記表示エリア内の位置に前記トラッキング対象が配置されるように前記元画像からの切り出しを行う区間であるトラッキング区間の指定を受け付ける
前記(15)に記載の情報処理装置。
(17)
前記所定の画像は元画像から切り出した画像であり、
前記表示制御部は、前記元画像からの切り出し範囲内の画像と、切り出し範囲外の画像とを、互いに異なる表示態様で表示させる制御を行う
前記(4)から(16)の何れかに記載の情報処理装置。
(18)
動画を構成する画像データのフレーム毎に、仮想天球面への貼付処理をおこない、当該フレームに対応する姿勢情報を用いて揺れ補正を行う揺れ補正部と、
前記受付部が受け付けた切り出し範囲の指定に応じた切り出し範囲が、揺れ補正を有効に保つ領域からはみ出さないように修正するはみ出し防止処理を行う切り出し範囲設定部と、
を備え、
前記表示制御部は、前記切り出し範囲設定部が行ったはみ出し防止処理を反映した切り出し画像の表示制御を行う
前記(4)から(16)の何れかに記載の情報処理装置。
(19)
前記表示制御部は、前記はみ出し防止処理で設定された、画像の切り出し範囲の変動を許容する許容可動範囲に基づく表示が行われるように制御する
前記(18)に記載の情報処理装置。
(20)
前記表示制御部は、前記許容可動範囲を越える切り出し範囲の指定操作が制限されることを明示する表示が行われるように制御する
前記(19)に記載の情報処理装置。
Claims (22)
- 元画像からの切り出し画像を表示エリアに表示する第1の画面において、トラッキング対象の指定、及び前記トラッキング対象の前記表示エリアにおける配置位置の指定、及び前記元画像から切り出す範囲の指定を受け付ける受付部と、
指定された前記配置位置に基づく前記表示エリア内の位置に前記トラッキング対象が配置されるように前記切り出し画像の表示制御を行う表示制御部と、を備え、
前記表示制御部は、
前記第1の画面に、トラッキング対象の配置位置の指定操作に用いる操作画像を表示させ、
前記受付部は、
第2の画面では、画面上の操作を、前記元画像から切り出す画像範囲の指定操作として認識し、前記第1の画面では、画面上の操作を、前記操作画像による前記トラッキング対象に関する操作として認識し、
前記表示制御部は、
前記第2の画面における前記表示エリアでは、操作に応じて前記元画像を変化させ、前記第1の画面における前記表示エリアでは、操作に応じて前記操作画像の配置位置を変化させる
情報処理装置。 - 前記受付部は、前記操作画像に対する操作に基づき、前記トラッキング対象の指定と前記トラッキング対象の前記配置位置の指定を受け付ける
請求項1に記載の情報処理装置。 - 前記表示制御部は、
前記第2の画面で前記受付部に認識された操作に対応して切り出し範囲となる画像の範囲を変更する表示を行い、
前記第1の画面で前記受付部に認識された操作に対応して前記操作画像による指定位置を移動させる表示を行う
請求項1に記載の情報処理装置。 - 前記元画像は、複数の画像から構成される画像群の一画像とされる
請求項1に記載の情報処理装置。 - 所定の順番で連続した前記複数の画像のうち、前記配置位置の指定を受け付けた画像の順番以降の少なくとも一つの画像に対して、指定された前記配置位置に基づく前記表示エリア内の位置に前記トラッキング対象が配置されるように画像の切り出し処理を行う
請求項4に記載の情報処理装置。 - 前記画像群は、動画を構成する一連のフレーム画像により構成された
請求項4に記載の情報処理装置。 - 前記受付部は、指定された前記配置位置に基づく前記表示エリア内の位置に前記トラッキング対象が配置されるように前記元画像からの切り出しを行う区間であるトラッキング区間の指定を受け付ける
請求項6に記載の情報処理装置。 - 前記表示制御部は、前記元画像からの切り出し範囲内の画像と、切り出し範囲外の画像とを、互いに異なる表示態様で表示させる制御を行う
請求項1に記載の情報処理装置。 - 動画を構成する画像データのフレーム毎に、仮想天球面への貼付処理をおこない、当該フレームに対応する姿勢情報を用いて揺れ補正を行う揺れ補正部と、
前記受付部が受け付けた切り出し範囲の指定に応じた切り出し範囲が、揺れ補正を有効に保つ領域からはみ出さないように修正するはみ出し防止処理を行う切り出し範囲設定部と、
を備え、
前記表示制御部は、前記切り出し範囲設定部が行ったはみ出し防止処理を反映した切り出し画像の表示制御を行う
請求項1に記載の情報処理装置。 - 前記表示制御部は、前記はみ出し防止処理で設定された、画像の切り出し範囲の変動を許容する許容可動範囲に基づく表示が行われるように制御する
請求項9に記載の情報処理装置。 - 前記表示制御部は、前記許容可動範囲を越える切り出し範囲の指定操作が制限されることを明示する表示が行われるように制御する
請求項10に記載の情報処理装置。 - 情報処理装置が、
元画像からの切り出し画像を表示エリアに表示する第1の画面において、トラッキング対象の指定、及び前記トラッキング対象の前記表示エリアにおける配置位置の指定、及び前記元画像から切り出す範囲の指定を受け付ける受付処理と、
指定された前記配置位置に基づく前記表示エリア内の位置に前記トラッキング対象が配置されるように前記切り出し画像の表示制御を行う表示制御処理と、を行い、
前記表示制御処理では、
前記第1の画面に、トラッキング対象の配置位置の指定操作に用いる操作画像を表示させ、
前記受付処理では、
第2の画面では、画面上の操作を、前記元画像から切り出す画像範囲の指定操作として認識し、前記第1の画面では、画面上の操作を、前記操作画像による前記トラッキング対象に関する操作として認識し、
前記表示制御処理では、
前記第2の画面における前記表示エリアでは、操作に応じて前記元画像を変化させ、前記第1の画面における前記表示エリアでは、操作に応じて前記操作画像の配置位置を変化させる
情報処理方法。 - 情報処理装置が読み取り可能なプログラムであって、
元画像からの切り出し画像を表示エリアに表示する第1の画面において、トラッキング対象の指定、及び前記トラッキング対象の前記表示エリアにおける配置位置の指定、及び前記元画像から切り出す範囲の指定を受け付ける受付処理と、
指定された前記配置位置に基づく前記表示エリア内の位置に前記トラッキング対象が配置されるように前記切り出し画像の表示制御を行う表示制御処理と、を前記情報処理装置に実行させると共に、
前記表示制御処理では、
前記第1の画面に、トラッキング対象の配置位置の指定操作に用いる操作画像を表示させ、
前記受付処理では、
第2の画面では、画面上の操作を、前記元画像から切り出す画像範囲の指定操作として認識し、前記第1の画面では、画面上の操作を、前記操作画像による前記トラッキング対象に関する操作として認識し、
前記表示制御処理では、
前記第2の画面における前記表示エリアでは、操作に応じて前記元画像を変化させ、前記第1の画面における前記表示エリアでは、操作に応じて前記操作画像の配置位置を変化させる
プログラム。 - 元画像からの切り出し画像を表示エリアに表示する第1の画面において、トラッキング対象の指定、及び前記トラッキング対象の前記表示エリアにおける配置位置の指定、及び前記元画像から切り出す範囲の指定を受け付ける受付部と、
指定された前記配置位置に基づく前記表示エリア内の位置に前記トラッキング対象が配置されるように前記切り出し画像の表示制御を行う表示制御部と、を備え、
前記元画像は、動画を構成する一連のフレーム画像における一画像とされ、
前記受付部は、指定された前記配置位置に基づく前記表示エリア内の位置に前記トラッキング対象が配置されるように前記元画像からの切り出しを行う区間であるトラッキング区間の指定を受け付ける
情報処理装置。 - 前記一連のフレーム画像のうち、前記配置位置の指定を受け付けたフレーム画像の順番以降の少なくとも一つのフレーム画像に対して、指定された前記配置位置に基づく前記表示エリア内の位置に前記トラッキング対象が配置されるように画像の切り出し処理を行う
請求項14に記載の情報処理装置。 - 情報処理装置が、
元画像からの切り出し画像を表示エリアに表示する第1の画面において、トラッキング対象の指定、及び前記トラッキング対象の前記表示エリアにおける配置位置の指定、及び前記元画像から切り出す範囲の指定を受け付ける受付処理と、
指定された前記配置位置に基づく前記表示エリア内の位置に前記トラッキング対象が配置されるように前記切り出し画像の表示制御を行う表示制御処理と、を行い、
前記元画像は、動画を構成する一連のフレーム画像における一画像とされ、
前記受付処理では、指定された前記配置位置に基づく前記表示エリア内の位置に前記トラッキング対象が配置されるように前記元画像からの切り出しを行う区間であるトラッキング区間の指定を受け付ける
情報処理方法。 - 情報処理装置が読み取り可能なプログラムであって、
元画像からの切り出し画像を表示エリアに表示する第1の画面において、トラッキング対象の指定、及び前記トラッキング対象の前記表示エリアにおける配置位置の指定、及び前記元画像から切り出す範囲の指定を受け付ける受付処理と、
指定された前記配置位置に基づく前記表示エリア内の位置に前記トラッキング対象が配置されるように前記切り出し画像の表示制御を行う表示制御処理と、を前記情報処理装置に実行させると共に、
前記元画像は、動画を構成する一連のフレーム画像における一画像とされ、
前記受付処理では、指定された前記配置位置に基づく前記表示エリア内の位置に前記トラッキング対象が配置されるように前記元画像からの切り出しを行う区間であるトラッキング区間の指定を受け付ける
プログラム。 - 元画像からの切り出し画像を表示エリアに表示する第1の画面において、トラッキング対象の指定、及び前記トラッキング対象の前記表示エリアにおける配置位置の指定、及び前記元画像から切り出す範囲の指定を受け付ける受付部と、
指定された前記配置位置に基づく前記表示エリア内の位置に前記トラッキング対象が配置されるように前記切り出し画像の表示制御を行う表示制御部と、
動画を構成する画像データのフレーム毎に、仮想天球面への貼付処理をおこない、当該フレームに対応する姿勢情報を用いて揺れ補正を行う揺れ補正部と、
前記受付部が受け付けた切り出し範囲の指定に応じた切り出し範囲が、揺れ補正を有効に保つ領域からはみ出さないように修正するはみ出し防止処理を行う切り出し範囲設定部と、
を備え、
前記表示制御部は、前記切り出し範囲設定部が行ったはみ出し防止処理を反映した切り出し画像の表示制御を行う
情報処理装置。 - 前記表示制御部は、前記はみ出し防止処理で設定された、画像の切り出し範囲の変動を許容する許容可動範囲に基づく表示が行われるように制御する
請求項18に記載の情報処理装置。 - 前記表示制御部は、前記許容可動範囲を越える切り出し範囲の指定操作が制限されることを明示する表示が行われるように制御する
請求項19に記載の情報処理装置。 - 情報処理装置が、
元画像からの切り出し画像を表示エリアに表示する第1の画面において、トラッキング対象の指定、及び前記トラッキング対象の前記表示エリアにおける配置位置の指定、及び前記元画像から切り出す範囲の指定を受け付ける受付処理と、
指定された前記配置位置に基づく前記表示エリア内の位置に前記トラッキング対象が配置されるように前記切り出し画像の表示制御を行う表示制御処理と、
動画を構成する画像データのフレーム毎に、仮想天球面への貼付処理をおこない、当該フレームに対応する姿勢情報を用いて揺れ補正を行う揺れ補正処理と、
前記受付処理で受け付けた切り出し範囲の指定に応じた切り出し範囲が、揺れ補正を有効に保つ領域からはみ出さないように修正するはみ出し防止処理を行う切り出し範囲設定処理と、を行うと共に、
前記表示制御処理では、前記切り出し範囲設定処理で行ったはみ出し防止処理を反映した切り出し画像の表示制御を行う
情報処理方法。 - 情報処理装置が読み取り可能なプログラムであって、
元画像からの切り出し画像を表示エリアに表示する第1の画面において、トラッキング対象の指定、及び前記トラッキング対象の前記表示エリアにおける配置位置の指定、及び前記元画像から切り出す範囲の指定を受け付ける受付処理と、
指定された前記配置位置に基づく前記表示エリア内の位置に前記トラッキング対象が配置されるように前記切り出し画像の表示制御を行う表示制御処理と、
動画を構成する画像データのフレーム毎に、仮想天球面への貼付処理をおこない、当該フレームに対応する姿勢情報を用いて揺れ補正を行う揺れ補正処理と、
前記受付処理で受け付けた切り出し範囲の指定に応じた切り出し範囲が、揺れ補正を有効に保つ領域からはみ出さないように修正するはみ出し防止処理を行う切り出し範囲設定処理と、を前記情報処理装置に実行させると共に、
前記表示制御処理では、前記切り出し範囲設定処理で行ったはみ出し防止処理を反映した切り出し画像の表示制御を行う
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019029889 | 2019-02-21 | ||
JP2019029889 | 2019-02-21 | ||
PCT/JP2019/051153 WO2020170604A1 (ja) | 2019-02-21 | 2019-12-26 | 情報処理装置、情報処理方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020170604A1 JPWO2020170604A1 (ja) | 2021-12-23 |
JP7491297B2 true JP7491297B2 (ja) | 2024-05-28 |
Family
ID=72144026
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021501647A Active JP7491297B2 (ja) | 2019-02-21 | 2019-12-26 | 情報処理装置、情報処理方法、プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US12073597B2 (ja) |
EP (1) | EP3917130A4 (ja) |
JP (1) | JP7491297B2 (ja) |
CN (1) | CN113424515A (ja) |
WO (1) | WO2020170604A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113204299B (zh) * | 2021-05-21 | 2023-05-05 | 北京字跳网络技术有限公司 | 显示方法、装置、电子设备和存储介质 |
WO2023234203A1 (ja) * | 2022-06-03 | 2023-12-07 | ソニーグループ株式会社 | 情報処理装置、情報処理方法 |
WO2023234204A1 (ja) * | 2022-06-03 | 2023-12-07 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009147727A (ja) | 2007-12-14 | 2009-07-02 | Sanyo Electric Co Ltd | 撮像装置及び画像再生装置 |
JP2010160790A (ja) | 2008-12-18 | 2010-07-22 | Canon Inc | 自動画像クロッピング |
JP2011199569A (ja) | 2010-03-19 | 2011-10-06 | Panasonic Corp | カメラ |
US20150254871A1 (en) | 2014-03-04 | 2015-09-10 | Gopro, Inc. | Automatic generation of video from spherical content using location-based metadata |
JP2017092689A (ja) | 2015-11-09 | 2017-05-25 | キヤノン株式会社 | 制御装置、制御方法、及びプログラム |
JP2018133749A (ja) | 2017-02-16 | 2018-08-23 | オリンパス株式会社 | 被操縦体、移動装置、撮像装置、移動制御方法、移動補助方法、移動制御プログラムおよび移動補助プログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165929A (ja) * | 2003-12-05 | 2005-06-23 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP4621260B2 (ja) * | 2008-01-22 | 2011-01-26 | キヤノン株式会社 | 撮像装置、撮像装置の制御方法、プログラム、及び記録媒体 |
US8380008B2 (en) * | 2008-05-02 | 2013-02-19 | Apple Inc. | Automatic image cropping |
JP4715909B2 (ja) * | 2008-12-04 | 2011-07-06 | ソニー株式会社 | 画像処理装置及び方法、画像処理システム、並びに、画像処理プログラム |
JP2013153376A (ja) * | 2012-01-26 | 2013-08-08 | Sony Corp | 画像処理装置、画像処理方法および記録媒体 |
JP2015111746A (ja) | 2012-04-09 | 2015-06-18 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
WO2016167017A1 (ja) * | 2015-04-14 | 2016-10-20 | ソニー株式会社 | 画像処理装置、画像処理方法、および画像処理システム |
CN105263049B (zh) * | 2015-10-28 | 2019-10-29 | 努比亚技术有限公司 | 一种基于帧坐标的视频裁剪装置、方法及移动终端 |
CN108475431B (zh) * | 2015-12-18 | 2022-02-18 | 株式会社理光 | 图像处理装置、图像处理系统、图像处理方法和记录介质 |
-
2019
- 2019-12-26 WO PCT/JP2019/051153 patent/WO2020170604A1/ja unknown
- 2019-12-26 EP EP19916222.3A patent/EP3917130A4/en active Pending
- 2019-12-26 JP JP2021501647A patent/JP7491297B2/ja active Active
- 2019-12-26 US US17/310,596 patent/US12073597B2/en active Active
- 2019-12-26 CN CN201980092000.XA patent/CN113424515A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009147727A (ja) | 2007-12-14 | 2009-07-02 | Sanyo Electric Co Ltd | 撮像装置及び画像再生装置 |
JP2010160790A (ja) | 2008-12-18 | 2010-07-22 | Canon Inc | 自動画像クロッピング |
JP2011199569A (ja) | 2010-03-19 | 2011-10-06 | Panasonic Corp | カメラ |
US20150254871A1 (en) | 2014-03-04 | 2015-09-10 | Gopro, Inc. | Automatic generation of video from spherical content using location-based metadata |
JP2017092689A (ja) | 2015-11-09 | 2017-05-25 | キヤノン株式会社 | 制御装置、制御方法、及びプログラム |
JP2018133749A (ja) | 2017-02-16 | 2018-08-23 | オリンパス株式会社 | 被操縦体、移動装置、撮像装置、移動制御方法、移動補助方法、移動制御プログラムおよび移動補助プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2020170604A1 (ja) | 2020-08-27 |
EP3917130A4 (en) | 2022-04-20 |
JPWO2020170604A1 (ja) | 2021-12-23 |
US20220108541A1 (en) | 2022-04-07 |
US12073597B2 (en) | 2024-08-27 |
EP3917130A1 (en) | 2021-12-01 |
CN113424515A (zh) | 2021-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10614606B2 (en) | Information processing apparatus for creating an animation from a spherical image | |
US10999502B2 (en) | Image processing apparatus, image processing method, and program | |
JP7405131B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
US20180249077A1 (en) | Image processing apparatus, image processing method, and program | |
JP7491297B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP5806623B2 (ja) | 撮像装置、撮像方法およびプログラム | |
JP6370140B2 (ja) | ズーム制御装置、撮像装置、ズーム制御装置の制御方法、ズーム制御装置の制御プログラムおよび記憶媒体 | |
US20220174216A1 (en) | Image processing device, image processing method, and program | |
JP7094815B2 (ja) | 表示制御装置、表示制御装置の制御方法、プログラム、記憶媒体 | |
US8947558B2 (en) | Digital photographing apparatus for multi-photography data and control method thereof | |
WO2023185683A1 (zh) | 微距拍摄方法、电子设备和计算机可读存储介质 | |
KR20200028298A (ko) | 표시 제어장치, 촬상 장치, 제어 방법 및 컴퓨터 판독 가능한 매체 | |
JP6312426B2 (ja) | 撮像装置およびその制御方法 | |
JP2009290318A (ja) | 撮像装置およびズーム調整方法 | |
JP2017212550A (ja) | 画像再生装置及びその制御方法、プログラム、記憶媒体 | |
JP4408397B2 (ja) | 撮影装置および撮影方法およびプログラム | |
KR101946574B1 (ko) | 영상 재생 장치, 방법, 및 컴퓨터 판독가능 저장매체 | |
JP5441747B2 (ja) | 撮像装置及び画像処理方法 | |
US20230109911A1 (en) | Image processing apparatus, image processing method, and program | |
JP2010183254A (ja) | 撮像装置および被写体検出プログラム | |
JP6611478B2 (ja) | 撮像装置、記録制御方法及びプログラム | |
JP2024098310A (ja) | 電子機器、その制御方法およびプログラム | |
JP2016072663A (ja) | 画像再生装置、画像再生方法およびプログラム、並びに撮像装置 | |
CN116746163A (zh) | 成像装置、成像控制方法和程序 | |
CN115136582A (zh) | 图像处理装置、图像处理方法和程序 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221114 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20221114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240429 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7491297 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |