JPWO2014103731A1 - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JPWO2014103731A1
JPWO2014103731A1 JP2014554310A JP2014554310A JPWO2014103731A1 JP WO2014103731 A1 JPWO2014103731 A1 JP WO2014103731A1 JP 2014554310 A JP2014554310 A JP 2014554310A JP 2014554310 A JP2014554310 A JP 2014554310A JP WO2014103731 A1 JPWO2014103731 A1 JP WO2014103731A1
Authority
JP
Japan
Prior art keywords
image
converted
unit
moving image
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014554310A
Other languages
English (en)
Other versions
JP6332037B2 (ja
Inventor
周藤 泰広
泰広 周藤
下村 秀樹
秀樹 下村
大久保 厚志
厚志 大久保
一美 青山
一美 青山
章愛 田中
章愛 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2014103731A1 publication Critical patent/JPWO2014103731A1/ja
Application granted granted Critical
Publication of JP6332037B2 publication Critical patent/JP6332037B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/3673Labelling using text of road map data items, e.g. road names, POI names
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • G06T7/231Analysis of motion using block-matching using full search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2217/00Details of cameras or camera bodies; Accessories therefor
    • G03B2217/005Blur detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description

Abstract

本技術は、ブレを含む動画像をブレの少ない動画像に変換できるようにする画像処理装置および方法、並びにプログラムに関する。変換動画像ファイル生成部116は、記憶部93の動画像ファイルを構成する全フレーム画像を、複数の角度からなる画角変換、および回転変換することで変換画像を生成する。ノード差分算出部117は、オリジナル画像と変換画像との差分をノード差分として算出する。エッジ差分算出部118は、オリジナル画像および変換画像の時系列の全ての組み合わせの動画像ファイルが構成されるときのフレーム画像毎の時系列の前後の画像間の差分をエッジ差分として算出する。評価値算出部119は、生成される動画像ファイルの全てで、エッジ差分の総和と、ノード差分の総和との和に基づいて評価値を算出する。変換動画像ファイル選択部120は、最小評価値の動画像ファイルを選択する。本技術は、眼鏡型カメラに適用することができる。

Description

本技術は、画像処理装置および方法、並びにプログラムに関し、特に、ブレを含む動画像をブレの少ない動画像に変換できるようにした画像処理装置および方法、並びにプログラムに関する。
従来においては、ビデオカメラで画像を撮像する際に発生するブレ画像の対策は、ジャイロセンサなどのセンサを用いて機械的に発生したブレを補正して撮像する機械的手法と、オプティカルフローを用いた画像シフト型の電子的手法とに分類される。
これらの技術を組み合わせてブレ画像を補正する技術が提案されている(特許文献1参照)。
特開2011−217317号公報
しかしながら、上述した機械的手法については、小型化に限界があるため、例えば、眼鏡型のビデオカメラなどに搭載が困難であった。
また、電子的手法については、機械的な構成がないため、小型化は可能であるが、1枚1枚について画像を補正することになるため、動画として連続的に再生すると、前後の関係が無視された状態で補正されることになるため、全体として再生された動画像を視聴すると見づらい画像となり、視聴者が、いわゆる乗り物酔いに似た症状を起こすことがあった。
本技術はこのような状況に鑑みてなされたものであり、特に、撮像された動画像を再生したときに、撮像方向がある程度一定方向になるようなブレの少ない動画像に変換できるようにするものである。
本技術の一側面の画像処理装置は、撮像部の撮像により得られる動画像を構成するフレーム画像単位での撮像位置、および撮像方向の情報を取得する取得部と、前記動画像を構成するフレーム画像毎に、前記フレーム画像自身、および、その前後のフレーム画像に基づいて、撮像方向の異なる複数の変換画像を生成する変換画像生成部と、前記変換画像および前記オリジナルの前記フレーム画像の組み合わせにより構成される変換動画像毎に、前記変換画像間または前記オリジナルの前記フレーム画像間のブレを評価する評価値を算出する評価値算出部と、前記評価値算出部により算出された評価値に基づいて、前記ブレの少ない変換動画像を選択する選択部とを含む。
前記変換画像生成部により生成された前記変換画像と、オリジナルの前記フレーム画像との差分をノード差分として算出するノード差分算出部と、前記変換画像生成部により生成された前記変換画像、および前記オリジナルの前記フレーム画像を含む、時系列の差分をエッジ差分として算出するエッジ差分算出部とをさらに含ませるようにすることができ、前記評価値算出部には、前記変換画像、および前記オリジナル画像との組み合わせからなる変換動画像に含まれる前記変換画像または前記オリジナルのフレーム画像間の、それぞれの前記エッジ差分の和、および前記ノード差分の和に基づいて、前記変換動画像毎のブレを評価する評価値を算出させるようにすることができる。
前記評価値算出部には、前記変換画像、および前記オリジナル画像との組み合わせからなる変換動画像に含まれる前記変換画像または前記オリジナルのフレーム画像間の、それぞれの前記エッジ差分の和、および前記ノード差分の和に重みを付して、その和を算出することで、前記変換動画像毎のブレを評価する評価値を算出させるようにすることができる。
前記エッジ差分の和、および前記ノード差分の和に付される、それぞれの前記重みの和は1であり、前記エッジ差分の和、および前記ノード差分の和に付される重みを入力する重み入力部をさらに含ませるようにすることができ、前記評価値算出部には、前記変換画像、および前記オリジナル画像との組み合わせからなる変換動画像に含まれる前記変換画像または前記オリジナルのフレーム画像間の、それぞれの前記エッジ差分の和、および前記ノード差分の和に、前記重み入力部により入力された重みを付して、その和を算出することで、前記変換動画像毎のブレを評価する評価値を算出させるようにすることができる。
前記記憶部には、前記変換画像生成部により前記変換画像が生成される際に、前記変換画像に対応付けて、複数の所定の画角の画像、および複数の角度に回転する画像ことにより前記オリジナルのフレーム画像に対応して変化する撮像方向の情報も合わせて記憶させ、前記変換動画像、または、前記動画像のフレーム画像の前記撮像位置の情報に基づいて地図上にルートを表示すると共に、前記撮像方向の情報に基づいて、前記ルート上に前記撮像方向毎に色を塗り分けて表示する表示画像を生成する表示画像生成部をさらに含ませるようにすることができる。
前記表示画像上における前記地図上に表示されたルート上の位置を指定する指定部と、前記指定部により指定された位置に対応する撮像位置の情報を含むフレーム画像から、前記ルートを構成する前記変換動画像、または、前記動画像を再生する再生部をさらに含ませるようにすることができる。
前記変換画像生成部には、前記記憶部に記憶されている動画像を構成するフレーム画像毎に、前記フレーム画像自身、および、その前後のフレーム画像を利用して、画角シフト、ホモグラフィ変換、および視点合成を含む手法により、前記複数の所定の画角の画像、および複数の角度に回転することで、前記異なる撮像方向の複数の画像に変換して変換画像を生成させるようにすることができる。
前記変換画像生成部には、前記記憶部に記憶されている動画像を構成するフレーム画像毎に、前記フレーム画像自身、および、その前後のフレーム画像に基づいて、画素以下の位相ずれにより生成される画素を利用することにより、前記異なる撮像方向の、より高解像度の複数の変換画像を生成させるようにすることができる。
前記動画像を撮像する撮像部をさらに含ませるようにすることができ、前記取得部には、前記フレーム画像の撮像位置および撮像方向の情報を、前記フレーム画像毎に対応付けて記憶させるようにすることができる。
本技術の一側面の画像処理方法は、撮像部の撮像により得られる動画像を構成するフレーム画像単位での撮像位置、および撮像方向の情報を取得し、前記動画像を構成するフレーム画像毎に、前記フレーム画像自身、および、その前後のフレーム画像に基づいて、撮像方向の異なる複数の変換画像を生成し、前記変換画像および前記オリジナルの前記フレーム画像の組み合わせにより構成される変換動画像毎に、前記変換画像間または前記オリジナルの前記フレーム画像間のブレを評価する評価値を算出し、算出された評価値に基づいて、前記ブレの少ない変換動画像を選択するステップを含む。
本技術の一側面のプログラムは、撮像部の撮像により得られる動画像を構成するフレーム画像単位での撮像位置、および撮像方向の情報を取得する取得ステップと、前記動画像を構成するフレーム画像毎に、前記フレーム画像自身、および、その前後のフレーム画像に基づいて、撮像方向の異なる複数の変換画像を生成する変換画像生成ステップと、前記変換画像および前記オリジナルの前記フレーム画像の組み合わせにより構成される変換動画像毎に、前記変換画像間または前記オリジナルの前記フレーム画像間のブレを評価する評価値を算出する評価値算出ステップと、前記評価値算出ステップの処理により算出された評価値に基づいて、前記ブレの少ない変換動画像を選択する選択ステップとを含む処理をコンピュータに実行させる。
本技術の一側面においては、撮像部の撮像により得られる動画像を構成するフレーム画像単位での撮像位置、および撮像方向の情報が取得され、動画像を構成するフレーム画像毎に、前記フレーム画像自身、および、その前後のフレーム画像に基づいて、撮像方向の異なる複数の変換画像を生成する変換画像生成ステップと、前記変換画像および前記オリジナルの前記フレーム画像の組み合わせにより構成される変換動画像毎に、前記変換画像間または前記オリジナルの前記フレーム画像間のブレを評価する評価値が算出され、算出された評価値に基づいて、前記ブレの少ない変換動画像が選択される。
本技術の一側面の画像処理装置は、独立した装置であっても良いし、情報処理を行うブロックであっても良い。
本技術の一側面によれば、ブレを含む動画像を容易な操作で、ブレの少ない動画像に変換することが可能となる。
本技術を適用した画像処理システムの一実施の形態の外観構成例を示す図である。 図1の眼鏡型カメラの外観構成例を示す図である。 図1の眼鏡型カメラを実現するための機能の構成を説明する図である。 図1の再生端末を実現するための機能の構成を説明する図である。 図1のサーバを実現するための機能の構成を説明する図である。 撮像記録処理を説明するフローチャートである。 撮像される動画像ファイルの構成を説明する図である。 再生画像選択画像表示処理を説明するフローチャートである。 再生画像選択画像であるMy地図の表示例を説明する図である。 補正つまみの動作を説明する図である。 ルート補正処理を説明するフローチャートである。 オリジナル画像と変換画像との差分であるノード差分を説明する図である。 オリジナル画像、または変換画像の時系列の前後の画像間の差分であるエッジ差分を説明する図である。 動画像ファイルのフレーム画像の変換処理が、グラフの最適化問題として処理できることを説明する図である。 変換画像により画像の破たんが生じた範囲をカットする例について説明する図である。 再生処理を説明するフローチャートである。 汎用のパーソナルコンピュータの構成例を説明する図である。
<撮像システムの構成例>
図1は、本技術を適用した画像処理システムの構成例を示す図である。図1の画像処理システム1は、眼鏡型カメラ11−1乃至11−N、再生端末12−1乃至12−M、ネットワーク13、およびサーバ14を備えている。尚、眼鏡型カメラ11−1乃至11−N、および再生端末12−1乃至12−Mのそれぞれについて、特に区別する必要が無い場合、単に眼鏡型カメラ11、および再生端末12と称するものとし、その他の構成についても同様に称するものとする。
図1の画像処理システム1は、眼鏡型カメラ11により撮像された動画像がサーバ14に送信されて蓄積され、眼鏡型カメラ11の使用者によりそれぞれの再生端末12が操作されて、サーバ14にアクセスし、蓄積されている動画像が再生され、その使用者により視聴されるものである。
より詳細には、眼鏡型カメラ11が、動画像を撮像し、撮像された動画像を構成するフレーム画像毎に撮像位置、および撮像方向の情報を付して、1分程度の動画像ファイルとして構成する。さらに、眼鏡型カメラ11は、その動画像ファイルを、ネットワーク13を介してサーバ14に送信する。サーバ14は、眼鏡型カメラ11より供給されてきた、撮像位置、および撮像方向がフレーム単位で付された動画像ファイルにインデックスを付して記憶する。サーバ14は、使用者により操作される再生端末12よりアクセスされると、撮像方向の情報に基づいて、ブレの少ない画像に補正した補正動画像を生成すると共に、撮像位置の情報に基づいて、使用者が眼鏡型カメラ11を装着して動画像を撮像しながら移動した経路を地図上に示す表示画像を生成して、それらを併せて再生端末12に配信する。再生端末12は、その移動経路であるルートが付された地図画像を取得すると、地図画像を表示し、地図画像上の経路であるルートのいずれかの位置が選択されると、選択された位置に対応する撮像位置の画像から動画像を再生し表示する。この結果、眼鏡型カメラ11の使用者は、撮像容量や撮像時刻といった情報を意識すること無く、地図上の移動経路を指定することで視聴したい画像を検索しつつ、自らで撮像した画像の視聴を楽しむことが可能となる。
<眼鏡型カメラの外観構成例>
次に、図2を参照して、眼鏡型カメラ11の外観構成例について説明する。眼鏡型カメラ11は、例えば、図2で示されるようなものであり、使用者により眼鏡を掛けるようにして装着されると、装着した使用者のレンズ部31−1,31−2越しに見える視界の画像を撮像部32により撮像する。
眼鏡型カメラ11は、レンズ部31−1,31−2、撮像部32、および制御部33より構成される。レンズ部31−1,31−2は、通常の眼鏡レンズより構成される。撮像部32は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)により構成され、撮像した動画像を所定の形式に圧縮して、制御部33に供給する。制御部33は、図3で示される各種の構成により、順次撮像される動画像から1分程度の動画像ファイルを構成して、サーバ14に送信する。
<眼鏡型カメラの機能を実現する構成例>
次に、図3を参照して、眼鏡型カメラ11の機能を実現させる構成例について説明する。眼鏡型カメラ11は、図2を参照して説明したように、撮像部32、および制御部33を備えている。さらに、制御部33は、記録部51、GPS(Global Positioning System)52、RTC(Real Time Clock)53、地軸センサ54、ジャイロセンサ55、コントローラ56、および通信部57を備えている。記録部51は、撮像部32より順次供給されてくる動画像を一時的に記録する。この際、GPS52より供給されてくる位置情報、RTC53より供給されてくる時刻情報、地軸センサ54により供給されてくる地軸方向の情報、およびジャイロセンサ55より供給されてくるヨー角、ピッチ角、およびロール角の角速度の情報より得られる撮像方向の情報を取得し、撮像された動画像を構成する各フレーム画像に対応付けて記録する。より詳細には、記録部51は、ヨー角、ピッチ角、およびロール角の角速度の情報と、地軸センサ54により検出された地軸方向の情報とから撮像部32の撮像方向を推定し、推定した撮像方向の情報をフレーム画像に対応付けて記憶する。さらに、記録部51は、撮像部32より順次供給されてくる動画像を所定の時間間隔毎に動画像ファイルとして構成し、コントローラ56に供給する。
GPS52は、図示せぬ衛星からの電波を受信して、地球上の位置情報として緯度、および経度の情報を算出し、撮像位置を示す情報として記録部51に供給する。RTC53は、実時間を管理しており、撮像時刻を示す情報を記録部51に供給する。地軸センサ54は、地軸に対する眼鏡型カメラ11の方向の傾きを検出し、検出結果を記録部51に供給する。ジャイロセンサ55は、ヨー角、ピッチ角、およびロール角の角速度を検出し、検出結果を記録部51に供給する。
コントローラ56は、眼鏡型カメラ11の制御部33の全体の動作を制御している。記録部51の動作を制御し、記録部51に撮像部32より供給されてくる動画像のデータに基づいて、所定の長さ、例えば、1分程度の動画像ファイルを生成させ取得する。さらに、コントローラ56は、通信部57を制御して、生成した動画像ファイルを、ネットワーク13を介してサーバ14に送信させる。
<再生端末の機能を実現させるための構成例>
次に、図4を参照して、再生端末12の機能を実現させるための構成例について説明する。
再生端末12は、制御部71、表示部72、操作部73、通信部74。および表示画像記憶部75を備えている。制御部71は、再生端末12の動作の全体を制御する。表示部72は、例えば、LCD(Liquid Crystal Display)や、有機EL(Electro-Luminescence)などで構成されており、サーバ14より供給されてくる地図画像からなる表示画像や、動画像ファイルからなる再生画像を表示する。操作部73は、例えば、キーボード、マウス、または操作ボタンなどから構成されており、各種のコマンドや指示を入力するとき、使用者により操作され、操作内容に応じた操作信号を制御部71に供給する。通信部74は、制御部71により制御され、ネットワーク13を介して、サーバ14とデータ、またはコマンドを授受する。表示画像記憶部75は、サーバ14に記憶されている動画像ファイルを選択して再生させるために必要とされるUI(ユーザインタフェース)となる表示画像を記憶する。表示画像としては、例えば、インタフェース画像として必要な地図画像を記憶している。
<サーバの機能を実現させるための構成例>
次に、図5を参照して、サーバ14の機能を実現させるための構成例について説明する。
サーバ14は、通信部91、記録部92、記憶部93、および再生管理部94を備えている。通信部91は、ネットワーク13を介して、眼鏡型カメラ11、および再生端末12との間でデータ、動画像ファイル、または各種のコマンドなどを授受する。記録部92は、インデックス付加部101を備えており、眼鏡型カメラ11より送信されてくる、1分程度の長さの動画像ファイルを順次受信すると共に、動画像ファイルに含まれるフレーム画像と、そのフレーム画像に付加されている撮像位置、および撮像方向の情報に基づいて、動画像ファイル毎のインデックスを生成させ、付加して記憶部93に記憶させる。
再生管理部94は、通信部91を介して再生端末12より撮像された動画像ファイルの再生が指示されたとき、記憶部93に記憶されている動画像ファイルのフレーム画像単位で記憶されている撮像位置、および撮像方向に基づいて、予め記憶している地図上に、撮像された画像の撮像位置に基づいた、使用者の移動経路を示すルートを表示する表示画像を生成する。また、再生管理部94は、記憶部93に記憶されている動画像ファイルの画像を、ブレを抑えた画像となるように補正して、補正した動画像ファイルを再生端末12に供給する。
より詳細には、再生管理部94は、My地図生成部111、撮像方向色付部112、オブジェクト認識部113、地図データ記憶部114、ルート編集部115、変換動画像ファイル生成部116、ノード差分算出部117、エッジ差分算出部118、評価値算出部119、および変換動画像ファイル選択部120を備えている。
My地図生成部111は、通信部91を介して、再生端末12より再生が指示されたとき、再生が指示された動画像ファイルを記憶部93より読み出して、再生が指示された動画像ファイルを構成するフレーム画像毎に記憶されている撮像位置を示す情報に基づいて、動画像ファイルを構成する画像を撮像しながら、使用者が移動した経路を示すルートを特定し、地図データ記憶部114に記憶されている地図上に表示するMy地図と称する表示画像を生成する。このMy地図においては、動画像ファイルと共に再生端末12に配信されて表示される。また、表示された地図上においては、同一の位置で撮像されているフレーム画像数に応じたステップ幅で地図が分割されて表示され、対応する位置がポインタなどで指定されると、その位置に対応するフレーム画像が表示されたり、または対応する撮像位置で撮像されたフレーム画像から動画像ファイルが再生される。
撮像方向色付部112は、動画像ファイルに含まれるフレーム画像に対応付けて記憶されている撮像方向の情報に基づいて、上述した表示画像であるMy地図上に表示されるルート上の対応する位置の色を塗り分ける。この処理により、ルート上の色が頻繁に変わるようであれば、撮像方向が頻繁に変わっていることを示すので、このまま動画像ファイルを再生させて視聴すると、ブレが大きく視聴する使用者が酔い易くなることが認識される。一方、ルート上の色がある程度の区間で変化しない状態であれば、撮像方向がある程度一定の状態が保たれていることが示されることになるので、このまま動画像ファイルを再生して視聴しても、ブレが小さいので、視聴した使用者が酔ってしまうようなことがないことを認識することができる。
オブジェクト認識部113は、フレーム画像毎に画像内のオブジェクトを認識し、認識したオブジェクト画像を抽出し、認識したオブジェクトの情報を付して記憶部93に分類して記憶する。尚、このオブジェクト画像は、上述したMy地図の表示画像を生成する際、後述するクロスメディアバーを構成し、オブジェクト毎に選択可能な状態で表示される。
地図データ記憶部114は、地球上の地図画像のデータを記憶しており、My地図生成部111が、My地図を生成する際、My地図生成部111に地図データを供給する。
ルート編集部115は、記憶部93に記憶されている動画像ファイルに含まれるフレーム画像のそれぞれについて、ヘッダに含まれる撮像位置の情報に基づいて、My地図上に撮像位置を示す情報をプロットすることにより得られるルートを編集する。
変換動画像ファイル生成部116は、記憶部93に記憶されている動画像ファイルに含まれるフレーム画像のそれぞれについて、前後のフレーム画像などを利用することにより、撮像方向を変換する画角変換や回転処理により、複数の種類の変換画像を生成し、変換画像からなる変換動画像ファイルを生成して記憶部93に記憶させる。このとき、変換動画像ファイル生成部116は、変換処理したフレーム画像については、変換により変化した撮像方向の情報を付して記憶させる。
ノード差分算出部117は、変換画像毎に変換前のオリジナル画像との差分をノード差分として算出する。また、ノード差分算出部117は、時系列に様々なパターンで変換画像、またはオリジナル画像が組み合わされて生成される全てのパターンの変換動画像ファイルに含まれる変換画像またはオリジナル画像におけるノード差分和を算出する。
エッジ差分算出部118は、時系列に配置される変換画像、またはオリジナル画像間の差分をエッジ差分として算出する。また、エッジ差分算出部118は、時系列に様々なパターンで変換画像、またはオリジナル画像が組み合わされて生成される全てのパターンの変換動画像ファイルにおけるに含まれる変換画像またはオリジナル画像間のエッジ差分和を算出する。
評価値算出部119は、時系列に様々なパターンで変換画像、またはオリジナル画像が組み合わされて生成されるパターンの変換動画像ファイルにおけるノード差分和、および、エッジ差分和の総和を、各変換動画像ファイルの評価値として算出する。この際、評価値算出部119は、再生端末12より供給されてくる重みの情報を取得し、ノード差分和、およびエッジ差分和のそれぞれに重みを付して評価値を算出する。
変換動画像ファイル選択部120は、時系列に様々なパターンで変換画像、またはオリジナル画像が組み合わされて生成されるパターンの全変換動画像ファイルのうち、評価値が最小となる動画像ファイルを選択して、動画像ファイルの再生が要求された再生端末12に通信部91を介して送信する。
禁止編集部121は、再生が指示された動画像ファイルを構成するフレーム画像のそれぞれについて、そのフレーム画像に付されている撮像位置、および時刻情報に基づいて、再生が指示された画像のうち、再生を禁止すべき領域を検索し、検索された領域を、例えば、モザイク画像状に処理する。すなわち、禁止領域とは、眼鏡型カメラ11により撮像された画像内で、例えば、個人情報を特定するような情報を含む領域、位置情報に基づいて特定される軍事機密などが撮像されていると思われる領域、または、所定の時刻において開示されると問題のある領域などである。
<撮像記録処理>
次に、図6を参照して、図1の画像処理システムにおける撮像記録処理について説明する。尚、この処理は、眼鏡型カメラ11の図示せぬ操作部が操作されて、撮像部32により撮像の開始が指示されると開始される処理である。
ステップS11において、撮像部32は、画像を撮像し、撮像した画像データを記録部51に供給する。
ステップS12において、GPS52は、図示せぬ衛星からの電波を受信して、地球上の位置として緯度、および経度を算出し、算出結果である緯度および経度からなる地球上の位置情報を記録部51に供給する。
ステップS13において、地軸センサ54は、地軸方向に対する傾きの情報を計測して、計測結果である地軸方向に対する眼鏡型カメラ11の傾きの角度の情報を記録部51に供給する。
ステップS14において、ジャイロセンサ55は、眼鏡型カメラ11におけるヨー角、ピッチ角、およびロール角における角速度を検出し、検出結果であるそれぞれの角速度の情報を記録部51に供給する。この処理により、記録部51は、地軸の傾きの角度、並びに、ヨー角、ピッチ角、およびロール角における角速度から撮像方向を算出し、記憶する。
ステップS15において、RTC53は、今現在の時刻情報を読み出し、記録部51に供給する。
ステップS16において、記録部51は、直前の動画像ファイルの情報を取得する。
ステップS17において、記録部51は、フレーム画像の単位で動画像データを記録する。この際、記録部51は、各フレーム画像を撮像したタイミングにおける、地球上の位置情報を撮像位置とし、供給された時刻を撮像時刻とし、撮像方向、並びに、直前の動画像ファイルの情報を各フレームのヘッダとして、順次動画像ファイルに蓄積させて記憶させる。さらに、記録部51は、各フレーム画像のヘッダに、自らを識別する情報として、自らの使用するネットワーク上のアドレスや、MACアドレス(Media Access Control address)などを記録する。
ステップS18において、記録部51は、RTC53より供給される現在時刻と、新たに動画像ファイルを記憶し始めた時刻との差分から、所定の時間が経過したか否かを判定する。ステップS18において、所定の時間が経過したとみなされた場合、処理は、ステップS19に進む。
ステップS19において、記録部51は、所定時間が経過したものとみなし、記憶していた動画像ファイルを閉じて、生成した動画像ファイルをコントローラ56に供給する。コントローラ56は、動画像ファイルの供給を受けると、通信部57を制御して、供給された動画像ファイルを、通信部57を制御し、ネットワーク13を介してサーバ14に供給する。尚、ステップS18において、所定時間が経過していないと見なされた場合、ステップS19の処理がスキップされる。
ステップS20において、撮像部32は、図示せぬ操作部からの操作信号に基づいて、動画像の撮像の終了が指示されたか否かを判定し、終了が指示された場合、処理は、終了する。一方、ステップS20において、終了が指示されていない場合、処理は、ステップS11に戻り、それ以降の処理が、終了の指示がなされるまで、繰り返し実行される。尚、ステップS18において、所定の時間が経過していないとみなされた場合、処理は、ステップS19の処理がスキップされる。
また、動画像ファイルは、図7で示されるように、1分程度の所定の時間間隔Tで記録され、それぞれの動画像ファイルは、所定時間tだけ重なるように構成されている。すなわち、図7においては、動画像ファイルV1は、所定時間Tの長さだけ撮像された動画像ファイルとして構成されている。また、その次の動画像ファイルV2は、動画像ファイルV1の終了タイミングまでの、例えば、10秒程度の時間tと、先頭の時間tにおける動画像データが同一の構成となる。さらに、その次の動画像ファイルV3は、動画像ファイルV2の終了タイミングまでの時間tと、先頭の時間tにおける動画像データが同一の構成となる。このように動画像ファイルを構成することにより、動画像ファイルがサーバ14に転送される間に、ネットワーク13上で何らかの事故で届かないような事態が発生しても、40秒分の動画像ファイルの損失で済ませることが可能となる。また、動画像ファイルが大きくなり過ぎてネットワーク13上における負荷を低減させることが可能となる。
一方、サーバ14においては、ステップS41において、記録部92は、通信部91を制御して、ネットワーク13上のいずれかの眼鏡型カメラ11より動画像ファイルが送信されてきたか否かを判定し、送信されてくるまで、同様の処理を繰り返す。ステップS41において、例えば、ステップS19の処理により動画像ファイルが送信されてくると、処理は、ステップS42に進む。
ステップS42において、記録部92は、通信部91を制御して、送信されてきた動画像ファイルを取得する。さらに、記録部92は、インデックス付加部101を制御して、動画像ファイルに含まれているフレーム画像の情報を読み出し、インデックスに必要とされる眼鏡型カメラ11を識別する情報、画像、撮像位置、および撮像時刻等の情報を読み出させる。インデックスに読み出されるフレーム画像は、代表的な人物の顔画像、代表的な景色、代表的な建物などを含む画像である。また、インデックスに利用される撮像位置および撮像時刻については、例えば、先頭フレーム画像の撮像位置、および撮像時刻などである。
ステップS43において、インデックス付加部101は、インデックスの情報として読み出された情報に基づいてインデックスを生成する。
ステップS44において、インデックス付加部101は、送信されてきた動画像ファイルに生成したインデックスの情報を付加する。さらに、記録部92は、インデックスが付加された動画像ファイルを、記憶部93に記憶させる。
以上の処理により、眼鏡型カメラ11により撮像された画像が、インデックスが付された1分程度の長さの動画像ファイルがサーバ14に記録される。
<再生画像選択画像表示処理>
次に、図8のフローチャートを参照して、再生画像選択画像表示処理について説明する。尚、この処理は、図6のフローチャートを参照して説明した撮像記録処理により動画像ファイルがサーバ14の記憶部93に記憶されていることが前提となる。
ステップS61において、制御部71は、表示画像記憶部75に記憶されている地図画像を読み出し、予め設定されているホーム位置の周辺の画像を表示する。
ステップS62において、制御部71は、地図上の指定位置情報を読み出す。最初の処理であれば、ホーム位置の情報が指定位置情報として読み出される。また、それ以降においては、図示せぬ操作部が操作されることにより、再生端末12を使用する使用者により指定された位置が指定位置情報として読み出される。
ステップS63において、制御部71は、この指定位置の情報が、最初の位置情報であるか、または、新たに指定された指定位置情報であるかを判定する。例えば、最初の指定位置情報、または、新たに指定された指定位置情報である場合、処理は、ステップS64に進む。
ステップS64において、制御部71は、通信部74を制御して、指定位置情報を、ネットワーク13を介してサーバに送信する。
ステップS81において、再生管理部94は、通信部91を制御して、指定位置情報が送信されてきたか否かを判定する。ステップS81において、例えば、ステップS64の処理により指定位置情報が送信されてきた場合、処理は、ステップS82に進む。
ステップS82において、再生管理部94は、My地図生成部111を制御して、指定位置情報に基づいて、地図データ記憶部114に記憶されている地図データのうち、指定位置情報周辺の地図データを読み出させ、My地図の基準画像を生成する。My地図の基準画像とは、例えば、図9の地図画像表示欄mである。図9の地図画像表示欄mには、図中左部に図中上から下に「A通り」が表示された通りがあり、その中間付近の分岐から図中右方向に向かうと十字路があり、角には「Cビル」と表示され、「Cビル」という建物があることが示されている。その「Cビル」の存在する十字路を超えて、その通りをさらに図中右方向に進むと、「D屋」と表示された建物があるT字路が存在し、そのT字路で右折してさらに進むと左側に「B街道」と表示された街道が存在していることが示されている。
ステップS83において、My地図生成部111は、指定位置の緯度経度を処理対象位置に設定する。
ステップS84において、My地図生成部111は、処理対象位置情報における緯度経度の情報に基づいて、記憶部93に記憶されている動画像ファイルのインデックスの情報を検索し、近傍の位置に存在する動画像ファイルの数fを計測する。
ステップS85において、My地図生成部111は、処理対象位置周辺の所定の範囲について、1/fに比例する画素数のステップ幅Fを設定する。
ステップS86において、My地図生成部111は、処理対象地域周辺の所定の範囲をステップ幅Fで分割する。
ステップS87において、My地図生成部111は、未処理の位置が、選択された地図画像内に存在するか否かを判定し、未処理の位置が存在する場合、処理は、ステップS88に進む。
ステップS88において、My地図生成部111は、未処理の位置のいずれかを処理対象位置に設定し、処理は、ステップS84に戻る。すなわち、地図画像として読み込まれた画像内において、すべての位置が処理対象位置に設定されて、動画像ファイル数に応じたステップ幅Fで分割されるまで、ステップS84乃至S88の処理が繰り返される。そして、すべての位置が処理対象位置に設定されたとき、ステップS87において、未処理の位置が存在しないものとみなされ、処理が、ステップS89に進む。
すなわち、図9で示されるように、地図画像上の位置に対応して登録されている動画像ファイルの数に応じて、地図上の位置Y近傍の領域Z1や、位置Pや位置X近傍の領域Z2においては、点線で示されるように細かいステップ幅で区画設けられており、多くの動画像ファイルが記録されていることが示される。一方、領域Z3,Z4、または、Z1,Z2以外の領域については、略点線で囲まれる領域が存在せず、動画像ファイルが略存在しないことが示される。すなわち、このような表示により、どこの位置で動画像ファイルが多く存在し、どの位置には動画像ファイルが存在しないのかが一目瞭然となる。
また、図9で示されるような、My地図と称される再生画像選択画像が、再生端末12の表示部72で表示されるとき、図示せぬポインタなどで、この点線で囲まれるマス状のいずれかの位置が指定されると、対応する位置の動画像ファイルの再生指示がサーバ14に供給されて、この再生指示に応じて、サーバ14より対応する動画像ファイルに含まれるフレーム画像が順次送信されて、動画像が再生される。また、この際、再生を指示する前に、選択された時点で、ヘッダを構成する静止画や撮像時刻などの情報が表示されるようにしてもよい。
ステップS89において、ルート編集部115は、My地図上に表示される地図画像上に撮像位置が存在するフレーム画像の撮像位置の情報を時刻情報に対応付けてプロットし、動画像ファイルに含まれるフレーム画像を撮像した眼鏡型カメラ11の使用者の移動経路をルートとして求め、表示画像上に表示する。この際、撮像方向色付部112は、ルート編集部115により求められたルートを構成する各プロットされたフレーム画像のヘッダに含まれる撮像方向の情報を読み出し、撮像方向に応じてルートを色分けして色を付加する。
すなわち、以上の処理により、例えば、図9における位置X乃至位置Yで示されるような、ルートLが表示される。また、図9で示されるように、ルートLにおいては、各位置における動画像ファイルに含まれるフレーム画像の撮像方向毎に色分けがなされて表示される。結果として、ルートL上の色分けが大きく変化している範囲は、撮像方向が頻繁に変化していることが示され、視聴するにあたり、撮像方向が頻繁に変化するため、一般に、酔い易い動画像であることが示される。逆に、色分けの変化が小さい範囲については、撮像方向の変化の頻度が低いことが示され、視聴するにあたり撮像方向の変化が小さく、かつ視聴し易い動画像であって、一般に酔い難い動画像であることが示される。
尚、この撮像方向の変化については、図9の右上部に示される補正つまみMを水平方向の矢印で示される補正スケール上を左右に移動させることにより補正することができる。すなわち、図10で示されるように、補正つまみMを図中の左方向に移動させるほど、ルートの状態J1で示されるように、入力された動画像ファイルに含まれるフレーム画像に近い状態となるが、撮像方向に変化が頻繁であっても、そのまま再生されることになる。この場合、撮像された状態に近いフレーム画像が利用されるため、個々のフレーム画像には破たんが生じにくい状態となるが、撮像方向の変化が大きいと見難い動画像となり、酔い易い動画像となる。
逆に、図10で示されるように、補正つまみMを図中の右方向に移動させるほど、ルートの状態J3で示されるように、入力された動画像ファイルのフレーム画像とは異なる状態となるが、撮像方向が補正されることにより、個々のフレーム画像には破たんが生じやすい状態となるが、撮像方向がある程度揃えられている画像となるので、比較的見易い動画像となる。また、図10のルートの状態J2,J3において、ルートがカットされているのは、破たんが生じる画像については削除されることによるものである。このルートJ1乃至J3は、撮像方向が単一化されていくことにより、実質的な撮像位置、すなわち、眼鏡型カメラ11を装着した使用者の移動経路であるルートが直線に近づいていくことを示している。
尚、この補正つまみMが操作されることにより実行されるルート補正処理については、図11のフローチャートを参照して、詳細を後述する。
ステップS90において、オブジェクト認識部113は、指定位置の動画像ファイルに含まれるフレーム画像に含まれるオブジェクトの種類を分類して抽出する。
ステップS91において、オブジェクト認識部113は、指定位置の動画像ファイルに含まれるフレーム画像よりオブジェクトの分類ごとに抽出したオブジェクト画像のそれぞれについて、時刻情報を抽出してそれぞれを時刻毎に分類する。
ステップS92において、My地図生成部111は、オブジェクト認識部113により画像のオブジェクトの種類別に分類されたオブジェクト画像を時刻情報に対応付けて、図9で示されるようなクロスメディアバーとして表示する。クロスメディアバーとは、図9で示される画像P11乃至P16、および画像P21乃至P26により構成されるものである。すなわち、画像P11乃至P16については、垂直方向に時刻が設定されており、図9においては、同一のオブジェクトである家の画像P11乃至P16において示されており、時刻12:00乃至17:00までの時刻に分類された状態で表示され、垂直方向に移動させることで、同一のオブジェクトとして認識された画像を時系列で表示させることが可能となる。
また、水平方向には、所定の規則に従って分類されたオブジェクトの種類毎に画像P11,P21乃至P26が表示されており、水平方向に左右に移動させることで、分類されたオブジェクトを選択することができる。したがって、図9においては、建物というオブジェクトに分類される家の画像P11が左上に示され、右方向に順に、建物というオブジェクトに分類されるビルディングの画像P21、山というオブジェクトに分類される山頂付近に雪を被った山の画像P22、同様に山というオブジェクトに分類される双子山の画像P23、自動車というオブジェクトに分類される乗用車の画像P24、自動車というオブジェクトに分類されるバスの画像P25、および人物というオブジェクトに分類される顔画像P26が表示されている。
図9においては、位置Pで示される位置が指定位置である場合、この位置におけるオブジェクトに分類される画像P11,P21乃至P26が水平方向のバー(棒状の表示欄)に表示され、水平方向に移動されて左上部に設定されると、画像P11乃至P16が示されるように、同一のオブジェクトに認識された時系列の画像が表示される。この結果、同一のルートを歩きながら眼鏡型カメラ11で撮像すると、定点カメラで撮像したように同一のオブジェクトの変化を観察することが可能となる。また、これらの画像を選択することで、選択されたフレーム画像を含む動画像ファイルの再生位置から、再生を開始するコマンドを発生させることが可能となる。この処理により、使用者が動画像ファイルのうち、見たいと意識しているオブジェクトを選択して、所望とする時刻を指定することで、膨大な量の動画像ファイルから適切に再生を開始したい位置を指定して、再生を指示することが可能となる。
ステップS93において、再生管理部94は、通信部91を制御して、ネットワーク13を介して、図9で示されるようなMy地図と称される再生画像選択画像を再生端末12に送信する。
尚、ステップS81において、指定位置の情報が送信されてこない場合、ステップS82乃至S93の処理がスキップされる。
ステップS94において、再生管理部94は、図示せぬ操作部により動作の終了が指示されたか否かを判定し、終了が指示されない場合、処理は、ステップS81に戻り、それ以降の処理が繰り返される。そして、ステップS94において、動作の終了が指示された場合、処理は、終了する。
一方、再生端末12においては、ステップS65において、制御部71は、通信部74を制御して、サーバ14より送信されてきた再生画像選択画像であるMy地図と称されるような表示画像の情報を取得する。
ステップS66において、制御部71は、通信部74により受信された再生画像選択画像であるMy地図と称される表示画像を表示部72に表示する。
ステップS67において、制御部71は、操作部73が操作されて、動作の終了が指示されたか否かを判定し、終了が指示されていないとみなされた場合、処理は、ステップS62に戻り、それ以降の処理が繰り返される。一方、ステップS67において、終了が指示された場合、処理は、終了する。
尚、ステップS63において、指定位置が初めて指定された場合でもなく、また、変更もされていない場合、ステップS64乃至S66の処理が繰り返される。すなわち、一旦、表示画像選択画像が表示部72に表示されると、指定位置が変更されない限り、同一の表示画像選択画像であるMy地図が表示されたままの状態となる。
以上の処理により、眼鏡型カメラ11により膨大な量の画像が撮像されても、撮像位置に応じて表示されるルート上の位置を指定することで動画像ファイルを再生させることが可能となるので、撮像した日時などを使用者が覚えていなくても、動画像の再生位置などを適切に選択することが可能となる。また、図9で示される画像P11乃至P16,P21乃至P26で表示されるようなクロスメディアバーが構成されることにより、オブジェクトや撮像時刻から再生を開始したい動画像ファイルの再生位置を特定して、再生を指示することが可能となる。
<ルート補正処理>
次に、図11のフローチャートを参照して、ルート補正処理について説明する。尚、ルート補正処理は、表示画像選択画像であるMy地図が表示された状態であることを前提とする。
ステップS101において、制御部71は、操作部73を制御して、補正つまみMが移動されて補正スケールが操作されたか否かを判定する。ステップS101において、補正つまみMが移動されて、補正スケールが操作されたとみなされた場合、処理は、ステップS102に進む。
ステップS102において、制御部71は、操作された補正つまみMの、図9の矢印状の補正スケール上の位置を示す情報を、通信部74を制御して、ネットワーク13を介してサーバ14に送信する。
ステップS121において、再生管理部94のルート編集部115は、通信部91を制御して、補正スケールの操作内容である補正つまみMの動作位置の情報が送信されてきたか否かを判定する。ステップS121において、例えば、ステップS102の処理により、補正つまみMの位置を示す情報が送信されてきた場合、処理は、ステップS122に進む。
ステップS122において、変換動画像ファイル生成部116は、再生端末12に送信した表示画像選択画像に表示されているルートL上にプロットされた位置が撮像位置のインデックスに含まれる動画像ファイルを記憶部93より読み出す。さらに、変換動画像ファイル生成部116は、読み出した動画像ファイルに含まれるフレーム画像を、それぞれの前後の画像などを利用して、所定数の種類の角度に変化するように画角変換、および回転変換させることにより新たな変換画像を生成する。より具体的には、変換動画像ファイル生成部116は、画角シフト、ホモグラフィ変換、または視点合成などにより、変換画像を生成する。
すなわち、変換動画像ファイル生成部116は、図12の最上段で示されるように、記憶部93に記憶されているオリジナルの動画像ファイルに含まれる、フレーム画像Org(N−1)乃Org(N+1)で示されるような画像を、周辺の画像を利用した画角変換や回転変換により、図12の中段、および下段で示されるような変換Pattern1、およびPattern2で示されるような変換画像P1(N−1)乃至P1(N+1)、並びに、変換画像P2(N−1)乃至P2(N+1)に変換する。
尚、変換動画像ファイル生成部116が、変換画像を生成する際には、変換画像として生成される画像を、処理対象となるフレーム画像の前後の画像における、画素以下の位相ずれにより生成される画素を利用することで、変換画像を高解像度化して生成するようにしてもよい。
ステップS123において、ノード差分算出部117は、画角変換、および回転変換により生成された各フレーム画像と、オリジナルのフレーム画像との差分をノード差分として算出する。すなわち、ノード差分算出部117は、図12で示されるように、オリジナルの画像Org(N)と、変換画像P1(N)とのノード差分Error_n(Org(N),P1(N))を算出する。ここでの差分は、例えば、それぞれの画像の同一位置の画素間の画素値差分の総和でもよいし、画像Org(N)をグローバルモーションにより補償した画像Org(N)’と、変換画像P1とのそれぞれの画像の同一位置の画素間の画素値差分の総和でもよいし、さらに、オリジナルの画像Org(N)と、変換画像P1(N)とのオプティカルフローの平均値、または分散などであってもよい。
ステップS124において、エッジ差分算出部118は、変換動画像ファイル生成部116により生成された、様々な画角変換、および回転変換により求められた変換画像を時系列に様々に配置した時のすべてのパターンにおける、パターン毎の前後の画像間の差分を算出する。すなわち、図13で示されるように、オリジナルの画像Org(N−1)の次に、配置される画像については、画像Org(N)、変換画像P1(N)、および変換画像P2(N)が存在することになるため、これらの全てのパターンについて、前後間の差分がエッジ差分として算出される。すなわち、この場合、Error_e(Org(N−1),Org(N)),Error_e(Org(N−1),P1(N)),Error_e(Org(N−1),P2(N))が算出される。尚、ここで求められる差分についても、ノード差分を算出した場合に利用した差分の計算と同様の手法を用いてもよいし、それ以外の手法であってもよい。
ステップS125において、評価値算出部119は、画像Org、画像P1,P2のそれぞれの配置パターンの組み合わせにより求められたノード差分、およびエッジ差分をそれぞれ利用して、全てのパターンについて、パターン毎に配置されるフレーム画像のノード差分の総和Error_nAllと、エッジ差分の総和Error_eAllと、を利用して以下の式で示される評価値Eを算出する。
E=(1−w)×Error_eAll+w×Error_nAll
ここで、Eはフレーム画像、および変換画像が所定のパターンで時系列に配置されたときの動画像ファイル全体の評価値であり、wは、補正つまみMの移動量に応じた重みであり、0以上、1以下の値をとり、Error_nAllが、ノード差分の総和であり、Error_eAllが、エッジ差分の総和である。
すなわち、様々なパターンで生成される動画像ファイルにおけるフレーム画像の配置に応じた評価値Eは、図14で示されるように、動画像ファイルを構成するフレーム画像の選択肢となりうる画像毎のオリジナル画像との差分、すなわち、ノード差分と、時系列に配置可能な選択肢となりうる前後のフレーム画像間のエッジ差分とから求められるグラフの最適化問題として処理することが可能となる。尚、図14においては、円(N−1),円(N),円(N+1)がそれぞれノードを示しており、矢印がエッジを示している。また、Error_n(Org(N),Org(N)),Error_n(Org(N),P1(N)),Error_n(Org(N),P2(N))がそれぞれ、オリジナルのフレーム画像Org(N)と、フレーム画像Org(N)、変換画像P1(N)、変換画像P2(N)とのそれぞれのノード差分を表しており、Error(Org(N),Org(N−1)),・・・Error(P1(N),P2(N−1)),・・・Error_e(P2(N),P2(N−1))がそれぞれエッジ差分を表している。
そこで、ステップS126において、変換動画像ファイル選択部120は、評価値の最も低い、すなわち、評価値Eが最も小さいフレーム画像、または変換画像の時系列の配置パターンからなる変換動画像ファイルを選択し、選択したパターンで時系列に配置されたフレーム画像、または変換画像からなる変換動画像ファイルを記憶部93に記憶させる。
ステップS127において、撮像方向色付部112は、変換動画像ファイル選択部120により選択された、評価値Eが最も小さいフレーム画像、または変換画像の時系列の配置パターンからなる変換動画像ファイルを構成する各フレーム画像の撮像方向の情報を抽出し、図9で示されるルートLの配色を決定し、ルートLのルート表示情報を生成する。
ステップS128において、再生管理部94は、新たに生成したルート表示情報を、通信部91を制御して、ネットワーク13を介して再生端末12に送信する。
ステップS129において、再生管理部94は、通信部91を介して動作の終了を指示する情報が受信されたか否かを判定し、終了が指示されたとみなされない場合、処理は、ステップS121に戻り、それ以降の処理が繰り返される。また、ステップS121において、補正スケールの情報が送信されてこない場合、ステップS122乃至S128の処理はスキップされる。そして、ステップS129において、終了が指示されたとみなされた場合、処理は、終了する。
一方、再生端末12においては、ステップS103において、制御部71は、通信部74を制御して、送信されてきたルート表示情報を取得する。
ステップS104において、制御部71は、表示部72を制御して、受信したルート表示情報に基づいて、図9で示されるルートL上の彩色を処理し、表示部72に新たなルートLとして表示させる。
ステップS105において、制御部71は、操作部73が操作されて終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS101に戻り、それ以降の処理が繰り返される。そして、ステップS105において、終了が指示された場合、処理は、終了する。
以上の処理により、補正つまみMが操作されることにより、動画像ファイルを構成するフレーム画像が複数の種類の画角変換、または回転変換されるなどして構成される変換画像の組み合わせのうち、評価値Eが最小となるパターンの変換動画像ファイルに変換される。このような処理により、補正つまみMの操作に応じて、フレーム画像のそれぞれについては、オリジナル画像に近く、破たんの生じ難い画像から構成されるが、撮像方向が頻繁に変化して見難い、いわゆる酔い易い動画像ファイルとするか、または、フレーム画像のそれぞれについては、オリジナル画像とは大きく異なり、破たんが生じ易い画像から構成されるが、撮像方向の変化が小さく、比較的見易い、いわゆる酔い難い動画像ファイルとするかを、ルートL上に付される色彩の変化から吟味することが可能となる。
尚、上述したように変換画像に破たんが生じてしまうような場合、時系列の前後の画像間の差分が大きくなることが予想される。そこで、評価値Eが最も低いフレーム画像、または変換画像の時系列の配置に基づいて選択された動画像ファイルを構成するフレーム画像、または変換画像のエッジ差分の情報を利用して、例えば、図15で示されるように、所定の閾値Thよりも大きなエッジ差分となる区間と、その前後のmarginで示される区間に存在するフレーム画像については、再生しない区間、すなわち、カット区間に設定するようにすることで、破たんした区間については視聴できないようにするようにしてもよい。このようにすることで、利用者が最適とみなせるルートL上の配色により動画像ファイルを選択しつつ、破たんした画像については視聴できないようにすることができるので、より視聴し易い変換動画像ファイルを生成することが可能となる。
<再生処理>
次に、図16のフローチャートを参照して、再生処理について説明する。尚、再生処理は、図9で示されるような表示画像選択画像が表示されていることが前提となる。また、再生が指示される動画像ファイルは、上述したルート補正処理により評価値Eが最小とされて生成された変換動画像ファイルである。
ステップS151において、制御部71は、操作部73を制御して、所定の操作により動画像ファイルの再生が指示されたか否かを判定し、再生が指示されるまで同様の処理を繰り返す。ステップS151において、例えば、図9で示されるMy地図におけるルートL上の位置Pが、図示せぬポインタにより選択されて、再生が指示されたとみなされた場合、処理は、ステップS152に進む。
ステップS152において、制御部71は、選択された位置Pに対応する地図上の位置情報、およびその位置上に存在する動画像ファイルからの再生を指示するコマンドを、通信部74を制御して、サーバ14に送信する。
ステップS171において、サーバ14の再生管理部94は、通信部91を制御して、再生が指示されたか否かを判定し、再生が指示されるまで同様の処理を繰り返す。ステップS171において、例えば、ステップS152の処理により再生を指示する情報が送信されてくると、再生が指示されたものとみなし、処理は、ステップS172に進む。
ステップS172において、再生管理部94は、再生が指示された位置情報、および時刻情報に基づいて、対応する動画像ファイル(変換動画像ファイル)の情報のうち未処理のフレーム画像を検索して処理対象画像として読み出す。
ステップS173において、禁止編集部121は、読み出された処理対象画像を抽出して、付された撮像時刻、撮像位置、および撮像方向などから、画像内に禁止領域があるか否かを判定する。すなわち、禁止編集部121は、より具体的には、例えば、禁止領域として、眼鏡型カメラ11により撮像された画像内で、例えば、個人情報を特定するような情報を含む領域、位置情報に基づいて特定される軍事機密などが撮像されていると思われる領域、または、所定の時刻において開示されると問題のある領域が存在するか否かを判定する。
ステップS173において禁止領域が存在するとみなされた場合、ステップS174において、禁止編集部121は、処理対象画像の禁止領域については、画像内においてモザイク処理または黒色処理を施すなどして、視聴不能な状態にする。尚、ステップS173において、禁止領域が存在しないとみなされた場合、ステップS174の処理はスキップされる。
ステップS175において、再生管理部94は、読み出された処理対象画像、または、禁止編集部121により禁止編集された処理対象画像を、再生画像として、動画像ファイルに記録させる。
ステップS176において、再生管理部94は、未処理のフレーム画像が動画像ファイルに存在するか否かを判定し、未処理のフレーム画像が存在する場合、処理は、ステップS172に戻り、それ以降の処理が繰り返される。そして、再生が指示された時刻、および位置に対応する動画像ファイルに含まれる全てのフレーム画像が、禁止領域の有無を判定される処理対象画像とされた場合、処理は、ステップS177に進む。
ステップS177において、再生管理部94は、再生が指示された動画像ファイルを、通信部91を制御して、再生端末12に送信させ、処理は、ステップS171に戻る。
一方、再生端末12においては、ステップS153において、制御部71が、通信部74を制御して、ネットワーク13を介してサーバ14より送信されてきた動画像ファイルを受信する。
ステップS154において、制御部71は、通信部74により受信された動画像ファイルをフレーム画像単位で順次再生し、表示部72に表示する。
尚、以上においては、図9のMy地図で示されるルートL上の位置Pを操作部73により選択することで再生が指示される例について説明してきたが、クロスメディアバーにおける画像P11乃至P16,P21乃至P26のいずれかを選択することでも同様に再生を指示することが可能である。
以上の処理により、利用者は、My地図と称される、図9で示されるような表示画像選択画像状のルートLで示される、眼鏡型カメラ11を装着して撮像された動画像ファイルについて、地図上の位置、オブジェクト、または、オブジェクトが撮像された時刻に応じて、動画像ファイル上の再生位置を指定することが可能となる。さらに、図9のルートLは、ルート上で撮像された動画像ファイルに含まれるフレーム画像の撮像方向毎に色分けされて表示されるようにしているので、撮像方向の変化、すなわち、動画像ファイルにおける各フレーム画像間のブレの程度を一目瞭然に目視確認することが可能となる。さらに、補正つまみMを操作することで、個々のフレーム画像においてはオリジナルの画像に近いが、撮像方向の変化が激しい場合には見難い、いわゆる酔い易い動画像とするか、または、個々のフレーム画像においては、オリジナルと大きく異なるが、撮像方向の変化が小さい、いわゆる酔い難い見易い動画像とするかを、ルートL上の彩色を見ながら吟味して再生を指示することが可能となる。
尚、以上においては、眼鏡型カメラ11を撮像処理に利用する例について説明してきたが、動画像の撮像機能を備えたものであればよく、例えば、ビデオカメラなどで撮像された画像を同様に処理することで、ブレの少ない画像を生成できるようにしてもよい。また、以上においては、ネットワーク13上のサーバ14により各種の処理を実現する例について説明してきたが、サーバ14と同一の機能を備えたその他のものであってもよく、例えば、クラウドコンピューティングによりサーバ14の機能を実現するようにさせてもよい。
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
図17は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011から読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
尚、本技術は、以下のような構成も取ることができる。
(1) 撮像部の撮像により得られる動画像を構成するフレーム画像単位での撮像位置、および撮像方向の情報を取得する取得部と、
前記動画像を構成するフレーム画像毎に、前記フレーム画像自身、および、その前後のフレーム画像に基づいて、撮像方向の異なる複数の変換画像を生成する変換画像生成部と、
前記変換画像および前記オリジナルの前記フレーム画像の組み合わせにより構成される変換動画像毎に、前記変換画像間または前記オリジナルの前記フレーム画像間のブレを評価する評価値を算出する評価値算出部と、
前記評価値算出部により算出された評価値に基づいて、前記ブレの少ない変換動画像を選択する選択部と
を含む画像処理装置。
(2) 前記変換画像生成部により生成された前記変換画像と、オリジナルの前記フレーム画像との差分をノード差分として算出するノード差分算出部と、
前記変換画像生成部により生成された前記変換画像、および前記オリジナルの前記フレーム画像を含む、時系列の差分をエッジ差分として算出するエッジ差分算出部とをさらに含み、
前記評価値算出部は、前記変換画像、および前記オリジナル画像との組み合わせからなる変換動画像に含まれる前記変換画像または前記オリジナルのフレーム画像間の、それぞれの前記エッジ差分の和、および前記ノード差分の和に基づいて、前記変換動画像毎のブレを評価する評価値を算出する
(1)に記載の画像処理装置。
(3) 前記評価値算出部は、前記変換画像、および前記オリジナル画像との組み合わせからなる変換動画像に含まれる前記変換画像または前記オリジナルのフレーム画像間の、それぞれの前記エッジ差分の和、および前記ノード差分の和に重みを付して、その和を算出することで、前記変換動画像毎のブレを評価する評価値を算出する
(2)に記載の画像処理装置。
(4) 前記エッジ差分の和、および前記ノード差分の和に付される、それぞれの前記重みの和は1であり、前記エッジ差分の和、および前記ノード差分の和に付される重みを入力する重み入力部をさらに含み、
前記評価値算出部は、前記変換画像、および前記オリジナル画像との組み合わせからなる変換動画像に含まれる前記変換画像または前記オリジナルのフレーム画像間の、それぞれの前記エッジ差分の和、および前記ノード差分の和に、前記重み入力部により入力された重みを付して、その和を算出することで、前記変換動画像毎のブレを評価する評価値を算出する
(3)に記載の画像処理装置。
(5) 前記記憶部は、前記変換画像生成部により前記変換画像が生成される際に、前記変換画像に対応付けて、複数の所定の画角の画像、および複数の角度に回転する画像ことにより前記オリジナルのフレーム画像に対応して変化する撮像方向の情報も合わせて記憶し、
前記変換動画像、または、前記動画像のフレーム画像の前記撮像位置の情報に基づいて地図上にルートを表示すると共に、前記撮像方向の情報に基づいて、前記ルート上に前記撮像方向毎に色を塗り分けて表示する表示画像を生成する表示画像生成部をさらに含む
(1)に記載の画像処理装置。
(6) 前記表示画像上における前記地図上に表示されたルート上の位置を指定する指定部と、
前記指定部により指定された位置に対応する撮像位置の情報を含むフレーム画像から、前記ルートを構成する前記変換動画像、または、前記動画像を再生する再生部をさらに含む
(5)に記載の画像処理装置。
(7) 前記変換画像生成部は、前記記憶部に記憶されている動画像を構成するフレーム画像毎に、前記フレーム画像自身、および、その前後のフレーム画像を利用して、画角シフト、ホモグラフィ変換、および視点合成を含む手法により、前記複数の所定の画角の画像、および複数の角度に回転することで、前記異なる撮像方向の複数の画像に変換して変換画像を生成する
(1)に記載の画像処理装置。
(8) 前記変換画像生成部は、前記記憶部に記憶されている動画像を構成するフレーム画像毎に、前記フレーム画像自身、および、その前後のフレーム画像に基づいて、画素以下の位相ずれにより生成される画素を利用することにより、前記異なる撮像方向の、より高解像度の複数の変換画像を生成する
(1)に記載の画像処理装置。
(9) 前記動画像を撮像する撮像部をさらに備え、
前記取得部は、前記フレーム画像の撮像位置および撮像方向の情報を、前記フレーム画像毎に対応付けて記憶する
(1)乃至(8)のいずれかに記載の画像処理装置。
(10) 撮像部の撮像により得られる動画像を構成するフレーム画像単位での撮像位置、および撮像方向の情報を取得し、
前記動画像を構成するフレーム画像毎に、前記フレーム画像自身、および、その前後のフレーム画像に基づいて、撮像方向の異なる複数の変換画像を生成し、
前記変換画像および前記オリジナルの前記フレーム画像の組み合わせにより構成される変換動画像毎に、前記変換画像間または前記オリジナルの前記フレーム画像間のブレを評価する評価値を算出し、
算出された評価値に基づいて、前記ブレの少ない変換動画像を選択する
ステップを含む画像処理方法。
(11) 撮像部の撮像により得られる動画像を構成するフレーム画像単位での撮像位置、および撮像方向の情報を取得する取得ステップと、
前記動画像を構成するフレーム画像毎に、前記フレーム画像自身、および、その前後のフレーム画像に基づいて、撮像方向の異なる複数の変換画像を生成する変換画像生成ステップと、
前記変換画像および前記オリジナルの前記フレーム画像の組み合わせにより構成される変換動画像毎に、前記変換画像間または前記オリジナルの前記フレーム画像間のブレを評価する評価値を算出する評価値算出ステップと、
前記評価値算出ステップの処理により算出された評価値に基づいて、前記ブレの少ない変換動画像を選択する選択ステップと
を含む処理をコンピュータに実行させるためのプログラム。
11,11−1乃至11−N 眼鏡型カメラ, 12,12−1乃至12−M 再生端末, 13 ネットワーク, 14 サーバ, 32 撮像部, 33 制御部, 51 記録部, 52 GPS, 53 RTC, 54 地軸センサ, 55 ジャイロセンサ, 56 コントローラ, 57 通信部, 71 制御部, 72 表示部, 73 操作部, 74 通信部, 75 表示画像記憶部, 91 通信部, 92 記録部, 93 記憶部, 94 再生管理部, 101 インデックス付加部, 111 My地図生成部, 112 撮像方向色付部, 113 オブジェクト認識部, 114 地図データ記憶部, 115 ルート編集部, 116 変換動画像ファイル生成部, 117 ノード差分算出部, 118 エッジ差分算出部, 119 評価値算出部, 120 変換動画像ファイル選択部, 121 禁止編集部

Claims (11)

  1. 撮像部の撮像により得られる動画像を構成するフレーム画像単位での撮像位置、および撮像方向の情報を取得する取得部と、
    前記動画像を構成するフレーム画像毎に、前記フレーム画像自身、および、その前後のフレーム画像に基づいて、撮像方向の異なる複数の変換画像を生成する変換画像生成部と、
    前記変換画像および前記オリジナルの前記フレーム画像の組み合わせにより構成される変換動画像毎に、前記変換画像間または前記オリジナルの前記フレーム画像間のブレを評価する評価値を算出する評価値算出部と、
    前記評価値算出部により算出された評価値に基づいて、前記ブレの少ない変換動画像を選択する選択部と
    を含む画像処理装置。
  2. 前記変換画像生成部により生成された前記変換画像と、オリジナルの前記フレーム画像との差分をノード差分として算出するノード差分算出部と、
    前記変換画像生成部により生成された前記変換画像、および前記オリジナルの前記フレーム画像を含む、時系列の差分をエッジ差分として算出するエッジ差分算出部とをさらに含み、
    前記評価値算出部は、前記変換画像、および前記オリジナル画像との組み合わせからなる変換動画像に含まれる前記変換画像または前記オリジナルのフレーム画像間の、それぞれの前記エッジ差分の和、および前記ノード差分の和に基づいて、前記変換動画像毎のブレを評価する評価値を算出する
    請求項1に記載の画像処理装置。
  3. 前記評価値算出部は、前記変換画像、および前記オリジナル画像との組み合わせからなる変換動画像に含まれる前記変換画像または前記オリジナルのフレーム画像間の、それぞれの前記エッジ差分の和、および前記ノード差分の和に重みを付して、その和を算出することで、前記変換動画像毎のブレを評価する評価値を算出する
    請求項2に記載の画像処理装置。
  4. 前記エッジ差分の和、および前記ノード差分の和に付される、それぞれの前記重みの和は1であり、前記エッジ差分の和、および前記ノード差分の和に付される重みを入力する重み入力部をさらに含み、
    前記評価値算出部は、前記変換画像、および前記オリジナル画像との組み合わせからなる変換動画像に含まれる前記変換画像または前記オリジナルのフレーム画像間の、それぞれの前記エッジ差分の和、および前記ノード差分の和に、前記重み入力部により入力された重みを付して、その和を算出することで、前記変換動画像毎のブレを評価する評価値を算出する
    請求項3に記載の画像処理装置。
  5. 前記記憶部は、前記変換画像生成部により前記変換画像が生成される際に、前記変換画像に対応付けて、複数の所定の画角の画像、および複数の角度に回転する画像ことにより前記オリジナルのフレーム画像に対応して変化する撮像方向の情報も合わせて記憶し、
    前記変換動画像、または、前記動画像のフレーム画像の前記撮像位置の情報に基づいて地図上にルートを表示すると共に、前記撮像方向の情報に基づいて、前記ルート上に前記撮像方向毎に色を塗り分けて表示する表示画像を生成する表示画像生成部をさらに含む
    請求項1に記載の画像処理装置。
  6. 前記表示画像上における前記地図上に表示されたルート上の位置を指定する指定部と、
    前記指定部により指定された位置に対応する撮像位置の情報を含むフレーム画像から、前記ルートを構成する前記変換動画像、または、前記動画像を再生する再生部をさらに含む
    請求項5に記載の画像処理装置。
  7. 前記変換画像生成部は、前記記憶部に記憶されている動画像を構成するフレーム画像毎に、前記フレーム画像自身、および、その前後のフレーム画像を利用して、画角シフト、ホモグラフィ変換、および視点合成を含む手法により、前記複数の所定の画角の画像、および複数の角度に回転することで、前記異なる撮像方向の複数の画像に変換して変換画像を生成する
    請求項1に記載の画像処理装置。
  8. 前記変換画像生成部は、前記記憶部に記憶されている動画像を構成するフレーム画像毎に、前記フレーム画像自身、および、その前後のフレーム画像に基づいて、画素以下の位相ずれにより生成される画素を利用することにより、前記異なる撮像方向の、より高解像度の複数の変換画像を生成する
    請求項1に記載の画像処理装置。
  9. 前記動画像を撮像する撮像部をさらに備え、
    前記取得部は、前記フレーム画像の撮像位置および撮像方向の情報を、前記フレーム画像毎に対応付けて記憶する
    請求項1に記載の画像処理装置。
  10. 撮像部の撮像により得られる動画像を構成するフレーム画像単位での撮像位置、および撮像方向の情報を取得し、
    前記動画像を構成するフレーム画像毎に、前記フレーム画像自身、および、その前後のフレーム画像に基づいて、撮像方向の異なる複数の変換画像を生成し、
    前記変換画像および前記オリジナルの前記フレーム画像の組み合わせにより構成される変換動画像毎に、前記変換画像間または前記オリジナルの前記フレーム画像間のブレを評価する評価値を算出し、
    算出された評価値に基づいて、前記ブレの少ない変換動画像を選択する
    ステップを含む画像処理方法。
  11. 撮像部の撮像により得られる動画像を構成するフレーム画像単位での撮像位置、および撮像方向の情報を取得する取得ステップと、
    前記動画像を構成するフレーム画像毎に、前記フレーム画像自身、および、その前後のフレーム画像に基づいて、撮像方向の異なる複数の変換画像を生成する変換画像生成ステップと、
    前記変換画像および前記オリジナルの前記フレーム画像の組み合わせにより構成される変換動画像毎に、前記変換画像間または前記オリジナルの前記フレーム画像間のブレを評価する評価値を算出する評価値算出ステップと、
    前記評価値算出ステップの処理により算出された評価値に基づいて、前記ブレの少ない変換動画像を選択する選択ステップと
    を含む処理をコンピュータに実行させるためのプログラム。
JP2014554310A 2012-12-26 2013-12-12 画像処理装置および方法、並びにプログラム Expired - Fee Related JP6332037B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012282611 2012-12-26
JP2012282611 2012-12-26
PCT/JP2013/083296 WO2014103731A1 (ja) 2012-12-26 2013-12-12 画像処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JPWO2014103731A1 true JPWO2014103731A1 (ja) 2017-01-12
JP6332037B2 JP6332037B2 (ja) 2018-05-30

Family

ID=51020820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014554310A Expired - Fee Related JP6332037B2 (ja) 2012-12-26 2013-12-12 画像処理装置および方法、並びにプログラム

Country Status (5)

Country Link
US (2) US9569823B2 (ja)
EP (1) EP2940986B1 (ja)
JP (1) JP6332037B2 (ja)
CN (1) CN104885441B (ja)
WO (1) WO2014103731A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014103731A1 (ja) * 2012-12-26 2014-07-03 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP2017173252A (ja) * 2016-03-25 2017-09-28 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2018029290A (ja) * 2016-08-18 2018-02-22 株式会社東芝 動画再生装置、動画再生システム、および動画再生方法
US10834357B2 (en) * 2018-03-05 2020-11-10 Hindsight Technologies, Llc Continuous video capture glasses
US10452918B1 (en) * 2019-01-31 2019-10-22 Nenad Milanovic Automatically creating time entries based on a video showing a user's surroundings
CN111637897B (zh) * 2019-03-01 2022-04-19 纳恩博(常州)科技有限公司 地图的更新方法、更新装置、存储介质以及处理器
JP7345282B2 (ja) * 2019-06-03 2023-09-15 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2021077279A1 (zh) * 2019-10-22 2021-04-29 深圳市大疆创新科技有限公司 一种图像处理方法、设备、成像系统及存储介质
US20230088882A1 (en) * 2021-09-22 2023-03-23 Samsung Electronics Co., Ltd. Judder detection for dynamic frame rate conversion

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009001510A1 (ja) * 2007-06-28 2008-12-31 Panasonic Corporation 画像処理装置、画像処理方法、プログラム
JP2010147637A (ja) * 2008-12-17 2010-07-01 Nikon Corp 動画再生装置、動画再生方法、および、動画再生プログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004077820A1 (ja) * 2003-02-25 2004-09-10 Matsushita Electric Industrial Co. Ltd. 画像撮像処理方法および画像撮像装置
JP5141317B2 (ja) * 2008-03-14 2013-02-13 オムロン株式会社 対象画像検出デバイス、制御プログラム、および該プログラムを記録した記録媒体、ならびに対象画像検出デバイスを備えた電子機器
US8310556B2 (en) * 2008-04-22 2012-11-13 Sony Corporation Offloading processing of images from a portable digital camera
KR100968974B1 (ko) * 2008-08-26 2010-07-14 삼성전기주식회사 손떨림 보정 장치
US8102428B2 (en) * 2008-08-28 2012-01-24 Adobe Systems Incorporated Content-aware video stabilization
JP5299054B2 (ja) * 2009-04-21 2013-09-25 ソニー株式会社 電子機器、表示制御方法およびプログラム
JP2011009846A (ja) * 2009-06-23 2011-01-13 Sony Corp 画像処理装置、画像処理方法及びプログラム
US8558903B2 (en) * 2010-03-25 2013-10-15 Apple Inc. Accelerometer / gyro-facilitated video stabilization
JP2011217317A (ja) 2010-04-02 2011-10-27 Nikon Corp カメラ
US9213220B2 (en) * 2010-04-06 2015-12-15 Youbiq, Llc Camera control
JP5517746B2 (ja) * 2010-05-26 2014-06-11 キヤノン株式会社 画像処理装置およびその方法
US8428390B2 (en) * 2010-06-14 2013-04-23 Microsoft Corporation Generating sharp images, panoramas, and videos from motion-blurred videos
JP5317023B2 (ja) * 2010-09-16 2013-10-16 カシオ計算機株式会社 手ぶれ補正装置、手ぶれ補正方法およびプログラム
US8488010B2 (en) * 2010-09-21 2013-07-16 Hewlett-Packard Development Company, L.P. Generating a stabilized video sequence based on motion sensor data
WO2012064106A2 (en) * 2010-11-12 2012-05-18 Samsung Electronics Co., Ltd. Method and apparatus for video stabilization by compensating for view direction of camera
US8648919B2 (en) * 2011-06-06 2014-02-11 Apple Inc. Methods and systems for image stabilization
US20130027554A1 (en) * 2011-07-31 2013-01-31 Meadow William D Method and Apparatus for Automated Camera Location and Orientation with Image Processing and Alignment to Ground Based Reference Point(s)
US9196016B2 (en) * 2012-01-18 2015-11-24 Linkedin Corporation Systems and methods for improving video stutter in high resolution progressive video
US8610818B2 (en) * 2012-01-18 2013-12-17 Cisco Technology, Inc. Systems and methods for improving video stutter in high resolution progressive video
US8259161B1 (en) * 2012-02-06 2012-09-04 Google Inc. Method and system for automatic 3-D image creation
WO2014103731A1 (ja) * 2012-12-26 2014-07-03 ソニー株式会社 画像処理装置および方法、並びにプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009001510A1 (ja) * 2007-06-28 2008-12-31 Panasonic Corporation 画像処理装置、画像処理方法、プログラム
JP2010147637A (ja) * 2008-12-17 2010-07-01 Nikon Corp 動画再生装置、動画再生方法、および、動画再生プログラム

Also Published As

Publication number Publication date
WO2014103731A1 (ja) 2014-07-03
EP2940986A1 (en) 2015-11-04
US20150348243A1 (en) 2015-12-03
CN104885441A (zh) 2015-09-02
US10110817B2 (en) 2018-10-23
EP2940986A4 (en) 2016-07-13
US20170111586A1 (en) 2017-04-20
JP6332037B2 (ja) 2018-05-30
US9569823B2 (en) 2017-02-14
CN104885441B (zh) 2018-06-12
EP2940986B1 (en) 2018-02-07

Similar Documents

Publication Publication Date Title
JP6332037B2 (ja) 画像処理装置および方法、並びにプログラム
CN104126299B (zh) 视频图像稳定化
JP6634432B2 (ja) 広角画像に関連する情報を記録、共有、及び処理することによるシステム挙動又はユーザエクスペリエンスの自動定義
CN102959943B (zh) 立体全景图像合成装置和方法、以及图像捕获装置
US20170309144A1 (en) Monitoring system for a photography unit, monitoring method, computer program, and storage medium
US8564710B2 (en) Photographing apparatus and photographing method for displaying information related to a subject
TW201730841A (zh) 圖像資料處理系統和相關方法以及相關圖像融合方法
JP6787394B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2018110375A (ja) 表示装置、プログラム、表示方法
CN102239697A (zh) 图像处理装置和方法及程序
US20150070526A1 (en) Display control device, display control method, and program
JP6497965B2 (ja) 画像処理装置及び画像処理方法
JP2004120341A (ja) 映像監視システム
CN115226406A (zh) 图像生成装置、图像生成方法、记录介质生成方法、学习模型生成装置、学习模型生成方法、学习模型、数据处理装置、数据处理方法、推断方法、电子装置、生成方法、程序和非暂时性计算机可读介质
WO2017112800A1 (en) Macro image stabilization method, system and devices
JP2019057891A (ja) 情報処理装置、撮像装置、情報処理方法及びプログラム
JP2022140458A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2013165413A (ja) 画像表示装置
EP4007261A1 (en) Image processing device, image processing method, and program
JP2004088558A (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP2003324723A (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP6679784B2 (ja) 画像処理装置及び画像処理方法
JP2010183254A (ja) 撮像装置および被写体検出プログラム
JP6743441B2 (ja) 画像収集装置、表示システム、画像収集方法及びプログラム
JP6318196B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180416

R151 Written notification of patent or utility model registration

Ref document number: 6332037

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees