JP7235043B2 - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
JP7235043B2
JP7235043B2 JP2020511612A JP2020511612A JP7235043B2 JP 7235043 B2 JP7235043 B2 JP 7235043B2 JP 2020511612 A JP2020511612 A JP 2020511612A JP 2020511612 A JP2020511612 A JP 2020511612A JP 7235043 B2 JP7235043 B2 JP 7235043B2
Authority
JP
Japan
Prior art keywords
information
image
event
image signal
analysis engine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020511612A
Other languages
English (en)
Other versions
JPWO2019193821A1 (ja
Inventor
直秀 山田
雅和 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2019193821A1 publication Critical patent/JPWO2019193821A1/ja
Application granted granted Critical
Publication of JP7235043B2 publication Critical patent/JP7235043B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本技術は情報処理装置、情報処理方法、プログラムに関し、例えば撮像した動画映像としての画像信号からクリップ画像を生成する技術分野に関する。
例えば放送のために撮像している動画映像から、視聴価値のあるシーンを抽出し、リプレイやハイライトとして放送することがある。
下記特許文献1では、動画像中のイベントを検出する技術が記載されている。
特開2017-55175号公報
本技術はリアルタイムで撮像した画像(動画映像)に関する解析及びその解析を用いた処理を迅速に行うことを目的とする。更には処理における精度の向上であったり、ユーザの作業負担を減らすことを目的とする。
本技術に係る情報処理装置は、受信した画像信号について、リアルタイム処理用の画像信号として外部の解析エンジンに送信する第1処理と、前記解析エンジンから受信したイベント抽出情報を受信し、該イベント抽出情報を用いて、クリップ画像の設定情報を生成する第2処理と、を行うイベント解析部を備え、前記イベント解析部は、前記第2処理において、画像システム内の機器又は画像システム外の機器から得られる情報を用いて前記設定情報を生成する
例えば情報処理装置は、撮像装置によって撮像されたリアルタイム動画としての画像信号について、第1処理として必要な処理を施して、解析エンジンに送信する。
解析エンジンはAIエンジンであって、受信した画像信号からリプレイ画像やハイライト画像に適したイベント発生期間を抽出し、それを示すイベント抽出情報を送信する。
情報処理装置は、第2処理として、解析エンジンからのイベント抽出情報に基づき、イベントを提示する画像としてのクリップ画像の設定情報を生成する。
上記した本技術に係る情報処理装置においては、前記イベント解析部は、前記第1処理において、画像信号の情報量と、解析エンジンへ送信する伝送路の帯域情報を用いて、画像信号の情報量削減処理を行うか否かの判断を行うことが考えられる。
ここでは例えばbps(bits per second)、通信容量、通信速度などの有線/無線通信路としての伝送路の能力を総括して「帯域」と呼ぶ。いわゆる伝送路の帯域と画像信号の情報量、即ちフレームレートや解像度によっては適切にリアルタイム処理用画像としての通信が実行できない場合も生ずる。そこで必要に応じて情報量削減を行うように判断する。
上記した本技術に係る情報処理装置においては、前記イベント解析部は、前記情報量削減処理では、帯域情報と、画像信号の情報量に応じた解析エンジンの精度の情報を用いて、削減後の情報量を決定することが考えられる。
解析エンジンの解析精度は画像信号の情報量(解像度やフレームレート)に依存する面がある。即ち画像信号の情報量によって解析精度が変動する。画像信号の情報量が少なければそれだけ解析精度も落ちる。そこで、送信先の解析エンジンについて、画像信号の情報量に応じた解析精度の情報を用いて削減の程度を決める。
上記した本技術に係る情報処理装置においては、前記イベント解析部は、前記第1処理において、受信した画像信号をストリーミング画像信号にエンコードして解析エンジンに送信する処理を行うことが考えられる。
例えばリアルタイム動画としての画像信号をストリーミング画像信号として送信する。
上記した本技術に係る情報処理装置においては、前記イベント解析部は、前記第1処理において、受信した画像信号を、一定又は不定の時間長の画像期間に分割して画像ファイルとし、解析エンジンに送信する処理を行うことが考えられる。
例えばリアルタイム動画としての画像信号を、例えば5~10秒程度の期間毎のシーンで画像ファイルにエンコードして、順次解析エンジンに送信する。
上記した本技術に係る情報処理装置においては、前記イベント解析部は、前記画像ファイルを、時間的に連続する前後の画像ファイルにおいて一部のシーンが重複するように生成することが考えられる。
例えば5~10秒程度の期間の画像ファイルについて、例えば1秒程度、前後の画像ファイルでシーンが重複するようにする。
上記した本技術に係る情報処理装置においては、前記イベント解析部は、前記第2処理において、前記解析エンジンから受信した、イン点及びアウト点を含むイベント抽出情報について、前記イン点又は前記アウト点を更新した前記設定情報を生成することが考えられる。
参照可能な情報を用いて、外部の解析エンジンが提示したイン点/アウト点を変更する。
上記した本技術に係る情報処理装置においては、前記イベント解析部は、前記第2処理において、接続された画像システム内の機器から得られる情報を用いて前記設定情報を生成することが考えられる。
例えば解析エンジンが提示したイン点/アウト点を含むイベント抽出情報を、接続された画像システム内の機器からの情報を用いて変更する。画像システム内の機器とは、例えばリアルタイム放送のための撮像から画像出力のためのシステムを構成する装置であり、例えば1又は複数の撮像装置、収録装置(画像サーバ)、画像送出制御装置(スイッチング装置)などである。
上記した本技術に係る情報処理装置においては、前記イベント解析部は、前記第2処理において、前記解析エンジンから受信したイベント抽出情報として、同じイベントを対象とする複数のイベント抽出情報が存在する場合、当該複数のイベント抽出情報を用いて、そのイベントに関するクリップ画像の設定情報を生成することが考えられる。
例えば或るシーンを複数の撮像装置で撮像していた場合、解析エンジンからは、同じイベントについて複数のイベント抽出情報が提供される場合がある。その場合に、同じイベントを対象とする複数のイベント抽出情報を利用して、設定情報を生成する。
上記した本技術に係る情報処理装置においては、前記イベント解析部は、前記第2処理において、接続された画像システム外の機器から得られる情報を用いて前記設定情報を生成することが考えられる。
画像システム外の機器とは、例えばインターネット等のネットワークにより情報を取得できる装置など、情報処理装置が何らかの手段により情報取得可能な機器である。得られる情報としては本例の画像システム外のあらゆる機器からの情報が想定される。
上記した本技術に係る情報処理装置においては、前記イベント解析部は、前記第2処理において、画像システム内の機器又は画像システム外の機器から取得した情報を用いて、メタデータ制御情報を含む前記設定情報を生成することが考えられる。
メタデータ制御情報は、例えば各種情報をメタデータとしてクリップ画像ファイルに付加することを指示する情報やメタデータ内容などである。
これによりメタデータとして、例えばスポーツ放送における選手の情報、シーン種別の情報、経過情報など、各種の情報を付加した画像クリップが生成されるようにする。
上記した本技術に係る情報処理装置においては、前記イベント解析部は、前記第2処理において、イベント抽出に関する評価値を含む前記設定情報を生成することが考えられる。
例えば評価値としてイベント抽出の確度(適切に有意なイベントが抽出されたものか否かを示す値)を設定情報に付加する。
上記した本技術に係る情報処理装置においては、前記イベント解析部は、前記解析エンジンから受信したイベント抽出情報として、同じイベントを対象とする複数のイベント抽出情報が存在する場合、そのイベントに関するクリップ画像の設定情報について、前記評価値を上げるようにすることが考えられる。
複数の撮像装置により同じシーンが撮られて、それらが複数のイベント抽出情報として得られた場合、複数の撮像装置で撮像した重要なシーンがイベントとして抽出された可能性が高い。そこで評価値を上昇させる。
上記した本技術に係る情報処理装置においては、前記イベント解析部は、イベント抽出情報で示されるシーンについての撮像装置の動作情報に基づいて、当該イベント抽出情報に基づく前記設定情報についての前記評価値を変更するようにすることが考えられる。
例えばイベント抽出情報で指定されたシーンにおける撮像装置の動作情報を参照することで、適切な撮像がなされていたか否かが判定できる。そこで動作情報を参照して評価値を変更する。
上記した本技術に係る情報処理装置においては、接続された画像システム内の機器からフィードバック情報を受信して所定の処理を行うフィードバック受信処理部を備えることが考えられる。
例えば画像システムを構成する機器の各種動作に関しての情報を情報処理装置にフィードバックし、情報処理装置の所定の処理に反映させる。
上記した本技術に係る情報処理装置においては、前記フィードバック情報は、使用されたクリップ画像の情報を含むことが考えられる。
例えばオペレータ等によるクリップ画像の選択情報(使用情報)をフィードバックし、所定の処理に反映させる。
上記した本技術に係る情報処理装置においては、前記フィードバック受信処理部は、前記所定の処理として、撮像装置の動作制御を行うことが考えられる。
フィードバック情報に基づいて、より適切な撮像装置動作を判定し、撮像装置を制御する。
本技術に係る情報処理方法は、受信した画像信号について、リアルタイム処理用の画像信号として外部の解析エンジンに送信する第1処理と、前記解析エンジンから受信したイベント抽出情報を受信し、該イベント抽出情報と、画像システム内の機器又は画像システム外の機器から得られる情報とを用いて、クリップ画像の設定情報を生成する第2処理と、を情報処理装置が行う。
これによりイベント抽出の効率化と精度向上を実現する。
本技術に係るプログラムは、この情報処理方法の処理を情報処理装置に実行させるプログラムである。
これにより本技術の情報処理装置の実現を容易化する。
本技術によれば動画映像の撮像とともに短時間で行うクリップ画像の抽出作業を効率化でき、適正なクリップ生成のためのオペレータの作業負担を削減できる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の実施の形態のシステム構成のブロック図である。 実施の形態の機能構成のブロック図である。 実施の形態の情報処理装置の構成のブロック図である。 実施の形態のシステム動作の説明図である。 実施の形態の情報処理装置の入出力の説明図である。 実施の形態の情報処理装置のイベント解析のための画像送信処理のフローチャートである。 実施の形態の画像ファイル送信における一部重複の説明図である。 実施の形態の情報処理装置のクリップ設定情報の生成処理のフローチャートである。 実施の形態の情報処理装置のクリップ設定情報の生成処理のフローチャートである。 実施の形態のクリップ提示画面の説明図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下、実施の形態を次の順序で説明する。
<1.システム構成>
<2.処理概要>
<3.イベント解析のための画像送信>
<4.クリップ設定情報の生成処理>
<5.フィードバック情報を用いた動作>
<6.内視鏡手術システムへの応用例>
<7.移動体への応用例>
<8.まとめ及び変形例>
<1.システム構成>
図1より実施の形態の画像システム10及びその周辺構成を説明する。
なお実施の形態の画像システム10は、例えば放送等で使用できる画像撮像のためのシステムであり、図1の情報処理装置1、収録装置2、撮像装置3、画像送出制御装置4を指すこととする。
もちろんこれは一例であり、他の装置が画像システム10に含まれることもあるし、上記の一部が含まれないこともある。例えば収録装置2と画像送出制御装置4が一体化されている場合もある。さらにこれらに情報処理装置1が一体化されている場合もある。
放送映像収録のために一連の画像信号の転送が行われる機器及びその直接的な制御機器を画像システム10内の機器とする。
また本実施の形態の説明上、「画像」は、主に動画映像を指す。もちろん静止画が含まれていてもよい。
リアルタイム撮像された動画映像信号、及び、その動画映像から切り出されたクリップ画像、それらの動画映像の転送状態の信号などを「画像信号」と表記する。
撮像装置3は例えば放送用の画像の撮像を行うビデオカメラである。例えばスポーツの競技の中継などのためには、複数台の撮像装置3が用いられ、各撮像装置3からの画像が切り替えられながら放送されることが多い。
1又は複数の撮像装置3は撮像した画像信号を収録装置2に対して出力する。
収録装置2は各撮像装置3で撮像された画像信号の蓄積、送出を行う、いわゆるリアルタイム画像信号のサーバ装置として機能する。また画像信号に対する信号処理、切り出し編集、クリップ画像生成などの処理も行う。
このため収録装置2には大容量の記憶部や、画像信号処理プロセッサとしての信号処理部、及び他機器との信号転送及び各種情報通信等を行う制御部としての構成を備えることになる。
画像送出制御装置4は、オペレータOPが操作するスイッチャー端末である。
画像送出制御装置4は、収録装置2を介してリアルタイム画像として転送されてきた各撮像装置3による画像信号や、収録装置2において生成されたクリップ画像としての画像信号を、オペレータOPの操作に基づいて選択し、図示しない後段に送信する。このため、画像送出制御装置4は、オペレータOP(スイッチングオペレータ)に対する表示機能や操作機能としてのインタフェースや、他の機器との画像信号や各種情報の通信機能を備える。
なお画像送出制御装置4は、放送用のワークステーションとして収録装置2と一体化もしくは一部デバイスの共用化がされたものでもよい。
画像送出制御装置4を操作するオペレータOPは、放送中においては、リアルタイム画像としてどの撮像装置3の画像を放送するかを選択したり、クリップ画像CLを挿入したりする操作を行う。クリップ画像CLは、例えばリプレイシーン、ハイライトシーンなどである。
本実施の形態では、主にクリップ画像の生成について説明していく。
情報処理装置1は、クリップ画像CLの生成のための処理を行う。特には精度の高い自動的なクリップ画像生成を実現する。
クリップ画像CLは、撮像装置3で得られたリアルタイム画像信号のうちでイベントを抽出し、そのイベント部分を切り出して、ハイライトシーンやリプレイシーンとして放送で使用できるようにしたものである。
このためにはリアルタイム収録される画像信号のうち、特に視聴価値のある場面を精度良くイベントとして抽出し、その抽出されたイベントの区間(画像信号におけるイン点/アウト点)を指定して、クリップ画像として切り出すことが必要である。
ここでいうイベントとは、特に限定されないが、撮像画像内で何かしらの事象が発生したことを示すシーンと定義される。例えば特に視聴価値が高いシーン、競技等の放送対象にとって重要なシーンなどである。即ち撮像画像内で、クリップ画像CLとする候補となる事象、又はそのシーン範囲をイベントと呼んでいる。
このようなイベント抽出、イン点/アウト点の指定は、通常は、クリップ生成のためのオペレータが目視及び手動で行っている。ここでいうオペレータは、通常は、上記のスイッチングオペレータOPとは別のスタッフである。
イベント抽出のオペレータは、記録されている映像を全て見ながら手打ちで重要なシーンを抜き出す作業を行う。このため、作業を効率的にこなすことが困難である。
また、イベントを画像解析により自動的に抜き出す技術もあるが、画像解析には、ある程度まとまった時間の画像ファイルを使用することになり、放送中のリプレイシーンの切り出し等のために短時間でクリップ切り出しを行うことが困難であった。
さらに、自動的に画像解析を行う場合でも、解析エンジンの抽出結果に頼ると、切り出しの精度を上げることができず、必要なイベントが抽出できなかったり、不要なイベントが大量に検出されたりしてしまうこともある。
そこで本実施の形態では、情報処理装置1が、自動的なイベント抽出のための処理を実現すると共に、その切り出し精度を向上させるようにする。
特に情報処理装置1は、スポーツ中継などでのリプレイ画像や後のハイライト画像の制作に利用できるアプリケーションソフトウエアがインストールされたコンピュータ装置(演算処理装置)であり、図示するようにイベント解析部1A、フィードバック受信処理部1Bとしての機能を備える。これらの機能については後述する。
情報処理装置1は、収録装置2に蓄積された画像信号を取得したり、収録装置2に制御信号を送信する。
また情報処理装置1は画像送出制御装置4から情報を取得する場合もある。
また情報処理装置1は撮像装置3に情報を送信する場合もある。
なお画像送出制御装置4は、放送用のワークステーションとして収録装置2もしくは画像送出制御装置4の一方又は両方と一体化された装置として実現されてもよいし、収録装置2もしくは画像送出制御装置4と一部デバイスの共用化がされたものでもよい。
情報処理装置1は例えば伝送路80を介して、例えば外部のAI(artificial intelligence)エンジンである解析エンジン90(90A、90B・・・)や、システム外機器81と通信可能とされている。伝送路80については、インターネット、LAN(Local Area Network)、VPN(Virtual Private Network:仮想専用網)、イントラネット、エキストラネット、衛星通信網、CATV(Community Antenna TeleVision)通信網、電話回線網、移動体通信網等の各種の形態が想定される。
解析エンジン90は、本例の画像システム10が利用可能な外部のAIエンジンを示している。利用可能に提供されている解析エンジン90は複数存在し、それぞれ解析エンジン90A、90B・・・として示している。以下、これらの個々のいずれかを指す場合、或いは総称する場合は「解析エンジン90」と表記する。
システム外機器81は、伝送路80で通信可能な各種の機器、情報処理装置、サーバ等を指す。特には、情報処理装置1に対して撮像(放送)対象に関する情報を提供できる機器を想定している。
図2により、図1に示した各機器の動作機能を説明する。
撮像装置3は、撮像した画像信号PS1を収録装置2に供給する。例えばスポーツ等のライブ映像としての画像信号である。
カメラ制御部31は撮像装置3におけるマイクロコンピュータなどによる制御部を示している。カメラ制御部31はカメラマンの操作や、外部からの制御信号CTRに基づいて撮像装置3の撮像動作を制御する。例えばカメラ制御部31は、制御信号CTRに基づいてフォーカス状態、ズーム状態、撮像方向(パン・チルト)等の制御を行う。
収録装置2は、画像蓄積機能21、画像出力機能22、クリップ切り出し機能23、メタデータ付加機能24を有する。
画像蓄積機能21は、撮像装置3からの画像信号PS1を一時的に、もしくはある程度の長期的に蓄積する機能である。
画像出力機能22は、画像信号PS1を情報処理装置1に供給する機能である。
クリップ切り出し機能23は、情報処理装置1からの設定情報CLDに基づいてクリップ画像の切り出しを行う機能である。つまりクリップ切り出し機能23は、画像蓄積機能21により蓄積していた画像信号PS1のうちで、設定情報CLDに含まれるイン点/アウト点に従って切り出しを行い、クリップ画像CLを生成する。
メタデータ付加機能24は、情報処理装置1からの設定情報CLDに含まれるメタデータ制御情報を取得し、これに基づいてメタデータMTをクリップ画像CLに付加する機能である。これにより情報処理装置1が指示したメタデータMTが付加されたクリップ画像CLを生成する。
画像送出制御装置4は、UI(ユーザインタフェース)機能41と後段処理要求機能42を備える。
UI機能41は、表示機能と操作機能を含む。表示機能によりオペレータOPに対して、各撮像装置3からのリアルタイム画像を表示させたり、放送映像として挿入可能に生成されたクリップ画像CLの一覧、或いは再生画像を表示させたりする。また操作機能によりオペレータOPのスイッチング操作やクリップ選択操作等を受け付ける。
後段処理要求機能42は、図示しない後段の装置に対して、放送用の画像信号(クリップ画像CLを含む)を供給するとともに、オペレータOPの操作に基づく必要な処理要求を行う機能である。例えばクリップ画像CLについて、そのまま放送に用いるほか、所定の時間長(尺)で使用する指示や、画質調整、画像エフェクト等の指示などを示すEDL(Edit Decision List)データを後段に送信することで、必要な要求を行う。
なお、画像送出制御装置4は、例えばオペレータOPが選択したクリップ画像CLの情報や使用した長さ情報、EDLデータなどをフィードバック情報FBDとして情報処理装置1に送信できる。
情報処理装置1は、イベント解析部1A、フィードバック受信処理部1Bを備える。
イベント解析部1Aは、ライブで記録されている映像としての画像信号PS1を主な入力として、効果的なクリップ作成を行うための処理を行う。このイベント解析部1Aは、第1処理機能11としての処理と、第2処理機能12としての処理を行う。
第1処理機能11は、受信した画像信号PS1、つまりこの場合は撮像装置3で撮像された画像信号について必要な処理を行い、リアルタイム処理用の画像信号PS2として外部の解析エンジン90に送信する第1処理を行う。
第2処理機能12は、解析エンジン90から受信したイベント抽出情報EVを受信し、該イベント抽出情報を用いて、クリップ画像の設定情報CLDを生成する第2処理を行う。また第2処理機能12は、システム外機器81からの情報や、画像システム10内の機器からの情報を用いてメタデータ制御情報を生成し、これを設定情報CLDの一部として収録装置2に送信する処理も行う。メタデータ制御情報は、例えば各種情報をメタデータとしてクリップ画像ファイルに付加することを指示する情報やメタデータ内容自体などの情報である。
また第2処理機能12は、例えば撮像装置3等、画像システム10内の機器から動作情報を取得し、これを設定情報CLDの生成に反映させることもできる。
フィードバック受信処理部1Bは、画像システム10内の機器からフィードバック情報FBDを受信して所定の処理を行う。例えば画像送出制御装置4からクリップ選択情報等のフィードバック情報FBDを受信する。もちろん撮像装置3や収録装置2からの情報をフィードバック情報FBDとして受け付けても良い。
そしてフィードバック部1Bは、フィードバック情報FBDをイベント解析部1Aに渡して、メタデータ制御情報(例えばメタデータ内容)の生成に用いることができるようにしたり、例えば制御信号CTRを生成して、撮像装置3の動作制御を行うことなどが可能とされる。
解析エンジン90は、情報処理装置1から画像信号PS2を受信し、解析を行ってイベントを抽出する。そして抽出したイベントを示すイベント抽出情報EVを情報処理装置1に返す。イベント抽出情報EVは、例えば画像信号PS2におけるタイムスタンプ(時:分:秒:フレーム)によるイン点/アウト点が含まれている。
システム外機器81は、情報提供ユニット82としての機能を備え、例えば情報処理装置1からのデータ要求に応答して、情報処理装置1に対してデータを送信することが可能とされる。例えば撮像装置3で撮像しているスポーツの試合の関連情報としてのデータ、選手のデータ、試合経過データなどを情報処理装置1に提供できる。
以上の構成において、情報処理装置1、収録装置2、画像送出制御装置4は、ハードウエア構成としては、例えば図3のようなコンピュータ装置170により実現できる。
図3において、コンピュータ装置170のCPU(Central Processing Unit)171は、ROM(Read Only Memory)172に記憶されているプログラム、または記憶部178からRAM(Random Access Memory)173にロードされたプログラムに従って各種の処理を実行する。RAM173にはまた、CPU171が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU171、ROM172、およびRAM173は、バス174を介して相互に接続されている。このバス174にはまた、入出力インタフェース175も接続されている。
入出力インタフェース175には、キーボード、マウスなどよりなる入力部176、LCD(Liquid Crystal Display)或いは有機EL(Electro-Luminescence)パネルなどよりなるディスプレイ、並びにスピーカなどよりなる出力部177、ハードディスクなどより構成される記憶部178、モデムなどより構成される通信部179が接続されている。
通信部179は、伝送路80として示したインターネット等のネットワークを介しての通信処理を行ったり、画像システム10内の有線/無線通信、バス通信などによる通信を行う。
入出力インタフェース175にはまた、必要に応じてドライブ180が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア181が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部178にインストールされる。
上述した情報処理装置1の機能をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、ネットワークや記録媒体からインストールされる。
この記録媒体は、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク、光ディスク、光磁気ディスク、若しくは半導体メモリなどよりなるリムーバブルメディア181により構成される。或いは、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM172や、記憶部178に含まれるハードディスクなどでも構成される。
このようなコンピュータ装置170を情報処理装置1とする場合は、通信部179による受信動作として画像信号PS1を受信した際や、解析エンジン90からのイベント抽出情報EVを受信した際などに、CPU171がプログラムに基づいて、上述のイベント解析部1Aの処理(第1処理、第2処理)を行う。また受信したフィードバック情報FBDを用いて、CPU171がプログラムに基づいて、上述のフィードバック受信処理部1Bの処理を行うことができる。
<2.処理概要>
図4により本実施の形態の処理概要を説明する。この処理概要は、主に、撮像装置3で撮像した画像信号PS1からクリップ画像CLを生成する過程を説明するものである。
図4では、撮像装置3、収録装置2、情報処理装置1、解析エンジン90、システム外機器81、オペレータOP、画像送出制御装置4、及び後段処理として、各部の動作の流れを示している。図の縦方向が時間軸である。
時間軸に沿って各動作又は処理を(ST1)~(ST15)として説明する。
(ST1)
撮像装置3は撮像による画像信号PS1を収録装置2に送信する。なお実際には撮像装置3はライブ動画としての画像信号PS1の撮像を行う場合、この画像信号PS1の収録装置2への送信は、放送中継続して行うことになる。
収録装置2は、画像信号PS1を蓄積する。
また図1のように撮像装置3が複数用いられることを想定すると、その場合、各撮像装置3からの画像信号PS1が、それぞれ収録装置2に送信され、蓄積されることになる。
(ST2)
収録装置2は、撮像装置3からの画像信号PS1をほぼリアルタイムで情報処理装置1に送信する。なお、これも実際には継続的に行われる。また複数の撮像装置3からの画像信号PS1は、それぞれ情報処理装置1にほぼリアルタイムで送信される。
(ST3)
情報処理装置1は、受信した画像信号PS1に対して、リアルタイム処理用の画像信号として外部の解析エンジン90に送信するための処理を行う。リアルタイム性を維持するためには、情報処理装置1は例えば画像信号PS1を送信用のストリーミング画像信号にエンコードする処理、或いは短い所定時間単位の画像ファイルに区切ってエンコードする処理を行う。これらの処理により解析エンジン90に送信する画像信号PS2を生成する。
(ST4)
情報処理装置1は、画像信号PS2を解析エンジン90に送信する。
ここまでの(ST1)~(ST4)は、例えば放送中など、撮像装置3が撮像を行っている期間、継続して行われる。
(ST5)
解析エンジン90は、受信した画像信号PS2に対して解析を行い、イベントを検出する毎に、イベント抽出情報EVを情報処理装置1に送信する。
情報処理装置1はイベント抽出情報EVを受信する。イベント抽出情報EVには画像信号PS2(PS1)に付与されたタイムスタンプによるイン点/アウト点が含まれることで、情報処理装置1はクリップとして切り出す候補となるイベント画像の区間を認識できる。
(ST6)
情報処理装置1はシステム外機器81に対してシステム外データ要求を行う。例えば撮像している試合に関する情報、選手に関する情報など、関連する情報を要求する。
(ST7)
当該要求に対してシステム外機器81からシステム外データを送信してくる。情報処理装置1はこれを受信し、放送内容に関連するデータを取得する。
(ST8)
情報処理装置1はシステム内機器(例えば撮像装置3)に対してシステム内データ要求を行う。例えば撮像装置3から画像信号PS1にかかる撮像動作に関する情報を要求する。撮像動作に関する情報としては、例えばフォーカス状態、ズーム状態、撮像方向、絞り値、情報量(解像度、フレームレート)などの情報が想定される。
(ST9)
当該要求に対してシステム内機器(撮像装置3)からシステム内データを送信してくる。情報処理装置1はこれを受信し、画像信号PS1に関連するデータを取得する。
なお、情報処理装置1は画像送出制御装置4に対して例えばオペレータOPにより画質調整や画像エフェクト等の操作情報、輝度設定情報、などの情報を要求し、これを取得するようにしてもよい。
なお、この例では、上記(ST6)(ST7)の後に(ST8)(ST9)を行っているが、逆の順番でもよい。
(ST10)
情報処理装置1はクリップ画像CLの生成のための設定情報CLDの生成処理を行う。例えばイベント抽出情報EVとしてのイン点/アウト点を用い、又はこれを補正して、クリップ画像CLの切り出しのためのイン点/アウト点を決定する。
またシステム内データを利用して、イベント抽出に関する評価値を設定する。
またシステム外データを利用して、メタデータ内容を含むメタデータ制御情報を生成する。
(ST11)
情報処理装置1は生成した設定情報CLDを収録装置2に送信し、収録装置2にクリップ切り出し要求を行う。設定情報CLDにはメタデータ制御情報や評価値が含まれる場合がある。
(ST12)
収録装置2は、設定情報CLDに基づいてクリップ画像CLの切り出しを行う。収録装置2はメタデータ制御情報に従ってクリップ画像CLとしてのファイルにメタデータMTの付加を行う場合もある。
そして収録装置2は、新たなクリップ画像CLが追加された状態でオペレータOPに提示されるように、画像送出制御装置4に表示更新のための情報を提供する。
オペレータOPは例えばクリップ一覧画面のようなUI画面上で、新たなクリップ画像CLが生成されたことを確認できる。評価値やメタデータMTもオペレータOPに提示される。
(ST13)
オペレータOPは、画像送出制御装置4におけるUI機能41によりクリップ画像を確認し、放送するクリップ画像CLを選択する操作等を行うことができる。
(ST14)
画像送出制御装置4は、オペレータOPの操作に基づいて、後段の装置に放送に用いる画像信号を指定し、収録装置2から読み出して後段の装置に送信するとともに必要な処理を要求する。この処理により、オペレータOPが選択したクリップ画像CLの画像信号が後段の装置に供給されることになる。
(ST15)
オペレータによるクリップ選択が行われた場合、その選択されたクリップを示す選択クリップ情報が画像送出制御装置4から情報処理装置1に送信される。情報処理装置1は選択クリップ情報を例えばオペレータOPのクリップ選択の傾向の分析などに用いることができる。
以上がクリップ画像CLの自動生成と、オペレータOPによるクリップ選択のための一連の動作である。
本実施の形態では、ライブ収録している画像信号PS1から、自動的にイベント抽出を行い、クリップ画像CLの切り出しを行う。生成されたクリップ画像CLは、随時オペレータOPに提示される。例えばオペレータOPに対しては、放送内で生成されたクリップ画像CLの一覧が表示される。
オペレータOPは任意にクリップ画像CLを選択して、放送に用いる画像として後段に送信することが可能となる。
このような画像システム10において、情報処理装置1は主にクリップ画像CLの自動生成のための処理を行うことになるが、その情報処理装置1に対する入力と、情報処理装置1からの出力の各例を説明する。
図5は、主に図4の動作の過程で情報処理装置1に対して入出力されるデータの例を一覧で示したものである。
まず情報処理装置1に対する入力としては、クリップ作成に関するものとして、上記(ST2)の際の解析用データ、上記(ST5)の際の解析エンジンの結果データ、上記(ST9)の際のシステム内機器からのデータ、上記(ST7)の際のシステム外機器からのデータが挙げられる。
解析用データとはカメラ映像、即ち画像信号PS1である。1台からのカメラ映像、或いは複数台からのカメラ映像としての画像信号PS1が入力される。なお、画像信号PS1には撮像装置3で収録された音声信号(カメラ音声)も含まれる。
この解析用データは解析エンジン90に送信する目的で情報処理装置1に入力される。
なお、複数の撮像装置3からの画像信号PS1を入力することで、複数のカメラに渡って同じイベントが発生していたら確からしさが上がるなど、イベントの評価に用いることができる。
情報処理装置1には、解析エンジン90の結果のデータとしては、イベント抽出情報EVが入力される。これも1台のカメラ映像又は複数台のカメラ映像について、イベント抽出情報EVが解析エンジン90から送信されてくる。イベント抽出情報EVはクリップ切り出し範囲の候補として情報処理装置1で扱われる。
画像システム10内の他の機器からの入力としては、撮像装置3からのカメラデータが想定されている。
ここで言うカメラデータとは、例えば絞り値、フォーカス値、撮像方向、情報量(解像度、フレームレート)等である。これらはクリップ切り出し精度の向上に用いることができる。即ち解析エンジン90においてAI処理による解析結果としてのイベント抽出情報EVをリファインする用途に用いることができる。
システム外機器81からのデータとしては、テレメトリーデータやゲームデータが想定される。
情報処理装置1は、テレメトリーデータとして、撮像している試合中の各種計測データを用いることで、メタデータ内容を生成し、クリップ画像CLに埋め込ませるようにメタデータ制御情報を生成することができる。
またゲームデータ、即ち撮像している試合に関するデータからイベント時間やスコア、メインプレーヤ等の選手情報などが分かる。これにより情報処理装置1はメタデータ内容を生成したり、或いはクリップ抽出精度の向上に利用できる。
情報処理装置1への入力としては、上記(ST15)で示した選択クリップ情報のように、クリップ選択に係るフィードバック情報FBDがある。
このフィードバック情報FBDとしては、オペレータOPの選択操作などによりシステム後段に送信されたクリップ画像CLの情報や、使用された長さ(いわゆる尺の情報)、EDLデータなどがある。
情報処理装置1は、選択されたクリップ画像CLの情報は、解析精度の向上やオペレータOPの癖のエミュレートに用いることができる。例えばどんなクリップが使われやすいかを学習するために使用できる。
また情報処理装置1は、画像のアングルや映った選手の大きさからオペレータの癖(採用するクリップ画像を決める傾向)をエミュレートすることも可能である。
情報処理装置1は、用いられた長さの情報やEDLデータによれば、編集、修正をクリップ画像CLの設定情報CLDに対するフィードバックが可能である。例えばどういうシーンがどのくらいの長さで使われるかが分かれば切り出し時間も最適化できる。また尺に対して、再生スピード等をどう変更したかをフィードバックすることも考えられる。
情報処理装置1からの出力としては、クリップ作成に関するものとして、上記(ST11)の際の後段処理自動化のためのデータや後段オペレータの補助のためのデータがある。即ち設定情報CLDとしての出力である。
設定情報CLDとして、イン点/アウト点がある。これはクリップ切り出し位置の指定情報として収録装置2に送信される。
設定情報CLDにはEDLデータを含むこともできる。例えばオペレータを設定するとそのオペレータの編集をエミュレートするような処理も考えられる。
設定情報CLDには、後段処理要求として、ワークフローを自動化する情報を含むこともできる。例えばアーカイブするかしないかの情報や、アーカイブ先の情報を指定する。
後段のオペレータOPの補助のための情報としては、メタデータ制御情報がある。
情報処理装置1は、切り出すクリップ画像CLについて、クリップ名や、評価値、ゲームデータ、テレメトリーデータ等のメタデータ内容を含むメタデータ制御情報を設定情報CLDに含むようにする。
これにより、わかりやすいクリップ名を自動付与したり、複数のクリップ画像CLをイベント毎にまとめられるようにして後から検索しやすくすることなどが可能となる。
メタデータ内容として選手情報なども付加することで、人物や背番号などによるクリップ画像の検索性を向上させることもできる。
情報処理装置1はオペレータOPの補助のための情報として、設定情報CLDにおいてデュレーション(duration) の変更可能な長さの情報を含めてもよい。例えばイベント検出結果とリプレイなどで普段使われているクリップ長がどのくらい差がありそうかを検出した情報である。
また情報処理装置1は、設定情報CLDにおいて他のアングルのカメラ画像との組み合わせを提案する情報を含めてもよい。例えば同じイベントを拾った他のカメラアングルの画像を差し込むことを提案する情報である。
また情報処理装置1は、設定情報CLDにおいて、再生スピードの変更の提案の情報を含めても良い。例えば残りの尺に対して再生スピードをどう変えるかを提案する情報である。秒ごとの確からしさから最高確からしさ周辺で再生速度を変更することなどを提案する。
これらの情報は後段のオペレータOPの操作軽減を実現できる情報となる。
また情報処理装置1は、設定情報CLDにおいてお薦め度の情報を含めても良い。後段のオペレータの補助の選択指標となる情報であり、これにより最適なクリップやシーンを選択しやすくする 。例えば競技データから対象選手を抜出し、その選手が映っているカメラの画像をお勧めするなどが想定される。
情報処理装置1の出力としては、画像システム10内の機器制御のための情報、例えば撮像装置3に対する制御信号CTRとしてのカメラコントロールデータもある。
例えばクリップ選択結果に応じて撮像装置3のフォーカス状態、絞り、パン・チルトなどを制御することが考えられる。またカメラマンの癖(フォーカスや選手への寄り具合など)を学習し、カメラマンをエミュレートするような制御も可能である。
<3.イベント解析のための画像送信>
以下、情報処理装置1の具体的な処理例を説明する。
図6は情報処理装置1がイベント解析部1Aの機能により行う第1処理の例である。即ち収録装置2から受信した画像信号PS1について、リアルタイム処理用の画像信号として外部の解析エンジンに送信する処理の例である。
ステップS101で情報処理装置1は収録装置2から画像信号PS1を受信する。
ステップS102で情報処理装置1は、画像信号PS1を解析して、情報量、即ちフレームレートや解像度を算出する。なお、撮像装置3や収録装置2からフレームレートや解像度の情報が提供されているのであれば画像信号の解析を行ってこれらを算出する必要はない。
ステップS103で情報処理装置1は、伝送路80の帯域情報を取得する。この場合、ある解析エンジン90を選択して画像信号PS2を送信することになるが、その解析エンジン90に対する伝送路80の帯域情報を取得する。
なおここでは、例えばbps、通信容量、通信速度などの有線/無線通信路としての伝送路の能力を総括して「帯域」と呼ぶ。
ステップS104で情報処理装置1は、ステップS102で求めた情報量とステップS103で取得した帯域情報に基づいて、リアルタイム性を損なわない速度での画像信号PS2の送信ができるか否かを判断する。
即ち画像信号PS1の情報量から、それをエンコードした画像信号PS2の情報量が求められるため、送信先の解析エンジン90に送信する伝送路80の現在の帯域状況が、画像信号PS2の送信に対して十分であるか否かを判定する。
伝送路80の帯域が十分であると判定した場合は、ステップS107に進み、情報処理装置1は送信用エンコード処理を行い、送信する画像信号PS2を生成する。
例えば情報処理装置1は、ストリーミング画像信号として伝送用のエンコード処理を行う。或いは情報処理装置1は、5秒から10秒程度に細かく分割された映像ファイルとしてファイル共有やHTTP(Hypertext Transfer Protocol)、FTP(File Transfer Protocol)転送で解析エンジン90に転送するためのエンコード処理を行う。
これらによりリアルタイムに近い速度で画像信号PS2が解析エンジン90に転送されるようにし、解析エンジン90においてリアルタイム性をもったイベント抽出が行われるようにする。
なおこれらのエンコード処理では、情報処理装置1は、収録装置2からの画像信号PS1をSDI(Serial Digital Interface)信号として受信し、H.264等の汎用的かつ解析エンジン90が受信可能なフォーマットでファイル化を行う。
そして情報処理装置1はステップS108で伝送路80を介して解析エンジン90に画像信号PS2を送信する。
一方、ステップS104で、画像信号PS2のリアルタイム性を損なわない転送には帯域が十分でないと判断した場合、情報処理装置1はステップS105で情報量削減の設定を行う。つまりどの程度情報量を削減すれば良いかを判定する。
利用可能に提供される解析エンジン90A、90B・・・は、それぞれ解析手法や精度が異なる。そして画像解析に関しては、入力される画像の情報量(解像度やフレームレート)により、解析精度も変化する。
そこで情報処理装置1は、使用する解析エンジン90毎に、画像データの情報量に対する解析精度(この場合はイベント抽出精度)をテーブル情報などとして保持しておくようにする。
そしてステップS105では、今回使用する(つまり送信先とした)解析エンジン90に関してのテーブルデータを参照する。そして現在の伝送路80の帯域と比較して、リアルタイム性を損なわず、一方でデータ削減量を小さくして解析精度を保つ、或いは所定の精度以上となるようなデータ削減量を設定する。
具体的には、現在の伝送路80の帯域で、リアルタイム性を損なわないと考えられる最大の情報量を設定し、その情報量での解析エンジン90の解析精度を確認する。
もし解析精度が所定以上であれば、その情報量を削減処理後の情報量として決定する。
一方、現在の伝送路80の帯域で、リアルタイム性を損なわないと考えられる最大の情報量では、解析精度が不十分になる場合は、各種の例が考えられる。
例えば解析エンジン90を変更して、解析精度がより高くなるようにする。
或いは、そのまま解析精度が低いことを許容して送信するが、後述の設定情報CLDの生成の際に評価値を低下させる処理を行う。
或いは、解析精度と帯域のリアルタイム性を勘案しながら、リアルタイム性を若干犠牲にしてもイベント抽出精度を重視して情報量を多少多くしていくことも考えられる。
ステップS105で情報量、即ち削減処理後の情報量を設定したら、情報処理装置1はステップS106で情報量削減処理を行う。即ち画像信号PS1について解像度変換或いはフレーム間引き、或いはその両方を行うなどして、設定した情報量となるようにする。
そしてステップS107,S108の処理を行う。
なお、この例ではステップS105で削減する情報量を設定するようにしたが、一定の削減量で情報量削減処理を行っても良い。
また帯域状態にかかわらず、常に情報量削減処理をおこなってもよい。例えば画像信号PS1について解像度を1280×720程度に、解析結果に影響ない範囲でデータサイズを落とすことで、解析エンジン90への転送時間を短くすることも考えられる。
以上のように情報処理装置1は第1処理として、画像信号PS2を解析エンジン90に送信する。
この際に、伝送路80の帯域と画像信号PS2の情報量、即ちフレームレートや解像度によっては適切にリアルタイム処理用画像としての通信が実行できない場合も生ずる。そこで必要に応じて情報量削減を行うようにしている。
なお、ステップS107での送信のためのエンコード処理の際には、情報処理装置1は図7に示すようなファイル化を行うことが望ましい。
図7にはあるイベントが発生している期間として時点t1~時点t6を示しているが、このようなイベントを解析エンジン90において正しく抽出させる必要がある。
細かい時間でファイルを分けて送信する場合は、解析エンジン90側が時間軸のつながりを正しく認識できない場合も生ずる。そこで、画像信号PS2としての画像ファイルは、図示するように時点t0~時点t3のシーンである画像ファイルVF1,時点t2~時点t5のシーンである画像ファイルVF2、時点t4~時点t7のシーンである画像ファイルVF3、というようにする
このような画像ファイルVF1,VF2,VF3はそれぞれ時間幅TWとし、その前後は、隣接する期間の画像ファイルと重なり部分(時点t2-t3、時点t4-t5)が設けられるようにしている。
例えば1秒程度の重なりを含めて、このように画像ファイルを形成し、解析エンジン90に渡すことで、複数の画像ファイルに渡るイベントも正確に抽出されるようにする。
なお、各画像ファイルVF1,VF2・・・は一定の時間幅TWとしたが、各画像ファイルVF1,VF2・・・は、一定の時間幅でなく、可変時間幅を含む不定長の時間幅としてもよい。
<4.クリップ設定情報の生成処理>
続いて情報処理装置1がイベント解析部1Aの機能により行う第2処理の例を図8,図9により説明する。即ち情報処理装置1が解析エンジン90から受信したイベント抽出情報EVを用いてクリップ画像CLの生成のための設定情報CLDを作成する処理の例である。
ステップS201で情報処理装置1は解析エンジン90からイベント抽出情報EVを受信する。
先の図6の第1処理は、情報処理装置1は撮像装置3の撮像中(例えば放送中)に継続的に行っており、解析エンジン90が略リアルタイムで画像信号PS2を受信し解析を行っていくことになる。
その際に、解析エンジン90はイベントを抽出することに応じて、イベント抽出情報EVを生成し、その都度、もしくはある程度のイベント抽出情報EVをまとめたタイミングで、情報処理装置1に送信してくる。従ってステップS201のイベント抽出情報EVの受信は、不定期に行われる。
イベント抽出情報EVを受信したら、情報処理装置1はステップS202で、処理対象とした1つのイベント抽出情報EVに関し、他の撮像装置3による画像について同じタイミングのイベント抽出情報EVが存在するか否かを確認する。
例えば複数の撮像装置3による画像信号PS1がそれぞれ画像信号PS2とされて解析エンジン90に送信されている。例えばサッカーのゴールシーンを3台の撮像装置3で撮像していた場合、その各撮像装置3による画像信号PS2からそれぞれ同じ時間帯のシーンがイベントとして抽出される可能性がある。ステップS202では、そのように同じ対象のシーンがイベントとして抽出されているか否かを、各イベント抽出情報EVの時刻情報、つまりイン点/アウト点により確認する。
もし、同じイベントのイベント抽出情報EVが他になければ、情報処理装置1はステップS203から図9のステップS210に進む。
同じ重要なシーンを複数の撮像装置3でとらえた場合などで、複数の同時刻帯のイベント抽出情報EVが存在した場合、情報処理装置1はステップS203からS204に進み、該当する他の1つのイベント抽出情報EVから、他の撮像装置3による画像の撮像範囲を算出する。即ち同じイベントとして抽出された他のイベント抽出情報EVについてのイン点/アウト点を取得する。
そして情報処理装置1はステップS205で、処理対象のイベント抽出情報EVの範囲(イン点~アウト点)は、他のイベント抽出情報EVの範囲(イン点~アウト点)を包含しているか否かを確認する。
例えば時:分:秒:フレームのタイムスタンプが次のようであったとする。
処理対象のイベント抽出情報EVのイン点が00:05:31:10
処理対象のイベント抽出情報EVのアウト点が00:06:29:03
これに対して「例1」として、
他のイベント抽出情報EVのイン点が00:05:45:00
他のイベント抽出情報EVのアウト点が00:06:18:15
であったとしたら、他のイベント抽出情報EVの範囲は、全て処理対象のイベント抽出情報EVの範囲に含まれている。
従って、処理対象のイベント抽出情報EVのイン点/アウト点を変更しなくとも、他の撮像装置による画像範囲も含まれることになる。
一方「例2」として、
他のイベント抽出情報EVのイン点が00:05:25:51
他のイベント抽出情報EVのアウト点が00:06:18:15
であったとしたら、他のイベント抽出情報EVの範囲は、イン点付近が処理対象のイベント抽出情報EVの範囲に含まれていない。
また「例3」として、
他のイベント抽出情報EVのイン点が00:05:45:00
他のイベント抽出情報EVのアウト点が00:06:35:17
であったとしたら、他のイベント抽出情報EVの範囲は、アウト点付近が処理対象のイベント抽出情報EVの範囲に含まれていない。
もちろん、イン点付近とアウト点付近の両方が処理対象のイベント抽出情報EVに含まれていないこともある。
これらの場合、情報処理装置1はステップS206に進み、他の撮像装置3に係るイベント抽出情報EVのイン点/アウト点を用いて、処理対象のイベント抽出情報EVのイン点/アウト点を変更する。
即ち、他のイベント抽出情報EVの範囲が含まれるように、処理対象のイベント抽出情報EVのイン点/アウト点の一方又は両方を変更する。例えば上記の「例2」の場合、イン点を00:05:25:51に変更したり、「例3」の場合は、アウト点を00:06:35:17に変更したりする処理を行う。
ステップS207では情報処理装置1は、処理対象のイベント抽出情報EVについてイベント抽出確度を示すスコアを加点する。これは、複数の撮像装置3によるシーンがイベントとして抽出されていたことから、実際に重要なシーンが解析エンジン90によって抽出された確度が高いとして、スコアアップを行うものである。
ステップS208で情報処理装置1は、さらに同じ時刻帯の同じイベントを抽出したイベント抽出情報EVで未計算のものが残っているか否かを確認する。残っていれば情報処理装置1はステップS204に戻って、残りの他のイベント抽出情報EVを用いて同様の処理を行う。
その場合もステップS205,S206により、当該他のイベント抽出情報EVの範囲が含まれるように処理対象のイベント抽出情報EVのイン点/アウト点が確認又は変更される。
またステップS207が行われることで、さらにスコアの加点が行われる。つまり、同じイベントを複数の撮像装置3により撮像しているほど、イベント抽出の確度が高いものと判定される。
情報処理装置1は図9のステップS210に進むと、システム外機器81に対してシステム外データを要求し、ステップS211でシステム外機器81からのデータを受信する。
そしてステップS212で情報処理装置1は、受信したシステム外データに、処理対象のイベント抽出情報EVに対応する情報が存在するか否かを確認する。
存在した場合は、情報処理装置1はステップS213に進み、当該イベントに対応するメタデータ制御情報の生成処理を行う。
ステップS214で情報処理装置1はシステム10内の機器、例えば撮像装置3に対してシステム内データ要求を行う。そして情報処理装置1はステップS215で要求先の機器からシステム10内データを受信する。
例えば今回の処理対象のイベント抽出情報EVの元となる画像を撮像した撮像装置3から、当該撮像時のカメラデータを取得する。撮像からイベント抽出情報EVの受信までのリアルタイム性が十分に確保されているのであれば、現時点のカメラデータを取得してもよい。
ステップS216で情報処理装置1は、取得したカメラデータにより撮像画像が適切な状態であるか否かを判定する。例えば撮像方向が適切であるか否か、フォーカス状態が適切であるか否か、或いは画像の明るさが適切であるか否か等を判定する。
もし適切でないと評価した場合、ステップS217に進んでスコアを減点する。この場合、あまり適切でない画像区間を抽出したとして、抽出確度を低く評価するものとする。
ステップS218で情報処理装置1は、以上の処理を踏まえて設定情報CLDの生成を行う。
当該処理対象のイベント抽出情報EVのイン点/アウト点もしくはステップS206で修正されたイン点/アウト点を用いて、切り出し範囲としてのイン点/アウト点を設定する。設定情報として、図5に示したEDLデータ、後段処理選択の情報、オペレータOPの補助のための情報を含む場合もある。
また情報処理装置1はステップS213で生成したメタデータ制御情報も設定情報CLDに含める。また情報処理装置1はステップS207,S217で設定したイベント抽出確度のスコア値も設定情報CLDに含める。
そして情報処理装置1はステップS219で収録装置2に対して設定情報CLDを送信し、クリップ切り出し要求を行う。
これに応じて収録装置2でクリップ画像CLの切り出しやメタデータ付加等が行われる。
以上のように情報処理装置1は、解析エンジン90から取得したイベント抽出情報EVに基づいて設定情報CLDを生成し、収録装置2に対して、切り出しのイン点/アウト点を指定する。
またメタデータMTの内容やスコアの情報、その他の補助データも提供する。
以上の処理において、複数の撮像装置3からの画像信号PS1を入力としていた場合、情報処理装置1は、複数の撮像装置3による画像信号PS2からのイベント抽出結果を利用して、確からしさやイベントの開始時間、終了時間を更新するようにした。
具体的には、複数のカメラ映像で、撮像しているオブジェクトが同じ、もしくは包含関係があるとき、同じようなタイミングで同じイベントを検出した際にはそれぞれの検出結果の確からしさを高いものに変更する(S207)。
撮像オブジェクトについては、撮像装置3の向きやズーム値、フォーカス値を用いて同一のオブジェクトを撮像していることを算出することができる(S202)。
また、イベントの開始時間と終了時間を全てのカメラの論理和とする(S206)。
また情報処理装置1は、イベント抽出の精度を上げるため、エンジンの解析に使用している撮像装置3のカメラデータなど、システム内の他の機器の情報を入力している(S214、S215)。
そして撮像装置3のフォーカス値や向いている方向のデータを使用することで、その撮像装置3からの画像が正しく焦点の合ったものなのかどうか等を判断し、焦点が合っていない映像に対して検出されたイベント等に対しては確からしさのスコアを下げる処理(S217)を行うようにした。
なお、解析エンジン90からのイベント抽出情報EVに、抽出したイベントの確からしさの情報が含まれている場合、それをスコアに反映することもできる。
また情報処理装置1は、イベントで使われている他の装置の計測データ(テレメトリーデータ)や、インターネット情報をシステム外データとして入力する(S210、S211)。例えば、外部で公開されている、イベントのスタッツデータと組み合わせ、スタッツデータのタイミングを含むイベントデータに、得点や得点をあげた選手の名前など、付加情報としてスタッツデータを登録する(S213)。
情報処理装置1は、クリップ画像CLにメタデータMTを付加させるため、クリップ画像CLに関するイベント名や、人物、背番号などの対象オブジェクト、確からしさ等を含むメタデータ制御情報を生成し、設定情報CLDに含めて収録装置2に供給する。収録装置2はこれらの情報をクリップ画像CLのメタデータMTとして登録する。
これにより、後段のオペレータOPが、クリップ検索を容易に行うことができ、操作負担を軽減することができる。
収録装置2が設定情報CLDに基づいてクリップ画像CLの切り出しを行った場合、オペレータOPは例えば図10のような画面により、現在作成されているクリップ画像CLを確認することができる。
例えばこのクリップ一覧画面70では、個々のクリップ画像CLに対応して、チェックボックス71、クリップ画像ファイルのファイルナンバ72、サムネイル画像73、各種の付加情報74、イン点/アウト点75、撮像時刻情報76等が表示される。
また多数のクリップをページ送りで確認するためのページ送りボタン78や、選択したクリップを後段の装置に送信するセンドボタン77等が表示される。
各クリップ画像CLについては、例えば付加情報74として、メタデータMTに基づく表示が可能である。例えばシーンの名称/種別、選手名、イベント抽出確度のスコアなど、オペレータOPのクリップ選択を補助する情報が付加情報74として表示される。
このようなクリップ一覧画面70により、オペレータは任意のクリップ画像CLを選択することができる。もちろんクリップ画像CL自体を再生させて内容を実際に確認することも可能である。
オペレータOPは選択するクリップ画像CLについてチェックボックス71にチェックを入れる操作を行い、センドボタン77を操作することで、そのクリップ画像CLのデータファイルが後段の装置に送信される。
なお、さらにオペレータOPの補助のために、情報処理装置1は、設定情報CLDに提案情報(お薦め情報)を含ませることも可能である。例えば他の撮像装置3からの画像の解析結果に基づく他のカメラアングルの差し込みの提案や、フィードバック受信処理部1Bで取得しているEDLデータから過去の編集作業で使用された操作を認識し一部の再生スピードを変更するなどの提案などを含むようにする。このような推奨情報を例えば付加情報74として表示させることで、オペレータOPの選択操作の便宜を図ることができる。これによりオペレータOPの編集操作負担を軽減することができる。
<5.フィードバック情報を用いた動作>
実施の形態の情報処理装置1は、フィードバック受信処理部1Bの機能により、フィードバック情報FBDを用いた各種処理も行うことができる。
上述のように情報処理装置1は、フィードバック情報FBDとして、オペレータOPのクリップ選択情報や、使用したクリップ長等を取得する。
また情報処理装置1は、利用されたクリップについて、クリップのイン点/アウト点の変更や他の撮像装置3の撮像画像の差し込みなど、オペレータOPが操作した履歴であるEDLデータもフィードバック情報FBDとして取得する。
以下ではこれらのフィードバック情報FBDを用いた各種の処理例を例示する。
情報処理装置1は、設定情報CLDに基づいて収録装置2で作成されたクリップ画像CLを、オペレータOPが、リプレイ画像やハイライト画像として利用したかどうかを判別し、設定情報生成処理にフィードバックを行うことができる。
使用されたクリップ画像CLから、望ましいクリップ長を判定し、その後の設定情報CLDのイン点/アウト点の補正を行うことが考えられる。
また、使用されたクリップ画像CLのカメラアングル、ズーム状態などから、ハイライト画像として望ましいと考えるオペレータOPの嗜好を学習し、そのような画像がクリップ化されやすいようにすることもできる。
例えば情報処理装置1は、フィードバック情報FBDから放送に使用される頻度が多いカメラアングルやズーム状態を判定しておく。そして例えば3つの撮像装置3で同じイベントが抽出された場合、3つの撮像装置による画像のうちで、これまで使用頻度が高いアングルやズーム状態の画像をメインの画像となるようにして設定情報CLDを作成する。これにより、使用されやすいクリップ画像CLを自動生成していくことができる。
また情報処理装置1は、使用したクリップ長やEDLデータのほかに、オペレータOPの情報も取得することで、オペレータOPの操作を模した自動切り出し編集も可能である。例えば、オペレータOPの個人の操作履歴としての選択クリップ情報やEDLデータ等を収集することで、当該オペレータの嗜好を学習できる。そこで学習結果を設定情報CLDに反映させることで、当該オペレータが好むクリップ画像CLを生成できる。或いはオペレータOPの操作をシミュレートするようなクリップ画像CLを生成することも考えられる。
またお薦め情報をオペレータ毎に提供することも可能である。
情報処理装置1は、フィードバック情報FBDをオペレータOPの個人毎に記憶しておく。そしてオペレータのクリップ選択の嗜好を判定して、メタデータMTとされる付加情報やお勧め情報を加える。
システム外データを参照して、類似のシーンをお勧めすることなども考えられる。
オペレータOPの選択の傾向が学習できた場合、生成されたクリップ画像CLについて、その傾向との合致度から優先順位をつけてオペレータOPに提示することもできる。
情報処理装置1は、撮像装置3の動作制御を行うこともできる。
情報処理装置1は、フィードバック情報FBDに基づいてオペレータOPに選択されやすいクリップ画像CLの傾向、例えばカメラアングル、ズーム状態等を判定する。そのカメラアングルやズーム状態となるように制御信号CTRを生成し、撮像装置3の動作を自動制御する。これによりクリップ画像CLの品質/内容をよりよいものとすることができる。
また、情報処理装置1は、解析エンジン90から、画像信号PS2の画像がクリアでないと検出されるなど、何らかの情報を取得して、撮像装置3に対する制御信号CTRを生成し、撮像装置3のフォーカス状態や明るさ(露出値)等を制御することも考えられる。
このように撮像装置3の撮像動作を適正化すると、解析エンジン90による解析精度も高くなり、結果としてイベント抽出精度が向上する。
なお、情報処理装置1は、生成した設定情報CLDを収録装置2には送信せずに、制御信号CTRのみを撮像装置3に送信し、クリップ画像CLを生成せずに撮像装置3の動作のみを自動制御するものであってもよい。また、自動制御されるものは撮像装置3に限定されず、画像信号PS1を解析し、そのイベント抽出情報EVに基づいて制御されるものであれば何でもよく、例えば自動車の自動運転制御などがあげられる。
情報処理装置1は、フィードバック情報FBDを解析エンジン90に提供してもよい。解析エンジン90は、フィードバック情報FBDによりオペレータOPのクリップ選択の傾向を学習し、それに合致したイベント抽出を行うようにする。
このようにすることで情報処理装置1が受信するイベント抽出情報EVの精度を向上させることができる。
もちろん情報処理装置1自体がフィードバック情報FBDを用いた学習処理をおこなって、それを設定情報CLDの生成に反映させてもよい。
例えば、情報処理装置1は、放送に使用されやすいイベント、シーン、カメラアングル、ズーム状態等を学習する。例えばイベントをクラスタリングし、クラスタ毎に、選択されやすい傾向を学習していく。そしてその傾向を設定情報に反映させる。例えばイン点/アウト点やメタデータ、お勧めデータの設定に反映させる。
フィードバックとしてズームやパン、チルトなどの撮像装置3のカメラデータを取得してもよい。それらを用いた学習結果を設定情報CLDに反映させたり、オペレータOPへの提示優先度を設定することもできる。
また、予めカメラマンの名前等を設定してシステム運用を行うとともに情報処理装置1が、ズームやパン、チルトなどのカメラデータを取得するようにすれば、イベントに対するカメラワークを対応付けることができる。するとイベント発生時に撮像装置3を自動制御することで、カメラマンを模したカメラワークが実現できる。
<6.内視鏡手術システムへの応用例>
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
図11は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
図11では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
図12は、図11に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち制御部11413に適用され得る。
手術を行っている際に出血や穿孔が発生することがあり、この状態に気がつかないまま手術が進むと致命傷に至ることがある。そのため、リアルタイムで撮像している内視鏡11100により得られる撮像画像を制御部11413はリアルタイム処理用の画像信号として解析エンジンに送信し、解析エンジンにて撮像画像内の色等を検出することにより出血等をイベントとしてそのイベント抽出情報を受信し、該イベント抽出情報を用いてリプレイ画像を術者11131に提示されることにより、術者が早急に状況を把握して確実に手術を進めることが可能になる。
なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
<7.移動体への応用例>
さらに本開示に係る技術(本技術)は、例えば、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
図13は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図13に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12030に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図13の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
図14は、撮像部12031の設置位置の例を示す図である。
図14では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図14には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、マイクロコンピュータ12051に適用され得る。
自動運転を目的とした制御を行うためにはリアルタイムで撮像から得られた情報を基に制御が行われている。撮像部12101ないし12104から得られた撮像情報をマイクロコンピュータ12051はリアルタイム処理用の画像信号として解析エンジンに送信し、解析エンジンにて撮像範囲12111ないし12114内における各立体物までの距離や時間的変化を解析する。解析エンジンはこれらの解析結果に基づいて、各立体物までの衝突リスクをイベントとしてそのイベント抽出情報をマイクロコンピュータ12051に送信し、マイクロコンピュータ12051は該イベント抽出情報を用いて、衝突可能性がある状況であるときには、オーディオスピーカー12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。また、運転支援に対して、運転者が異なる操作をした場合などの情報をフィードバック情報として解析エンジンやマイクロコンピュータ12051に蓄積していくことにより、該イベント抽出情報を用いた制御が正しかったか否かを判定し、その都度イベント抽出や該イベント抽出情報を用いた解析アルゴリズムを変更していくことにより、運転支援の精度を上げていくことができる。
<8.まとめ及び変形例>
以上説明してきた本実施の形態では次のような効果が得られる。
実施の形態の情報処理装置1は、受信した画像信号PS1について、リアルタイム処理用の画像信号PS2として外部の解析エンジン90に送信する第1処理と、解析エンジン90から受信したイベント抽出情報EVを受信し、イベント抽出情報EVを用いて、クリップ画像CLの設定情報CLDを生成する第2処理とを行うイベント解析部1Aを備えている。
情報処理装置1がこれらの第1処理、第2処理を行うことで、リプレイ画像やハイライト用の画像としてのクリップ画像を自動的に切り出すことができ、オペレーションの効率化や放送局での省人化、或いはコストダウンを促進できる。
例えばスポーツ中継放送などの場合に、リアルタイムで撮像していた画像(動画映像)について、リプレイやハイライトシーンを流すためには、放送中に短時間で画像中のイベントを抽出し、クリップ化することが行われる。これをオペレータが記録された動画を確認し、重要なシーンについてクリップとする画像の範囲(イン点/アウト点)を決めるようにすると、その画像抽出作業は簡単ではなく、また迅速性が要求されることから、スタッフの作業負担は非常に大きい。実施の形態の場合、このような人手に頼った作業を解消し、かつ適切なクリップ抽出ができるという点で大きな効果がある。
また外部の解析エンジン90によるイベント抽出情報EVをそのままクリップ画像CLの切り出しのための設定情報CLDとはしていない。即ち解析エンジン90のイベント抽出結果の修正等を行う。これにより解析エンジン90の性能に依存せず、画像の切り出し精度を向上させることができる。
実施の形態の情報処理装置1(イベント解析部1A)は、第1処理において、画像信号PS1(PS2)の情報量と、解析エンジン90へ送信する伝送路80の帯域情報を用いて、画像信号の情報量削減処理を行うか否かの判断を行うようにした(図6のS102~S104参照)。
例えばリアルタイム動画としての画像信号のフレームレートや解像度によって決まる情報量と、伝送路の帯域の事情により、リアルタイム性が損なわれてしまうこともあり得る。本実施の形態では、画像信号の情報量の削減と、解析エンジンへの送信を行う伝送路の帯域情報を比較して、画像信号の情報量削減処理(S106)を行うことが必要かどうかを判断する。
必要な場合は情報量削減処理を行うことで、帯域にかかわらずリアルタイム性を維持することができる。
帯域が十分な場合は情報量削減処理を行わないことで、高フレームレート、高解像度のままの画像情報PS2を解析エンジン90に送信すれば良く、情報処理装置1では情報量削減処理による処理負担は生じない。また解析エンジン90側では情報量の多い画像情報を得ることで精度の高いイベント解析が可能となる。
実施の形態の情報処理装置1(イベント解析部1A)は、情報量削減処理では、帯域情報と、画像信号PS1(PS2)の情報量に応じた解析エンジン90の精度の情報を用いて、削減後の情報量を決定するようにした(S105)。
情報量削減を行う場合に、画像信号の情報量に対する解析エンジンの精度の情報を参照し、これと伝送路の帯域情報を勘案して、削減処理の程度を決めることで、リアルタイム性を維持可能な範囲で最も情報量を多くするような削減処理が可能である。さらには、解析エンジンでの解析に支障がない情報量を維持しつつ、伝送路の帯域状況に対応できる。これによって、解析エンジンの情報品質も保ち、結果として精度のよいクリップ画像の自動設定が可能となる。
実施の形態では、情報処理装置1(イベント解析部1A)が第1処理において、収録装置2から受信した画像信号PS1をストリーミング画像信号にエンコードして解析エンジン90に送信する処理を行う例を挙げた。
これによりストリーミング画像信号に対応してイベント抽出を行う解析エンジン90を利用する場合に、リアルタイム性を損なわずに画像信号PS2の転送ができる。
実施の形態では、情報処理装置1(イベント解析部1A)が第1処理において、収録装置2から受信した画像信号PS1を、一定又は不定の時間長の画像期間に分割して画像ファイルとし、解析エンジンに送信する処理を行う例を挙げた。
例えばリアルタイム動画としての画像信号を、例えば5~10秒程度の期間毎のシーンで画像ファイルにエンコードして、順次解析エンジンに送信する。
これにより短い期間長の画像としてファイル化された画像信号に対応してイベント抽出を行う解析エンジン90を利用することができるとともに、リアルタイム性を損なわない画像信号PS2の提供が可能となる。
この場合において、情報処理装置1(イベント解析部1A)が、画像ファイルを、時間的に連続する前後の画像ファイルにおいて一部のシーンが重複するように生成する例を挙げた(図7参照)
例えば5~10秒程度の期間の画像ファイルについて、例えば1秒程度、前後の画像ファイルでシーンが重複するようにする。
短時間の期間毎の画像をファイル化する場合、画像解析の際に前後のファイルの繋がりが不明確になりやすいが、実施の形態のように一部シーンが重複するようにすることで、複数の画像ファイルに渡るイベントを、解析エンジン90が正確に認識し易いようにすることができる。
実施の形態では、情報処理装置1(イベント解析部1A)が第2処理において、解析エンジン90から受信した、イン点及びアウト点を含むイベント抽出情報EVについて、イン点又はアウト点を更新した設定情報CLDを生成する例を挙げた(図8,図9参照)。
これにより、外部の解析エンジン90の性能に頼らずに、画像システム10としてより適切なクリップ生成のための設定情報CLDを生成できる。つまり解析エンジン90に依存せず、画像の切り出し精度を向上させることができる。
実施の形態では、情報処理装置1(イベント解析部1A)が第2処理において、接続された画像システム10内の機器から得られる情報を用いて設定情報CLDを生成する例を述べた(図9のS214~S217参照)。
画像システム10内の各機器から情報を取得し利用することで、より当該画像システム10に適したクリップ生成のための設定情報CLDを生成できる。つまり解析エンジン90の解析に頼らず、当該画像システム10に適した情報を含む設定情報CLDを生成できる。
実施の形態では、情報処理装置1(イベント解析部1A)が第2処理において、解析エンジン90から受信したイベント抽出情報EVとして、同じイベントを対象とする複数のイベント抽出情報EVが存在する場合、当該複数のイベント抽出情報EVを用いて、そのイベントに関するクリップ画像の設定情報CLDを生成する例を述べた(図8のS202~S208)。
例えば或るシーンを複数の撮像装置3で撮像していた場合、解析エンジン90からは、同じイベントについて複数のイベント抽出情報EVが提供される場合がある。その場合に、同じイベントを対象とする複数のイベント抽出情報EVを利用して、設定情報CLDを生成する。
これにより、複数の撮像装置3で撮られた画像に基づき、より精度のよいクリップ設定情報CLDが生成できる。例えば、複数のイベント抽出情報のイン点/アウト点を確認し、それぞれの期間が含まれるようにイン点/アウト点を設定した設定情報を生成できる。これによりイベントを構成するシーンとして漏れのないクリップ画像CLを生成できるなど、クリップ切り出し精度を向上させることができる。
実施の形態では、情報処理装置1(イベント解析部1A)が第2処理において、接続された画像システム外機器81から得られる情報を用いて設定情報CLDを生成する例を述べた(図9のS210~S218)。
システム外機器81から情報を取得して設定情報CLDに反映させることで、より情報の充実したクリップ画像CLを生成することができる。
なお、システム外機器81からのデータを用いて、解析エンジン90が提示したイベント抽出情報EVを更新することで、より望ましい設定情報CLDを生成できる。例えば解析エンジン90が提示したイン点/アウト点を、システム外機器81からのデータを用いて変更する。
例えば外部の信頼度の高い情報を得ることでイベント発生の時刻を正確に把握して、イン点/アウト点を更新することで、より精度の高いクリップ画像CLのための設定情報CLDが生成できる。
実施の形態では、情報処理装置1(イベント解析部1A)が第2処理において、画像システム10内の機器又はシステム外機器81から取得した情報を用いて、メタデータ制御情報を含む設定情報CLDを生成する例を述べた(図9のS210~S213)。
例えば画像クリップに対応してサッカー中継の際の選手の情報や、ゴールシーン/キックオフシーン、終了シーンなどのイベント種別の情報等も付加できる。
これにより、オペレータOPが扱いやすいクリップ画像CLを提供できることにもなる。またオペレータOPの操作負担も低減できる。
オペレータOPは、メタデータMTに基づく情報提示により、各クリップ画像CLの内容を把握でき、いちいち内容を見なくてもクリップ選択ができる場合もある。これはオペレータOPの操作を著しく効率化するものとなる。
なお、メタデータ制御情報は、設定情報CLDとしてのイン点/アウト点とは別途送信されてもよい。いずれにしても設定情報CLDは、クリップ生成のために情報処理装置1が収録装置2に送信する情報の総称であり、個々の情報がどのようなデータ形式で転送されるか、また同時に送信されるか否かは特に規定されるものではない。次に述べる評価値も同様である。
実施の形態では、情報処理装置1(イベント解析部1A)が第2処理において、イベント抽出に関する評価値(イベント抽出確度スコア)を含む設定情報CLDを生成する例を述べた。
このような設定情報CLDに基づいて生成されたクリップ画像CLについて評価値となるスコアを提示するようにすれば、オペレータOPが、そのスコアを参考にしてクリップ画像CLを選択することもできる。従って例えば放送に使用できる確実なクリップ画像を容易に選択できるようにもなる。
実施の形態の情報処理装置1(イベント解析部1A)は、解析エンジン90から受信したイベント抽出情報EVとして、同じイベントを対象とする複数のイベント抽出情報EVが存在する場合、そのイベントに関するクリップ画像の設定情報CLDについて、評価値(イベント抽出確度スコア)を上げるようにした(図8のS207)。
複数の撮像装置により同じシーンが撮られて、それらが複数のイベント抽出情報EVとして得られた場合、複数の撮像装置3で撮像した重要なシーンがイベントとして抽出された可能性が高い。そこで評価値を上昇させる。
これにより、イベント抽出が適切であった、つまり重要なイベントを解析エンジン90が抽出したことが示されるようになり、クリップ選択のためのガイドとして適切な情報を付加できることになる。
また実施の形態の情報処理装置1(イベント解析部1A)は、イベント抽出情報EVで示されるシーンについての撮像装置3の動作情報(カメラデータ)に基づいて、当該イベント抽出情報に基づく設定情報CLDについての評価値(イベント抽出確度スコア)を変更するようにした(図9のS217)。
例えばイベント抽出情報で指定されたシーンにおける撮像装置の動作情報を参照することで、適切な撮像がなされていたか否かが判定できる。そこで動作情報を参照して評価値を変更する。
これにより、例えば抽出されたイベントとしてのシーンの画像が、フォーカス状態がよくない画像である場合などに、評価値を下げるなどすることができる。もちろん適切な動作状態であった場合は評価値を上げるようにしてもよい。このような評価値(イベント抽出確度スコア)は、クリップ選択のための適切なガイド情報となる。
実施の形態の情報処理装置1は、接続された画像システム10内の機器からフィードバック情報FBDを受信して所定の処理を行うフィードバック受信処理部1Bを備える。
情報処理装置1は、撮像装置3、収録装置2、画像送出制御装置4などの画像システム10内の各機器から情報を取得することで、より適切な設定情報生成のための学習等が可能となる。
実施の形態では、フィードバック情報FBDは、使用されたクリップ画像CLの情報を含むものとした。
例えばオペレータOPによるクリップ画像CLの選択情報(使用情報)をフィードバックし、所定の処理に反映させる。
画像送出制御装置4におけるクリップ画像の選択情報、即ち放送で使用されるクリップ画像の情報をフィードバックしていくことで、情報処理装置1は、どのようなクリップが選択されやすいかを学習したり、学習結果を用いて選択の傾向にあわせた設定情報CLDの生成を行ったりすることが可能となる。これにより、より使用に適したクリップ作成が実現できる。
実施の形態では、情報処理装置1(フィードバック受信処理部1B)がフィードバック情報FBDを用いた所定の処理として、撮像装置3の動作制御を行う例を挙げた。
例えば適切なフィードバック情報FBDに基づいてフォーカス、明るさ、ズームなどの撮像装置3の動作を制御することで、イベント抽出に有利になるように撮像装置2を動かし、イベント検出精度を高めるようにすることが可能である。
また撮像装置3の動作制御を自動化することで、カメラマンの省人化、省力化が可能となる
実施の形態のプログラムは、上述の実施の形態で示した図6の第1処理、及び図8,図9の第2処理を、例えばCPU、DSP等、或いはこれらを含むデバイスに実行させるプログラムである。
即ち実施の形態のプログラムは、受信した画像信号について、リアルタイム処理用の画像信号として外部の解析エンジン90に送信する第1処理と、解析エンジン90から受信したイベント抽出情報EVを受信し、該イベント抽出情報EVを用いて、クリップ画像CLの設定情報CLDを生成する第2処理とを情報処理装置1に実行させるプログラムである。このようなプログラムにより、上述した情報処理装置1を実現できる。
このようなプログラムはコンピュータ装置等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。
あるいはまた、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magnet optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
またこのようなプログラムによれば、実施の形態の情報処理装置1の広範な提供に適している。例えばパーソナルコンピュータ、携帯型情報処理装置、画像編集装置、放送機器、携帯電話機、ゲーム機器、ビデオ機器、PDA(Personal Digital Assistant)等にプログラムをダウンロードすることで、当該パーソナルコンピュータ等を、本開示の情報処理装置1とすることができる。
なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
なお本技術は以下のような構成も採ることができる。
(1)
受信した画像信号について、リアルタイム処理用の画像信号として外部の解析エンジンに送信する第1処理と、
前記解析エンジンから受信したイベント抽出情報を受信し、該イベント抽出情報を用いて、クリップ画像の設定情報を生成する第2処理と、
を行うイベント解析部を備えた
情報処理装置。
(2)
前記イベント解析部は、前記第1処理において、画像信号の情報量と、解析エンジンへ送信する伝送路の帯域情報を用いて、画像信号の情報量削減処理を行うか否かの判断を行う
上記(1)に記載の情報処理装置。
(3)
前記イベント解析部は、前記情報量削減処理では、帯域情報と、画像信号の情報量に応じた解析エンジンの精度の情報を用いて、削減後の情報量を決定する
上記(2)に記載の情報処理装置。
(4)
前記イベント解析部は、前記第1処理において、
受信した画像信号をストリーミング画像信号にエンコードして解析エンジンに送信する処理を行う
上記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
前記イベント解析部は、前記第1処理において、
受信した画像信号を、一定又は不定の時間長の画像期間に分割して画像ファイルとし、解析エンジンに送信する処理を行う
上記(1)乃至(3)のいずれかに記載の情報処理装置。
(6)
前記イベント解析部は、前記画像ファイルを、時間的に連続する前後の画像ファイルにおいて一部のシーンが重複するように生成する
上記(5)に記載の情報処理装置。
(7)
前記イベント解析部は、前記第2処理において、
前記解析エンジンから受信した、イン点及びアウト点を含むイベント抽出情報について、前記イン点又は前記アウト点を更新した前記設定情報を生成する
上記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記イベント解析部は、前記第2処理において、
接続された画像システム内の機器から得られる情報を用いて前記設定情報を生成する
上記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
前記イベント解析部は、前記第2処理において、
前記解析エンジンから受信したイベント抽出情報として、同じイベントを対象とする複数のイベント抽出情報が存在する場合、当該複数のイベント抽出情報を用いて、そのイベントに関するクリップ画像の設定情報を生成する
上記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)
前記イベント解析部は、前記第2処理において、
接続された画像システム外の機器から得られる情報を用いて前記設定情報を生成する
上記(1)乃至(9)のいずれかに記載の情報処理装置。
(11)
前記イベント解析部は、前記第2処理において、
画像システム内の機器又は画像システム外の機器から取得した情報を用いて、メタデータ制御情報を含む前記設定情報を生成する
上記(1)乃至(10)のいずれかに記載の情報処理装置。
(12)
前記イベント解析部は、前記第2処理において、
イベント抽出に関する評価値を含む前記設定情報を生成する
上記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)
前記イベント解析部は、前記解析エンジンから受信したイベント抽出情報として、同じイベントを対象とする複数のイベント抽出情報が存在する場合、そのイベントに関するクリップ画像の設定情報について、前記評価値を上げるようにする
上記(12)に記載の情報処理装置。
(14)
前記イベント解析部は、イベント抽出情報で示されるシーンについての撮像装置の動作情報に基づいて、当該イベント抽出情報に基づく前記設定情報についての前記評価値を変更するようにする
上記(12)又は(13)に記載の情報処理装置。
(15)
接続された画像システム内の機器からフィードバック情報を受信して所定の処理を行うフィードバック受信処理部を備えた
上記(1)乃至(14)のいずれかに記載の情報処理装置。
(16)
前記フィードバック情報は、使用されたクリップ画像の情報を含む
上記(15)に記載の情報処理装置。
(17)
前記フィードバック受信処理部は、前記所定の処理として、撮像装置の動作制御を行う
上記(15)又は(16)に記載の情報処理装置。
(18)
受信した画像信号について、リアルタイム処理用の画像信号として外部の解析エンジンに送信する第1処理と、
前記解析エンジンから受信したイベント抽出情報を受信し、該イベント抽出情報を用いて、クリップ画像の設定情報を生成する第2処理と、を情報処理装置が行う
情報処理方法。
(19)
受信した画像信号について、リアルタイム処理用の画像信号として外部の解析エンジンに送信する第1処理と、
前記解析エンジンから受信したイベント抽出情報を受信し、該イベント抽出情報を用いて、クリップ画像の設定情報を生成する第2処理と、
を情報処理装置に実行させるプログラム。
1… 情報処理装置、1A…イベント解析部、1B…フィードバック受信処理部、2…収録装置、3…撮像装置、4…画像送出制御装置、10…画像システム、80…伝送路、8…システム外機器、90…解析エンジン

Claims (19)

  1. 受信した画像信号について、リアルタイム処理用の画像信号として外部の解析エンジンに送信する第1処理と、
    前記解析エンジンから受信したイベント抽出情報を受信し、該イベント抽出情報を用いて、クリップ画像の設定情報を生成する第2処理と、
    を行うイベント解析部を備え、
    前記イベント解析部は、前記第2処理において、
    画像システム内の機器又は画像システム外の機器から得られる情報を用いて前記設定情報を生成する
    情報処理装置。
  2. 前記イベント解析部は、前記第2処理において、
    前記解析エンジンから受信した、イン点及びアウト点を含むイベント抽出情報について、前記イン点又は前記アウト点を更新した前記設定情報を生成する
    請求項1に記載の情報処理装置。
  3. 前記イベント解析部は、前記第2処理において、
    前記解析エンジンから受信したイベント抽出情報として、同じイベントを対象とする複数のイベント抽出情報が存在する場合、当該複数のイベント抽出情報を用いて、そのイベントに関するクリップ画像の設定情報を生成する
    請求項1に記載の情報処理装置。
  4. 前記イベント解析部は、前記第2処理において、
    画像システム内の機器又は画像システム外の機器から取得した情報を用いて、メタデータ制御情報を含む前記設定情報を生成する
    請求項1に記載の情報処理装置。
  5. 受信した画像信号について、リアルタイム処理用の画像信号として外部の解析エンジンに送信する第1処理と、
    前記解析エンジンから受信したイベント抽出情報を受信し、該イベント抽出情報と、画像システム内の機器又は画像システム外の機器から得られる情報とを用いて、クリップ画像の設定情報を生成する第2処理と、を情報処理装置が行う
    情報処理方法。
  6. 受信した画像信号について、リアルタイム処理用の画像信号として外部の解析エンジンに送信する第1処理と、
    前記解析エンジンから受信したイベント抽出情報を受信し、該イベント抽出情報と、画像システム内の機器又は画像システム外の機器から得られる情報とを用いて、クリップ画像の設定情報を生成する第2処理と、
    を情報処理装置に実行させるプログラム。
  7. 受信した画像信号について、リアルタイム処理用の画像信号として外部の解析エンジンに送信する第1処理と、
    前記解析エンジンから受信したイベント抽出情報を受信し、該イベント抽出情報を用いて、クリップ画像の設定情報を生成する第2処理と、
    を行うイベント解析部を備え、
    前記イベント解析部は、前記第1処理において、画像信号の情報量と、解析エンジンへ送信する伝送路の帯域情報を用いて、画像信号の情報量削減処理を行うか否かの判断を行う
    情報処理装置。
  8. 前記イベント解析部は、前記情報量削減処理では、帯域情報と、画像信号の情報量に応じた解析エンジンの精度の情報を用いて、削減後の情報量を決定する
    請求項7に記載の情報処理装置。
  9. 受信した画像信号について、リアルタイム処理用の画像信号として外部の解析エンジンに送信する第1処理と、
    前記解析エンジンから受信したイベント抽出情報を受信し、該イベント抽出情報を用いて、クリップ画像の設定情報を生成する第2処理と、
    を行うイベント解析部を備え、
    前記イベント解析部は、前記第1処理において、
    受信した画像信号をストリーミング画像信号にエンコードして解析エンジンに送信する処理を行う
    情報処理装置。
  10. 受信した画像信号について、リアルタイム処理用の画像信号として外部の解析エンジンに送信する第1処理と、
    前記解析エンジンから受信したイベント抽出情報を受信し、該イベント抽出情報を用いて、クリップ画像の設定情報を生成する第2処理と、
    を行うイベント解析部を備え、
    前記イベント解析部は、前記第1処理において、
    受信した画像信号を、一定又は不定の時間長の画像期間に分割して画像ファイルとし、解析エンジンに送信する処理を行う
    情報処理装置。
  11. 前記イベント解析部は、前記画像ファイルを、時間的に連続する前後の画像ファイルにおいて一部のシーンが重複するように生成する
    請求項10に記載の情報処理装置。
  12. 受信した画像信号について、リアルタイム処理用の画像信号として外部の解析エンジンに送信する第1処理と、
    前記解析エンジンから受信したイベント抽出情報を受信し、該イベント抽出情報を用いて、クリップ画像の設定情報を生成する第2処理と、
    を行うイベント解析部を備え、
    前記イベント解析部は、前記第2処理において、
    イベント抽出に関する評価値を含む前記設定情報を生成する
    情報処理装置。
  13. 前記イベント解析部は、前記解析エンジンから受信したイベント抽出情報として、同じイベントを対象とする複数のイベント抽出情報が存在する場合、そのイベントに関するクリップ画像の設定情報について、前記評価値を上げるようにする
    請求項12に記載の情報処理装置。
  14. 前記イベント解析部は、イベント抽出情報で示されるシーンについての撮像装置の動作情報に基づいて、当該イベント抽出情報に基づく前記設定情報についての前記評価値を変更するようにする
    請求項12に記載の情報処理装置。
  15. 受信した画像信号について、リアルタイム処理用の画像信号として外部の解析エンジンに送信する第1処理と、
    前記解析エンジンから受信したイベント抽出情報を受信し、該イベント抽出情報を用いて、クリップ画像の設定情報を生成する第2処理と、
    を行うイベント解析部を備え、
    接続された画像システム内の機器からフィードバック情報を受信して所定の処理を行うフィードバック受信処理部を備えた
    情報処理装置。
  16. 前記フィードバック情報は、使用されたクリップ画像の情報を含む
    請求項15に記載の情報処理装置。
  17. 前記フィードバック受信処理部は、前記所定の処理として、撮像装置の動作制御を行う
    請求項15に記載の情報処理装置。
  18. 受信した画像信号について、リアルタイム処理用の画像信号として外部の解析エンジン
    に送信する第1処理と、
    前記解析エンジンから受信したイベント抽出情報を受信し、該イベント抽出情報を用い
    て、クリップ画像の設定情報を生成する第2処理と、を情報処理装置が行い、
    前記第1処理において、受信した画像信号を、一定又は不定の時間長の画像期間に分割して画像ファイルとし、解析エンジンに送信する処理が行われる
    情報処理方法
  19. 受信した画像信号について、リアルタイム処理用の画像信号として外部の解析エンジン
    に送信する第1処理と、
    前記解析エンジンから受信したイベント抽出情報を受信し、該イベント抽出情報を用い
    て、クリップ画像の設定情報を生成する第2処理と、を情報処理装置に実行させ、
    前記第1処理において、受信した画像信号を、一定又は不定の時間長の画像期間に分割して画像ファイルとし、解析エンジンに送信する処理を前記情報処理装置に実行させる
    プログラム
JP2020511612A 2018-04-03 2019-01-29 情報処理装置、情報処理方法、プログラム Active JP7235043B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018071706 2018-04-03
JP2018071706 2018-04-03
PCT/JP2019/002873 WO2019193821A1 (ja) 2018-04-03 2019-01-29 情報処理装置、情報処理方法、プログラム

Publications (2)

Publication Number Publication Date
JPWO2019193821A1 JPWO2019193821A1 (ja) 2021-04-15
JP7235043B2 true JP7235043B2 (ja) 2023-03-08

Family

ID=68100435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020511612A Active JP7235043B2 (ja) 2018-04-03 2019-01-29 情報処理装置、情報処理方法、プログラム

Country Status (5)

Country Link
US (1) US11521387B2 (ja)
EP (1) EP3780593A4 (ja)
JP (1) JP7235043B2 (ja)
CN (1) CN111919436A (ja)
WO (1) WO2019193821A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11521387B2 (en) * 2018-04-03 2022-12-06 Sony Corporation Information processing apparatus and information processing method
WO2022230291A1 (ja) * 2021-04-26 2022-11-03 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299010A (ja) 2002-04-05 2003-10-17 Sony Corp 映像コンテンツ編集支援システム,撮像装置,編集者端末装置,記録媒体,コンピュータプログラム,映像コンテンツ編集支援システム,
JP2005295296A (ja) 2004-04-01 2005-10-20 Fujitsu Ltd ハイライトシーン抽出装置およびハイライトシーン配信システム
US20140315610A1 (en) 2012-02-23 2014-10-23 Playsight Interactive Ltd. Smart court system
JP2015139016A (ja) 2014-01-20 2015-07-30 富士通株式会社 抽出プログラム、方法、及び装置、並びに野球映像メタ情報作成装置、方法、及びプログラム
JP2017055175A (ja) 2015-09-07 2017-03-16 キヤノン株式会社 画像処理装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007274400A (ja) 2006-03-31 2007-10-18 Matsushita Electric Ind Co Ltd スポーツ映像のイベント区間補正装置およびイベント区間補正方法
US20110119716A1 (en) 2009-03-12 2011-05-19 Mist Technology Holdings, Inc. System and Method for Video Distribution Management with Mobile Services
JP2012084979A (ja) 2010-10-07 2012-04-26 Sony Corp 情報処理装置及び方法、プログラム、並びに情報処理システム
JP5962916B2 (ja) 2012-11-14 2016-08-03 パナソニックIpマネジメント株式会社 映像監視システム
US9449229B1 (en) * 2014-07-07 2016-09-20 Google Inc. Systems and methods for categorizing motion event candidates
US11521387B2 (en) * 2018-04-03 2022-12-06 Sony Corporation Information processing apparatus and information processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299010A (ja) 2002-04-05 2003-10-17 Sony Corp 映像コンテンツ編集支援システム,撮像装置,編集者端末装置,記録媒体,コンピュータプログラム,映像コンテンツ編集支援システム,
JP2005295296A (ja) 2004-04-01 2005-10-20 Fujitsu Ltd ハイライトシーン抽出装置およびハイライトシーン配信システム
US20140315610A1 (en) 2012-02-23 2014-10-23 Playsight Interactive Ltd. Smart court system
JP2015139016A (ja) 2014-01-20 2015-07-30 富士通株式会社 抽出プログラム、方法、及び装置、並びに野球映像メタ情報作成装置、方法、及びプログラム
JP2017055175A (ja) 2015-09-07 2017-03-16 キヤノン株式会社 画像処理装置

Also Published As

Publication number Publication date
CN111919436A (zh) 2020-11-10
US20210117689A1 (en) 2021-04-22
WO2019193821A1 (ja) 2019-10-10
US11521387B2 (en) 2022-12-06
JPWO2019193821A1 (ja) 2021-04-15
EP3780593A1 (en) 2021-02-17
EP3780593A4 (en) 2021-03-03

Similar Documents

Publication Publication Date Title
JP7095677B2 (ja) 情報処理装置、情報処理方法、プログラム
JP7283037B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN108027238A (zh) 成像装置
JP6950706B2 (ja) 情報処理装置および方法、並びにプログラム
JP7235043B2 (ja) 情報処理装置、情報処理方法、プログラム
CN105083122A (zh) 立体摄像头、车辆驾驶辅助装置及车辆
WO2020045539A1 (ja) 固体撮像装置、情報処理装置、情報処理システム、情報処理方法及びプログラム
US20240346299A1 (en) Solid-state image capturing system, solid state image capturing device, information processing device, image processing method, information processing method, and program
WO2020027233A1 (ja) 撮像装置及び車両制御システム
JP7111098B2 (ja) ぶれ補正装置及び撮像装置
US11889177B2 (en) Electronic device and solid-state imaging device
CN110383818A (zh) 成像设备、视频信号处理设备和视频信号处理方法
CN110447221B (zh) 图像处理装置、图像处理方法和电子设备
JP7306269B2 (ja) 制御装置と制御方法およびプログラム
WO2020027229A1 (ja) 固体撮像装置および電子機器
JPWO2018180570A1 (ja) 固体撮像素子、電子機器、および半導体装置
JP6646347B2 (ja) 固体撮像装置および電子機器
WO2020027161A1 (ja) 積層型受光センサ及び電子機器
JP2020072457A (ja) 映像処理装置、映像処理方法、およびプログラム
WO2021029252A1 (ja) 撮像装置および撮像方法
WO2020027230A1 (ja) 積層型受光センサ及び車載撮像装置
US20240305882A1 (en) Imaging device, imaging method, and program
WO2019082775A1 (ja) 画像処理装置、画像処理方法および撮像装置
KR20160083223A (ko) 노면 영상 생성 시스템 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221122

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230206

R151 Written notification of patent or utility model registration

Ref document number: 7235043

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151