JP6447515B2 - 情報処理装置、記録媒体および情報処理方法 - Google Patents

情報処理装置、記録媒体および情報処理方法 Download PDF

Info

Publication number
JP6447515B2
JP6447515B2 JP2015554626A JP2015554626A JP6447515B2 JP 6447515 B2 JP6447515 B2 JP 6447515B2 JP 2015554626 A JP2015554626 A JP 2015554626A JP 2015554626 A JP2015554626 A JP 2015554626A JP 6447515 B2 JP6447515 B2 JP 6447515B2
Authority
JP
Japan
Prior art keywords
image
angle
composition
unit
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015554626A
Other languages
English (en)
Other versions
JPWO2015098251A1 (ja
Inventor
木村 隆臣
隆臣 木村
卓 青木
卓 青木
功誠 山下
功誠 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015098251A1 publication Critical patent/JPWO2015098251A1/ja
Application granted granted Critical
Publication of JP6447515B2 publication Critical patent/JP6447515B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30224Ball; Puck
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Description

本開示は、情報処理装置、記録媒体および情報処理方法に関する。
これまでに、センシングや解析を利用して、ユーザの運動を支援する技術が多く開発されてきている。かかる技術として、例えば、テニス、バドミントン、卓球、ゴルフ、野球など、打具を用いてボールを打つスポーツにおいて、ボールが打具にヒットした回数やヒットした位置を検出し、ユーザに情報として呈示するものがある。このような技術の例として、例えば特許文献1には、テニスラケットの打面やその周辺にセンサを配置し、打面にボールがヒットしたことを検出してその回数や位置をユーザに通知する技術が記載されている。
特開昭59−194761号公報
上記の特許文献1に記載の技術では、テニスラケットの打面上の各位置に対応して多数のセンサが配置される。これによって、打面にボールがヒットした回数のみならず打面のどこにボールがヒットしたかをも検出することが可能である。しかしながら、このような多数のセンサは、ユーザが打具を購入後に取付けるには手間がかかりすぎる。予めセンサが組み込まれた打具を販売してもよいが、打具の価格が上昇し、またユーザは打具の買い替えがしづらくなる。また、数千分の1のフレームレートで撮影可能なハイスピードカメラを利用してボールが衝突する瞬間を撮影し、ボールがヒットした位置を画像から確認する方法も考えられるが、ハイスピードカメラは高価であり、また操作も煩雑であるため、ユーザが手軽に利用することは難しい。
一方、デジタルカメラや、スマートフォンなどの端末装置に搭載されたカメラを使用して、プレー中の画像を撮影することも一般的になってきている。しかしながら、このようなカメラを使用した画像は、フレームレートが低く、またユーザやボールに対して一定した構図で撮影されるわけではないため、例えば上記のハイスピードカメラを用いて撮影された画像と同様の解析を実施することは困難である。
そこで、本開示では、撮像装置によって取得される画像の構図を指定することによって、有効な解析が可能な画像を簡便に入手することを可能にする、新規かつ改良された情報処理装置、記録媒体および情報処理方法を提案する。
本開示によれば、実空間での位置関係が既知である少なくとも2つの点の、撮像装置によって取得された画像での位置に基づいて上記画像の画角を推定する画角推定部と、上記画角に応じて規定される、被写体と上記撮像装置との位置関係が満たされるように、上記画像の構図を指定する情報を出力する構図指定情報出力部とを備える情報処理装置が提供される。
また、本開示によれば、実空間での位置関係が既知である少なくとも2つの点の、撮像装置によって取得された画像での位置に基づいて上記画像の画角を推定する機能と、上記画角に応じて規定される、被写体と上記撮像装置との位置関係が満たされるように、上記画像の構図を指定する情報を出力する機能とをコンピュータに実現させるためのプログラムが格納された記録媒体が提供される。
また、本開示によれば、プロセッサが、実空間での位置関係が既知である少なくとも2つの点の、撮像装置によって取得された画像での位置に基づいて上記画像の画角を推定することと、上記画角に応じて規定される、被写体と上記撮像装置との位置関係が満たされるように、上記画像の構図を指定する情報を出力することとを含む情報処理方法が提供される。
以上説明したように本開示によれば、撮像装置によって取得される画像の構図を指定することによって、有効な解析が可能な画像を簡便に入手することができる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係るシステム構成の例を示す図である。 本開示の一実施形態に係るシステムの概略的な装置構成を示すブロック図である。 本開示の一実施形態における処理部の構成を示す概略的なブロック図である。 本開示の一実施形態における画角の推定について説明するための図である。 本開示の一実施形態における画角の推定の処理の例を示すフローチャートである。 本開示の一実施形態における構図の指定について説明するための図である。 本開示の一実施形態におけるガイドの表示について説明するための図である。 本開示の一実施形態における構図の指定の処理の例を示すフローチャートである。 本開示の一実施形態において、構図の指定のために表示される画像の例を示す図である。 本開示の一実施形態における処理部のさらなる構成要素を示す概略的なブロック図である。 本開示の一実施形態における録画の制御の例について説明するための図である。 本開示の一実施形態における解析区間とは異なる区間の画像再生の例について説明するための図である。 本開示の一実施形態における解析中の画像表示の第1の例を示す図である。 本開示の一実施形態における解析中の画面表示の第2の例を示す図である。 本開示の一実施形態における解析中の画面表示の第3の例を示す図である。 本開示の実施形態に係るセンサ装置のハードウェア構成の例を示す図である。 本開示の実施形態に係る解析装置のハードウェア構成の例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.システム構成
2.処理部の構成
2−1.画角推定部
2−2.構図指定情報出力部
2−3.画像解析部
3.処理部のさらなる構成要素
3−1.センサデータを利用した録画の制御
3−2.解析区間とは異なる区間の画像再生
3−3.解析中の画像表示
3−4.解析結果の表示
4.ハードウェア構成
5.補足
(1.システム構成)
図1は、本開示の一実施形態に係るシステム構成の例を示す図である。図1を参照すると、システム10は、センサ装置100と、スマートフォン200と、サーバ300とを含む。
センサ装置100は、テニスのラケットRに装着される。センサ装置100は、例えば振動センサを備え、ラケットRにボールが衝突したことによってラケットRに発生する振動を検出する。振動センサによって取得された振動データは、例えばBluetooth(登録商標)などの無線通信によってスマートフォン200に送信される。また、センサ装置100は、加速度センサや角速度センサ、地磁気センサなど(例えば9軸モーションセンサ)を備え、ラケットRの加速度や角速度、傾きなどを検出してもよい。これらのセンサによって取得されたデータも、無線通信によってスマートフォン200に送信される。
スマートフォン200は、センサ装置100から送信されたデータを受信する。スマートフォン200は、受信したデータに基づいて解析処理を実行してもよい。この場合、スマートフォン200は、解析結果をユーザに向けて出力するとともに、サーバ300にアップロードしてもよい。あるいは、スマートフォン200は、受信したデータをサーバ300に転送してもよい。この場合、スマートフォン200は、サーバ300で実行された解析処理の結果を受信し、ユーザに向けて出力してもよい。
また、図示された例において、スマートフォン200は、テニスをプレーしているユーザを被写体として含む画像を取得することが可能なカメラを備える。後述するように、本実施形態では、カメラによって取得される画像の構図を指定する情報が出力されるが、この出力はスマートフォン200によって実行されうる。例えば、スマートフォン200のディスプレイには、カメラによって撮像されている画像がスルー画像として表示され、スルー画像に構図を指定する情報が重畳表示されてもよい。このような情報の具体的な例については後述する。なお、スマートフォン200は、撮像機能および出力機能を備える他の装置、例えばタブレット端末やデジタルカメラなどによって代替されてもよい。スマートフォン200は、例えば自ら撮像画像を解析することによって構図を指定する情報を生成してもよいし、構図を指定する情報を生成するための処理をサーバ300に依頼してもよい。
なお、別の例では、画像の構図を指定する情報を出力するスマートフォン200のような端末装置と、画像を取得する撮像装置とが別個の装置であってもよい。例えば、システム10はスマートフォン200とは別にデジタルカメラを含み、デジタルカメラによって取得される画像の構図を指定する情報がスマートフォン200を介して生成されてもよい。この場合、デジタルカメラからは、取得された画像(例えばスルー画像)のデータがスマートフォン200に送信され、スマートフォン200は画像の解析によって構図を指定する情報を生成する。あるいは、スマートフォン200は画像のデータをさらにサーバ300に転送し、構図を指定する情報の生成を依頼する。生成された情報はスマートフォン200によって出力されるか、スマートフォン200からデジタルカメラに送信されてデジタルカメラから出力される。スマートフォン200自体が、情報処理機能を有するデジタルカメラによって代替されうることは上述の通りである。
サーバ300は、スマートフォン200とネットワークを介して通信し、センサ装置100において取得されたデータの解析結果またはデータそのものを受信する。また、サーバ300は、スマートフォン200から撮像された画像のデータを受信してもよい。サーバ300は、スマートフォン200からアップロードされた解析結果、または自ら算出した解析結果を保存し、必要に応じてスマートフォン200などのユーザが使用する端末装置に送信する。また、サーバ300は、解析結果またはデータを提供したユーザ以外のユーザが使用する端末装置に解析結果を送信し、解析結果をユーザ間で共有することを可能にしてもよい。
図2は、本開示の一実施形態に係るシステムの概略的な装置構成を示すブロック図である。図2を参照すると、システム10は、センサ装置100と、スマートフォン200と、サーバ300とを含む、なお、それぞれの装置を実現する情報処理装置のハードウェア構成例については後述する。
センサ装置100は、センサ110と、処理部120と、送信部130とを備える。センサ110は、例えば振動センサ、角速度センサ、角速度センサ、および/または地磁気センサなど(例えば9軸モーションセンサ)を含む。処理部120は、例えばCPUなどのプロセッサによって実現され、センサ110によって取得されたデータを処理する。処理部120による処理は、例えばサンプリングやノイズ除去などの前処理であってもよいし、解析処理を含んでもよい。送信部130は、通信装置によって実現され、例えばBluetooth(登録商標)などの無線通信を利用してデータをスマートフォン200に送信する。
スマートフォン200は、受信部210と、処理部220と、記憶部230と、送信部240と、撮像部250と、入力部260と、出力部270とを備える。受信部210は、通信装置によって実現され、センサ装置100からBluetooth(登録商標)などの無線通信を利用して送信されたデータを受信する。さらに、受信部210は、ネットワーク通信を利用してサーバ300から送信されたデータを受信してもよい。処理部220は、例えばCPUなどのプロセッサによって実現され、受信されたデータを処理する。例えば、処理部220は、受信されたデータを一時的に記憶部230に蓄積した後に、送信部240を介してサーバ300に送信してもよい。また、処理部220は、受信または取得されたデータの解析を実行してもよい。記憶部230は、例えばメモリやストレージによって実現される。送信部240は、通信装置によって実現され、例えばインターネットなどのネットワーク通信を利用して音声データ(または解析後のデータ)をサーバ300に送信する。
撮像部250は、例えば撮像素子にレンズなどの光学系を組み合わせたカメラモジュールによって実現され、テニスをプレーしているユーザを被写体として含む画像を取得する。撮像部250は、例えば撮像された画像を起動中は継続的に処理部220に提供する。処理部220は、提供された画像をスルー画像として出力部270に含まれるディスプレイに表示させ、静止画像または動画像の撮影が実行された場合には画像データを記憶部230に格納する。
入力部260は、スマートフォン200に対するユーザの操作入力を受け付ける。入力部260は、例えばディスプレイ上に設けられるタッチパネルやハードウェアボタンなどの入力装置を含んでもよいし、ユーザの音声を操作入力として受け付けるためのマイクロフォンや、ユーザのジェスチャを操作入力として受け付けるためのカメラまたはセンサなどを含んでもよい。出力部270は、スマートフォン200にユーザに向けてさまざまな情報を出力する。出力部270は、例えばディスプレイやスピーカなどを含む。出力部270は、例えば、撮像部250によって取得される画像の構図を指定する情報を出力する。
サーバ300は、受信部310と、処理部320と、記憶部330と、送信部340とを備える。受信部310は、通信装置によって実現され、スマートフォン200からインターネットなどのネットワーク通信を利用して送信されたデータを受信する。処理部320は、例えばCPUなどのプロセッサによって実現され、受信されたデータを処理する。例えば、処理部320は、受信されたデータの処理の解析処理を実行し、解析後のデータをさらに記憶部330に蓄積したり、送信部340を介して出力したりしてもよい。あるいは、処理部320は、スマートフォン200などにおいて既に解析されたデータの蓄積および出力の制御を実行するだけであってもよい。
(2.処理部の構成)
図3は、本開示の一実施形態における処理部の構成を示す概略的なブロック図である。図3を参照すると、本実施形態に係る処理部は、画角推定部510と、構図指定情報出力部520とを含む。処理部は、さらに、画像解析部530を含んでもよい。
ここで、画角推定部510、構図指定情報出力部520、および画像解析部530は、例えば、上記で図2を参照して説明したシステム10において、スマートフォン200の処理部220、またはサーバ300の処理部320において実現される。処理部の全体が単一の装置において実現されてもよいし、1または複数の構成要素がそれぞれ別の装置に分散して実現されてもよい。
(2−1.画角推定部)
画角推定部510は、実空間での位置関係が既知である少なくとも2つの点の、撮像装置によって取得された画像での位置関係に基づいて画像の画角を推定する。この点について、図4および図5を参照してさらに説明する。
図4は、本開示の一実施形態における画角の推定について説明するための図である。図4には、スマートフォン200の撮像部250(撮像装置)と、撮像部250によって取得される画像の2つの画角A1,A2とが示されている。画角A1,A2は互いに異なり、画角A1の方が画角A2よりも広い。このような画角の相違は、例えば撮像装置を構成する撮像素子やレンズを含む光学系の配置によって生じる。また、同じ撮像装置であっても、例えば画像の解像度を変更したり、アスペクト比を変更したり、ズーム操作をしたりすれば、画角は変化する。
例えば、画角推定部510は、撮像部250と同じスマートフォン200において処理部220によって実現されうるが、その場合であっても、上記のような設定情報のすべてを撮像部250から内部的に取得することが容易ではない。画角推定部510が実現される装置と撮像装置とが別個である場合はなおさら、画角を規定する上記のような設定情報のすべてを取得することは容易ではない。
そこで、本実施形態では、画角推定部510が、テニスコートのサイドラインとネットとの交点P1,P4と、シングルス用のサイドラインとネットとの交点P2,P3の画像内での位置に基づいて、画像の画角を推定する。これらの点P1〜P4は、ルールに従って規定されたテニスコート上の点であるため、その位置関係は既知である。それゆえ、例えば、撮像装置(撮像部250)を所定の位置(例えばテニスコートのベースラインの中央上)に配置した上で点P1〜P4の方向の画像を撮像すれば、画像における点P1〜P4の位置に基づいて、画像の画角を推定することができる。
より具体的には、例えば、撮像された画像の右端に近い部分に点P1,P2が、左端に近い部分に点P3,P4がそれぞれ映っている場合、画角推定部510は、画角がA1に近いことを推定できる。また、撮像された画像の右端に近い部分に点P2が、左端に近い部分に点P3が映っていて、点P1,P4は画像に映っていない場合、画角推定部510は、画角がA2に近いことを推定できる。点P2と点P3との間の距離が既知であることから、少なくとも点P2と点P3とが画像に含まれれば、画角を推定することが可能である。ただし、点P1〜P4のすべてが画像に含まれる方が、推定の精度は高くなる。
図5は、本開示の一実施形態における画角の推定の処理の例を示すフローチャートである。図5を参照すると、まず、画角推定部510は、スマートフォン200の出力部270に含まれるディスプレイに、スルー画像を表示させる(S101)。スルー画像は、撮像部250、または他の撮像装置によって取得された実空間の画像である。なお、スルー画像は、S101に先立って既に表示されていてもよい。次に、画角推定部510は、ディスプレイに表示されたスルー画像に、画角推定のためのマークを重畳表示させる(S103)。画角推定のためのマークは、例えば上記の例における点P1〜P4に対応する円や十字線などの図形である。
ここで、ユーザが、撮像装置を所定の位置に配置する(S105)。上記の例であれば、ユーザは、テニスコートのベースラインの中央で、ネットの方を向けて撮像装置(撮像部250を含むスマートフォン200、または他の撮像装置)を配置する。さらに、ユーザは、スマートフォン200の入力部260に含まれるディスプレイ上のタッチパネルを操作して、S103において重畳表示されたマークを移動させ、スルー画像内での所定の点に一致させる(S107)。例えば、上記の例における点P1〜P4の場合であれば、ユーザは、ディスプレイに表示された4つのマークを、それぞれサイドラインおよびシングルス用のサイドラインとネットとの4つの交点に一致させる。
次に、画角推定部510は、スルー画像における所定の点の位置と、ユーザによって移動されたマークの位置とが一致したか否かを判定する(S109)。ここで、画角推定部510がスルー画像における所定の点の位置を画像解析によって特定可能ではない場合、タッチパネルなどの入力部260を介したユーザの操作に基づいて、所定の点の位置とマークの位置とが一致したことが判定されてもよい。また、画角推定部510がスルー画像における所定の点の位置を画像解析によって特定可能である場合、画角推定部510は所定の点の位置とマークの位置とが一致したことを自動的に判定し、一致したと判定された場合にユーザに対して画角を確定してよいかを確認するダイアログなどを出力してもよい。
あるいは、画角推定部510がスルー画像における所定の点の位置を画像解析によって特定可能である場合、画角推定部510はS107のユーザの操作を代行し、自動的にマークを移動させてもよい。この場合、例えば、S105でユーザの撮像装置を所定の位置に配置した時点で入力部260を介して画角特定を開始させるためのユーザ操作が実行され、S107以降のステップがすべて自動的に実行されてもよい。あるいは、S107において自動的に移動されたマークの位置とスルー画像における所定の点の位置との関係をユーザが確認し、これらの位置が一致していると認められた場合に、S109で位置が一致したことを示すユーザ操作を実行してもよい。
S109において、スルー画像における所定の点の位置と重畳表示されたマークの位置とが一致したと判定された場合、画角推定部510は、画像の横幅の実空間における距離を算出する(S111)。例えば、上記の例における点P1〜P4の場合であれば、点P1〜P4の相互間の実空間での距離と、画像内でのこれらの点の相互間の距離とを比較することにより、点P1〜P4を含む面における、画像の実空間に対する縮尺を算出することができる。これにより、当該面における画像の横幅の実空間における距離を算出することができる。この算出結果は、例えば、画像における1ピクセルを実空間の距離単位(例えばメートル)に換算するための係数として表現されてもよい。
次に、画角推定部510は、撮像装置の位置から所定の点までの距離に基づいて画角を推定する(S113)。S105において、撮像装置は所定の位置、より具体的には例えばテニスコートのベースラインの中央に配置されている。従って、点P1〜P4を含む面と撮像装置との間の距離は既知である。それゆえ、画角推定部510は、例えば図4に示された画角A1,A2のような形で画像の画角を推定することが可能になる。画角が推定されると、撮像装置が、実空間においてどこまでの範囲を画像に収めることができるかを判定することができる。
以上、画角推定部510が画像の画角を推定する処理について説明した。本実施形態では、このようにして、画角推定部510が、実空間の位置関係が既知である2つの点の、撮像装置によって取得された画像での位置に基づいて画像の画角を推定する。画角推定部510は、少なくとも2つの点を含む第1の平面的または立体的なオブジェクトの像(例えば、上記の例におけるテニスコートとネットを含む像)の画像での位置に基づいて画像の画角を推定してもよい。ここで、第1の平面的または立体的なオブジェクトは、コート、フィールド、またはコース(例えば上記の例におけるテニスコート)を規定する線を含んでもよい。
また、他の例として、画角推定部510は、少なくとも2つの点を含む軌道を通って落下するオブジェクト(例えばボール)の画像での位置変化に基づいて画像の画角を推定してもよい。よく知られている通り、落下するオブジェクト(投げ上げられて見かけ上は上に向かっているものを含む)には、オブジェクトの質量や形状に関わらず同じ重力加速度が作用しているため、同じ初速であれば時間ごとの位置変化は同じになる。従って、例えば、オブジェクトの初速が既知であれば落下中の2つの時点、初速が未知であれば落下中の3つの時点の間での画像におけるオブジェクトの位置の変化量を測定すれば、上記の例と同様にして、オブジェクトの落下軌道を含む面における画像の実空間に対する縮尺を算出することができ、さらに撮像装置の位置からのオブジェクトの落下軌道までの距離に基づいて画像の画角を推定することができる。
さらに、他の例として、画角推定部510は、共通する少なくとも2つの点を含む画像を3つ以上の異なる位置から撮像することによって、撮像装置によって取得される画像の画角を推定してもよい。上記の例では、位置関係が既知である少なくとも2つの点を含む画像を、これらの点との位置関係が既知である位置から撮像することによって、単一の画像から画角が推定された。これに対して、位置関係が既知である少なくとも2つの点との位置関係が未知であっても、これらの点を共通して含む画像を3つ以上の異なる位置から撮像すれば、三角測量の原理により、それぞれの撮像位置の関係を算出することができ、さらに画像の画角を推定することができる。
(2−2.構図指定情報出力部)
再び図3を参照して、構図指定情報出力部520は、画角推定部510によって推定された画角に応じて規定される、被写体と撮像装置との位置関係が満たされるように、画像の構図を指定する情報を出力する。この点について、図6〜図9を参照してさらに説明する。
図6は、本開示の一実施形態における構図の指定について説明するための図である。図6には、スマートフォン200の撮像部250(撮像装置)と、撮像部250によって取得される画像の画角Aに含まれるプレーヤPおよびボールBとが示されている。図示された例において、撮像部250によって取得される画像は、プレーヤPがボールBを打つプレー(例えばテニスのサーブ)を解析するために利用される。
構図指定情報出力部520は、上記のような解析のために最適化された構図で画像を撮像するための情報を出力する。以下、最適化された構図について、テニスのサーブの場合を例として説明するが、他のプレー、他の球技、およびスポーツ以外の他の動作についても同様に構図が最適化されうる。
例えば、構図は、(1)トス中のボールが映るように最適化される。より具体的には、プレーヤPによってトスされたボールBがフレームアウトしないように、プレーヤPをなるべく画像の下側に配置し、画像上方の空間を広くとる。
また、例えば、構図は、(2)ボールのインパクトポイントが映るように最適化される。より具体的には、プレーヤPがラケットでボールBを打つことが想定されるプレーヤPの近傍を画像に収める。
また、例えば、構図は、(3)インパクト後のボールがある程度の時間にわたって映るように最適化される。より具体的には、インパクト後のボールBが画角内を移動する距離(図6に示す距離D)がなるべく長く、または所定の距離以上になるように、プレーヤPを画像の右側(図示された例のように右から左に打つ場合)に配置する。例えば、インパクト後のボールBの速度などを画像の解析に基づいて算出する場合、ある程度の数のフレームにわたってインパクト後のボールが映っていることが望ましいため、この観点からの最適化は重要である。
また、例えば、構図は、(4)インパクト後のボールの移動方向に対する角度が直角に近づくように最適化される。より具体的には、インパクト後のボールの予想される平均的な軌道に対する撮像部250の角度を直角に近づける。例えば、インパクト後のボールBの移動方向に対する角度が直角に近づくほど、フレーム間でのボールBのトラッキングがしやすくなり、速度の算出の精度も向上する。
例えば上記のように最適化された構図は、画像の画角によって異なりうる。例えば、構図指定情報出力部520が、画像の中でプレーヤPが配置されるべき位置をスルー画像への重畳表示などによって指定したとしても、画像の画角が異なれば、必ずしも上記の(1)〜(4)のような最適化が実現されるとは限らない。例えば、ある画角の画像で上記の(3)および(4)を実現した構図を、そのまま画角が異なる他の画像、例えば横幅がより狭い画像に適用すると、画像の横幅が狭まったことによって図6に示す距離Dが小さくなり、(3)が実現されなくなってしまう可能性がある。このような場合、後者の画像では、例えば(4)をある程度犠牲にした上で(ボールの移動方向に対して角度がついてしまうことを容認した上で)、(3)を実現することが望ましいと考えられる。
以上のような理由により、本実施形態において、構図指定情報出力部520は、出力する情報によって指定される構図を、画角推定部510によって推定された画角に応じて決定する。構図は、例えば、画角の範囲(例えば画像の横幅の距離に応じて設定される)ごとに予め用意されていてもよいし、推定された画角に応じて算出されてもよい。構図は、例えば、画像におけるプレーヤPの立ち位置と、地面に対する撮像部250の角度によって表現される。
図7は、本開示の一実施形態におけるガイドの表示について説明するための図である。図7には、スルー画像PIC1,PIC2においてそれぞれ表示されるガイドが示されている。図示された例において、ガイドは、ガイド線G(G1,G2)と、プレーヤの立ち位置PS(PS1,PS2)とを含む。
上記のように、例えばスマートフォン200の出力部270に含まれるディスプレイに表示されるスルー画像PICには、ガイド線Gと、プレーヤ立ち位置PSとが重畳表示される。ユーザがスマートフォンを移動させ、立ち位置PSをプレーヤPの足元に、ガイド線Gをテニスコートのラインにそれぞれ重ね合わせることによって、構図指定情報出力部520によって指定された構図が実現される。ガイド線Gとプレーヤ立ち位置PSとを含むガイドは、構図指定情報出力部520によって出力される、画像の構図を指定する情報の一例である。
ここで、図示された例において、スルー画像PIC1とスルー画像PIC2とは、それぞれ画角が異なる画像である。従って、上述のように、それぞれの画像において実現されるべき構図は異なる。それゆえ、スルー画像PIC1において表示されるガイド線G1および立ち位置PS1と、スルー画像PIC2において表示されるガイド線G2および立ち位置PS2とは、互いに異なる。より具体的には、立ち位置PS1の画像左下端を基準にした座標が(100,400)であるのに対し、立ち位置PS2の画像左下端を基準にした座標は(80,380)である。また、ガイド線G1よりもガイド線G2の方が、画像の水平方向に対して傾いている。
このように異なるガイドが表示されることによって、スルー画像PIC1とスルー画像PIC2とのそれぞれの場合において、プレーヤPの立ち位置やコートのラインをガイドに合わせた場合、撮像部250(撮像装置)の位置および角度は異なりうる。このようにして、構図指定情報出力部520は、画像の画角が異なるそれぞれの場合において、それぞれの画角に適応したより適切な構図を実現することができる。
図8は、本開示の一実施形態における構図の指定の処理の例を示すフローチャートである。図8を参照すると、まず、構図指定情報出力部520は、画角推定部510によって推定された画像の画角に応じて構図を決定する(S201)。構図は、例えば上述の(1)〜(4)のような観点から最適化されたものでありえ、画角ごとに予め用意されたものから選択されてもよいし、画角に応じてその都度算出されてもよい。次に、構図指定情報出力部520は、画角と構図とに基づいて、スルー画像に重畳して表示させるガイドの座標を算出する(S203)。
次に、構図指定情報出力部520は、スマートフォン200の出力部270に含まれるディスプレイに、スルー画像を表示させる(S205)。スルー画像は、撮像部250、または他の撮像装置によって取得された実空間の画像である。なお、スルー画像は、S205に先立って既に表示されていてもよい。さらに、構図指定情報出力部520は、ディスプレイに表示されたスルー画像に、S203において算出された座標に従ってガイドを重畳表示させる(S207)。ガイドは、例えば上記の図7の例に示したように、プレーヤの立ち位置PSと、ガイド線Gとを含んでもよい。
ここで、ユーザが、ガイドの表示に従って、撮像装置を所定の位置に配置する(S209)。上記のように最適な構図は画角ごとに異なるが、撮像装置が配置されるべきおおよその位置は同じである(例えば、図6に示した撮像部250の位置)。そこで、図示された例のように、まずはユーザが撮像装置を画角に関わらず所定の位置に配置し、その後、スルー画像に重畳して表示されているガイドを利用して撮像装置の位置や姿勢を微調整する(S211)手順を採用してもよい。上記の図7の例であれば、ユーザ(撮影者)は、図6に示した撮像部250の位置に立った上で、ディスプレイに立ち位置PSがプレーヤの足元に一致し、ガイド線Gがコートのラインに重なるように、撮像装置の位置および姿勢を微調整してもよい。
次に、構図指定情報出力部520は、スルー画像に表示されたガイドと、ガイドに対応するオブジェクトとが重なり合ったか否かを判定する(S213)。ここで、構図指定情報出力部520がスルー画像におけるオブジェクトの位置や形状を画像解析によって特定可能ではない場合、タッチパネルなどの入力部260を介したユーザの操作に基づいて、ガイドとオブジェクトとが重なり合ったことが判定されてもよい。また、構図指定情報出力部520がスルー画像におけるオブジェクトの位置や形状を画像解析によって特定可能である場合、構図指定情報出力部520はガイドとオブジェクトとが重なり合ったことを自動的に判定し、重なり合ったと判定された場合にユーザに対して構図を確定してよいかを確認するダイアログなどを出力してもよい。S213において、ガイドとオブジェクトとが重なり合っていると判定された場合、構図を指定する処理は終了し、例えば画像の撮像および解析の処理が開始される。
図9は、本開示の一実施形態において、構図の指定のために表示される画像の例を示す図である。図9には、例えばスマートフォン200の出力部270に含まれるディスプレイに表示される画像1100が示されている。画像1100では、テニスコートのどちら側でサーブを打つプレーヤを撮像するかを指定するためのユーザインターフェースが表示されている。構図指定情報出力部520は、例えば、このようなユーザインターフェースを介して入力された情報に基づいて、指定する構図、および該構図を実現するために表示させる情報を選択する。なお、例えば、図示された例において、左側(Left side)を選択した場合と右側(Right side)を選択した場合とでは、構図指定情報出力部520によって表示されるガイドの左右が反転しうる。
以上、構図指定情報出力部520が画像の構図を指定する情報を出力する処理について説明した。本実施形態では、このようにして、構図指定情報出力部520が、画像の画角に応じて規定される、被写体と撮像装置との位置関係が満たされるように、画像の構図を指定する情報を出力する。構図指定情報出力部520は、撮像装置(撮像部250)によって取得されるスルー画像において視認される第2の平面的または立体的なオブジェクト(例えば、上記の例におけるプレーヤやコートのライン)に重ね合わせることによって指定された構図が実現されるガイドを表示させるための情報を出力してもよい。ここで、第2の平面的または立体的なオブジェクトは、コート、フィールド、またはコース(例えば上記の例におけるテニスコート)を規定する線と、コート、フィールド、またはコース上の所定の位置に配置された被写体(例えば上記の例におけるプレーヤ)とを含んでもよい。
また、構図指定情報出力部520は、被写体の近傍の少なくとも3つの点が画像で所定の位置に配置されるように、画像の構図を指定する情報を出力してもよい。上記の例のように、撮像装置(撮影者)の空間における位置が特定されている場合には、2つの点を画像で所定の位置に配置すれば画像の構図が指定できる。また、撮像装置(撮影者)の空間における位置が特定されていない場合であっても、3つの点を画像で所定の位置に配置させることによって、撮像装置(撮影者)の空間における位置を特定した上で、適切な画像の構図を指定することができる。また、被写体は、コートまたはフィールドに配置されたプレーヤと、該プレーヤのプレー(例えば上記の例におけるテニスのサーブ)によって放たれた(打たれた場合、投げられた場合、蹴られた場合などを含む)ボールとを含んでもよい。この場合、構図指定情報出力部520は、当該プレー後の所定の時間、ボールが画像の画角内に位置するように、画像の構図を指定する情報を出力してもよい(例えば、上記の例の(3)に示した構図の最適化)。
また、他の例として、構図指定情報出力部520は、ディスプレイへの表示以外の方法によって、画像の構図を指定する情報を出力してもよい。例えば、構図指定情報出力部520は、音声によって、画像の構図を指定する情報を出力してもよい。この場合、例えば、構図指定情報出力部520は、スルー画像におけるオブジェクトの位置や形状を画像解析によって特定し、ガイドとオブジェクトとのずれ量を算出する。さらに、構図指定情報出力部520は、ずれ量に基づいて、「少し右に移動してください」「少し左に振ってください」などの指示を、例えばスマートフォン200の出力部270に含まれるスピーカから音声によって出力させてもよい。また、例えば屋内などで撮影を実行する場合には、プロジェクタまたはレーザーポインタなどを使用して、実空間にガイドを投影させてもよい。
また、さらに他の例として、構図指定情報出力部520は、撮像部250(撮像装置)が固定されておらず移動する場合に、画像の構図を指定する情報を出力してもよい。例えば、後述する画像解析部530による解析のためには、解析に必要な範囲、例えばテニスのサーブの場合であればプレーヤの近傍とその上方、およびボールが打ち出される方向の空間が画像に含まれていればよく、必ずしも撮像部250は固定されていなくてよい。この場合、画像解析部530は、例えばプレーヤの立ち位置やテニスコートのラインなどを基準にして撮像部250の空間位置や姿勢の変化を算出し、これらに基づいて取得された画像を補正して解析に使用することができる。撮像部250が移動する場合、構図指定情報出力部520は、撮像部250がある程度移動したとしても必要な範囲の画像が取得できるように、所定のマージンを含めて画像の構図を指定する情報を出力してもよい。
(2−3.画像解析部)
再び図3を参照して、画像解析部530は、構図指定情報出力部520が出力した情報によって指定された構図に従って取得された画像について画像解析を実行する。この画像解析によって、例えば、被写体が飛行するオブジェクトを含む場合には、オブジェクトの速度が推定される。また、被写体が自転するオブジェクトを含む場合には、オブジェクトの自転速度が推定されてもよい。被写体が放物運動するオブジェクトを含む場合には、オブジェクトの位置変化量が推定されてもよい。これらの例におけるオブジェクトは、例えばスポーツのプレーにおいて放たれた(打たれた、投げられた、または蹴られた)ボールでありうる。ボールの場合、上記の推定は、ボールスピードの推定、ボールスピンの推定、およびボールがトスされた高さの推定と解釈されてもよい。
このような画像解析は、例えば、取得される画像のフレームレートや解像度が十分に高いような場合には可能であることが知られている。しかし、例えばデジタルカメラやスマートフォンに搭載されたカメラによって取得された画像を用いてこのような画像解析を実行することは困難である。例えば、オブジェクトがフレームレートに対して大きな速度で飛行している場合、少ないフレーム数でオブジェクトがフレームアウトしてしまうと、速度などを算出することは困難である。また、オブジェクトがどのような軌跡で飛行するかが未知であると、画像の全体でオブジェクトを探索しなければならないため、フレーム間でのトラッキングなどの処理が困難である。
これに対して、本実施形態では、画角推定部510が推定した構図に応じて構図指定情報出力部520が指定した最適化された構図に従って取得された画像が、画像解析部530における解析の対象になる。それゆえ、例えば、プレーヤのプレーによって放たれたオブジェクト(ボール)が所定の時間(所定のフレーム数)にわたって画像の画角内に位置するように構図を設定することが可能であり、オブジェクトがインパクトの後早々にフレームアウトしてしまうことを防ぐことができる。また、構図が予め特定されていることによって、画像におけるオブジェクトの軌跡が予測可能であるため、探索の範囲を絞り込むことができ、例えば精度の高いトラッキングなどの処理が可能である。
このように、本実施形態では、撮像装置によって取得される画像の構図を指定することによって、例えばデジタルカメラやスマートフォンに搭載されたカメラによって取得された画像を用いて有効な解析を実施することが可能になりうる。なお、画像解析の具体的な手法については、これまでフレームレートや解像度が十分に高い画像を対象にして実施されてきた手法を応用することが可能であるため、ここでは詳細な説明を省略する。
(3.処理部のさらなる構成要素)
図10は、本開示の一実施形態における処理部のさらなる構成要素を示す概略的なブロック図である。本実施形態における処理部は、例えば、以下で説明する構成要素を、図3を参照して説明した構成要素に加えて、またはこれらに代えて含んでもよい。図10を参照すると、本実施形態に係る処理部は、画像取得部540と、センサデータ取得部550と、記録制御部560と、記憶部565と、解析部570と、表示制御部580とを含みうる。
ここで、画像取得部540と、センサデータ取得部550と、記録制御部560と、解析部570と、表示制御部580とは、例えば、上記で図2を参照して説明したシステム10において、スマートフォン200の処理部220、またはサーバ300の処理部320において実現される。処理部の全体が単一の装置において実現されてもよいし、1または複数の構成要素がそれぞれ別の装置に分散して実現されてもよい。
画像取得部540は、スマートフォン200の撮像部250、または他の撮像装置において撮像された画像を取得する。取得される画像は、例えばプレーヤによる一連のプレーをとらえた動画像でありうる。
センサデータ取得部550は、センサ装置100のセンサ110から出力されたセンサデータを取得する。センサデータは、例えば、プレーヤが使用している用具(例えばラケットR)、またはプレーヤ自身に発生した振動やモーション(加速度、角速度、方位など)を示す。
記録制御部560は、ユーザの操作、および/またはセンサデータ取得部550によって取得されたセンサデータに基づいて、画像取得部540によって取得された画像の記憶部565への記録を制御する。例えば、記録制御部560は、画像取得部540によって取得された画像を一時的に記憶部565に記録し、解析部570による解析の対象になる部分を特定してもよい。また、記録制御部560は、画像取得部540によって取得された画像を一時的に記憶部565に記録し、この画像から表示制御部580によってディスプレイに表示される画像を生成してもよい。
解析部570は、画像取得部540によって取得された画像および/またはセンサデータ取得部550によって取得されたセンサデータに基づく解析処理を実行する。解析部570は、例えば上記で図3を参照して説明した画像解析部530を含んでもよい。解析部570は、例えば、センサデータ取得部550によって取得された振動データと、予め測定されたラケットRの固有振動特性とに基づいて、ラケットRにボールが当たった位置を算出する。また、解析部570は、さらにインパクト前のラケットRの速度に基づいて、インパクト後のボールの速度や回転などを算出してもよい。解析部570は、例えば画像解析部530について既に説明したように、画像取得部540によって取得された画像に基づいて、ボールの速度や回転、軌跡などを算出することも可能である。
表示制御部580は、画像取得部540によって取得された画像を用いて、例えばスマートフォン200の出力部270に含まれるディスプレイに画像を表示させる。例えば、表示制御部580は、画像取得部540によってリアルタイムで取得されている画像を、スルー画像としてディスプレイに表示させてもよい。また、表示制御部580は、記録制御部560によって記憶部565に一時的または継続的に記録された画像を再生してディスプレイに表示させてもよい。また、表示制御部580は、解析部570による各種解析結果をディスプレイに表示させてもよい。
(3−1.センサデータを利用した録画の制御)
記録制御部560は、例えば、センサデータ取得部550によって取得されたセンサデータに基づいて、画像取得部540によって取得された画像の録画(記憶部565への持続的な記録)を制御する。本実施形態では、例えば、センサデータ取得部550によって取得される振動データに基づいて、ラケットRとボールとのインパクトの瞬間を特定することが可能である。そこで、記録制御部560は、例えばインパクトの瞬間、またはインパクトの瞬間から所定時間経過後に録画を停止させてもよい。
また、本実施形態では、例えば、センサデータ取得部550によって取得されるモーションデータ(加速度、角速度、方位など)に基づいて、特定のプレー、またはプレーの予備動作などが開始されたタイミングを特定することも可能でありうる。そこで、記録制御部560は、例えば、プレーヤが特定のプレーの予備動作を開始した場合に録画を開始させてもよい。さらに、上記のようにインパクトの瞬間やインパクトの瞬間から所定時間経過後に録画を停止させれば、録画の開始および終了をいずれも自動化することもできる。
図11は、本開示の一実施形態における録画の制御の例について説明するための図である。図11に示された例では、動画像(継続的に撮像されている)の5番目のフレーム目の時点で、センサデータ取得部550によって取得されるモーションデータに基づいて、サーブの予備動作が開始されたことが検出されている。そこで、記録制御部560は、ここから画像の録画を開始する。なお、図は模式的なものであるため予備動作の開始と録画開始とが同じタイミングで示されているが、実際にはモーションデータの解析と記録制御の実行のための時間が必要であるため、予備動作の開始を示すモーションデータが取得されてから上記の時間が経過した時点で録画が開始されうる。
また、図示された例では、動画像の14番目のフレームの時点で、センサデータ取得部550によって取得される振動データに基づいて、ラケットとボールのインパクトが発生したことが検出されている。そこで、記録制御部560は、インパクトの1秒後の時点にあたる、動画像の17番目のフレームまでで録画を終了する。このような録画の制御によって、例えば、画像として記録したいプレーの区間を過不足なく録画することができ、事後的なユーザの編集の手間を省くことができる。また、例えば、このようにして特定された画像の区間を、例えば解析部570による解析の対象になる解析区間として提供すれば、解析区間を探索する範囲が少なくて済み、処理負荷が低減されうる。
(3−2.解析区間とは異なる区間の画像再生)
記録制御部560は、上述のように、画像取得部540によって取得された画像を一時的に記憶部565に記録し、この画像から表示制御部580によってディスプレイに表示される画像を生成しうる。例えば、この画像は、上記の録画制御の例で説明された、ユーザによる特定のプレーの区間を切り出した動画像であってもよい。ここで、例えば、記録制御部560は、センサデータ取得部550によって取得されたセンサデータに基づいて、画像取得部540によって取得された画像の中から解析部570による解析の対象になる解析区間を特定した場合、同じ区間を表示制御部580が再生する区間として提供してもよいが、当該区間よりも長い区間を表示制御部580が再生する区間としてもよい。
図12は、本開示の一実施形態における解析区間とは異なる区間の画像再生の例について説明するための図である。図12に示された例では、動画像(継続的に撮像されている)の5番目のフレームから17番目のフレームまでが、解析部570による解析区間として記録制御部560によって特定されている。その一方で、記録制御部560は、表示制御部580が解析中に再生する区間として、動画像の1番目のフレームから18番目のフレームまでを特定する。このとき、再生される画像では、解析部570による解析の結果に基づいて、ボールの軌跡Bが表示されてもよい。
なお、図示された例において、動画像は図示された範囲の前後でも継続的に撮像されているため、1番目のフレームと18番目のフレームは、必ずしも動画像の最初と最後のフレームを意味するわけではない。例えば、記録制御部560は、解析区間として特定した区間を所定の長さだけ前後に延長することによって再生区間を特定してもよい。延長の長さは、例えば、解析区間の始点および終点それぞれの、インパクト発生時点からの時間的距離に応じて決定されてもよい。
動画像を画像解析する場合、動画像を構成する各フレームの画像を処理する必要があるため、処理時間が長くなってしまう傾向がある。そこで、上記の例のように、センサデータに基づいて動画像の解析区間を過不足なく設定するとともに、解析の実行中に再生される動画像の再生区間については解析区間よりも長い区間を設定し、ユーザの体感的な解析処理の待ち時間を低減させることができる。
(3−3.解析中の画像表示)
図13は、本開示の一実施形態における解析中の画像表示の第1の例を示す図である。図13に示された例では、例えばスマートフォン200の出力部270に含まれるディスプレイに表示される画像1300において、ボール速度情報1301と、解析中表示1303とが、再生区間の画像から抽出された静止画像に重畳して表示されている。ボール速度情報1301は、例えば、解析部570における画像またはセンサデータに基づく解析処理の結果を利用して表示される。また、ボール速度情報1301は、ボールの進行方向を示す矢印1301aや、ボールの軌跡を示す図形1301bとともに表示されてもよい。ボールの進行方向や、ボールの軌跡、およびボールの速度は、解析処理の進行にともなって順次特定されうる。従って、ボール速度情報1301を構成する要素は、例えば、解析処理において特定されたものから順に段階的に表示されてもよい。
図14は、本開示の一実施形態における解析中の画面表示の第2の例を示す図である。図14に示された例では、例えばスマートフォン200の出力部270に含まれるディスプレイに表示される画像1400において、解析中表示1401とともに、再生区間の画像から切り出された、プレーヤを含む矩形の領域が配列して表示される。これらの画像は、例えば所定の時間間隔で一連のフレーム画像から抽出される。図示された例では4つの画像が配列されているが、より多くの画像が配列されてもよい。また、例えば、多数の切り出された画像が自動的にスクロールして表示されたり、ユーザがタッチパネルなどを介して実行するフリック操作などに応じて画像がスクロールして表示されてもよい。
例えば、上記の構図指定情報出力部520の機能によって、画像取得部540によって取得される画像の構図が既知である場合には、画像解析をしなくても所定のオブジェクトを含む領域、例えばプレーヤを含む領域を画像から切り出すことができる。従って、解析処理の開始後、早い段階で上記の図14に示した画像1400のような表示を実現することができる。
図15は、本開示の一実施形態における解析中の画面表示の第3の例を示す図である。図15に示された例では、例えばスマートフォン200の出力部270に含まれるディスプレイに表示される画像1500において、解析中表示1501とともに、再生区間の画像から抽出された、プレーヤの画像が背景に重ね合わせて表示される。プレーヤの画像は、例えば所定の時間間隔で一連のフレーム画像から抽出された画像から、プレーヤが映っている部分を切り出すことによって取得される。図示された例では5つの画像が重ね合わされているが、より多くの画像が重ね合わされてもよい。また、上記で図13を参照して説明した例のように、ボールの位置や速度などがさらに重畳して表示されてもよい。
上記の画像1500のような表示を実現するためには、各画像においてプレーヤが映っている領域を特定するための画像解析が必要である。従って、画像1500の表示には、例えば画像1400の表示よりも時間がかかる。しかし、例えば上記の構図指定情報出力部520の機能によって、画像取得部540によって取得される画像の構図が既知である場合、画像解析によってプレーヤの像を探索する範囲が限定されるため、画像1500の表示にかかる時間が短縮されうる。
以上で説明した表示は、例えば、いずれも、静止画像を含む画像を表示させている。これによって、例えばプレーの区間を繰り返し動画像で再生するような場合に比べて、ユーザが時間の経過を感じにくく、体感的な解析処理の待ち時間が短縮されうる。
(3−4.解析結果の表示)
また、本実施形態では、解析部570による解析結果を利用して、例えばプレーにおける一連の動きや、それによって実現された結果をより多面的に表現することが可能である。
例えば、表示制御部580が、プレーにおける一連の動きを捉えた動画像を再生する場合、センサデータに基づいてインパクトの瞬間が特定されていることを利用して、再生の途中で再生速度を変更してもよい。例えば、表示制御部580は、インパクトの1秒前までは1倍速、そこからインパクトの瞬間までは1/2倍速、インパクトの瞬間から0.5秒後までは1/10倍速、それ以降は1倍速、といったように再生速度を変更してもよい。これによって、例えばインパクトの前後などの重要な区間では、自動的にスロー再生が実行される。
また、例えば、表示制御部580は、画像解析の結果とセンサデータの解析の結果とを同時に出力してもよい。上述のように、解析部570は、画像取得部540によって取得された画像やセンサデータ取得部550によって取得されたセンサデータに基づいて、プレーに関するさまざまな情報を得ることが可能である。そこで、例えば、画像解析の結果によって得られたボールの位置や速度に加えて、センサデータの解析によって得られたショットパワーやラケットの軌跡、ボールのスピン量などを、同時にディスプレイに表示させるなどして出力してもよい。
また、例えば、記録制御部560は、センサデータの解析によって特定されるインパクトの瞬間を基準にして、一連の動きを捉えた連続写真を生成してもよい。例えば、記録制御部560は、インパクトの瞬間を中心にして、インパクトに近づくほど短い間隔で、インパクトから離れるほど長い間隔で動画像のフレームを抽出して、連続写真を生成してもよい。
また、例えば、表示制御部580は、解析部570による解析結果から抽出される統計指標を出力してもよい。例えば、表示制御部580は、プレーヤの過去のプレーの解析結果に基づいて、トスの安定度や上達度といった統計指標をディスプレイに表示させるなどして出力してもよい。
また、例えば、表示制御部580は、解析部570による解析結果を他のプレーヤと比較した情報を出力してもよい。例えば、表示制御部580は、センサデータの解析によって特定されるインパクトの瞬間を基準にして、複数のプレーヤのプレーをとらえた画像を並行的に再生させてもよい。複数の画像の並行的な再生は、例えば、画像を上下や左右に配列して再生することであってもよいし、画像を透過的に重畳させて再生することであってもよい。これによって、例えば、プレーヤと他のプレーヤ(例えばプロフェッショナル)とのプレーの相違をわかりやすく表現することができ、比較結果に基づくアドバイスをすることも可能になる。
また、例えば、表示制御部580は、プレーにおける一連の動きを捉えた画像を再生するにあたり、センサデータに基づく解析結果を利用してエフェクトをかけてもよい。より具体的には、表示制御部580は、インパクト前、インパクト時、インパクト後でそれぞれ異なるエフェクトを画像または画像の一部(プレーヤやボールの領域)にかけてもよい。また、表示制御部580は、エフェクトの表現を、センサデータに基づく解析結果(例えばラケットやボールの速度)に応じて変化させてもよい。
(4.ハードウェア構成)
次に、図16および図17を参照して、本開示の実施形態に係るセンサ装置および解析装置(上述した例ではスマートフォンまたはサーバ)を実現するためのハードウェア構成の例について説明する。
(センサ装置)
図16は、本開示の実施形態に係るセンサ装置のハードウェア構成の例を示す図である。図16を参照すると、センサ装置100は、センサ101と、CPU(Central Processing Unit)103と、ROM(Read Only Memory)105と、RAM(Random Access Memory)107と、ユーザインターフェース109と、外部記憶装置111と、通信装置113と、出力装置115とを含みうる。これらの要素は、例えばバスによって相互に接続される。
センサ101は、例えば加速度センサ、角速度センサ、振動センサ、地磁気センサ、温度センサ、圧力センサ(押下スイッチを含む)、またはGPS(Global Positioning System)受信機などを含む。センサ101は、カメラ(イメージセンサ)やマイクロフォン(音センサ)を含んでもよい。
CPU103、ROM105、およびRAM107は、例えば外部記憶装置111に記録されたプログラム命令を読み込んで実行することによって、様々な機能をソフトウェア的に実現する。本開示の実施形態では、CPU103、ROM105、およびRAM107によって、例えば、センサ装置100全体の制御などの機能が実現されうる。
ユーザインターフェース109は、センサ装置100へのユーザ操作を受け付ける、例えばボタンやタッチパネルなどの入力装置である。ユーザの操作は、例えば、センサ装置からのセンサ情報の送信の開始や終了を指示するものでありうる。
外部記憶装置111は、センサ装置100に関する各種の情報を記憶する。外部記憶装置111には、例えば、CPU103、ROM105、およびRAM107にソフトウェア的に機能を実現させるためのプログラム命令が格納されてもよく、またセンサ101によって取得されたデータが一時的にキャッシュされてもよい。センサ装置100が打具などに装着されることを考慮すると、外部記憶装置111としては、例えば半導体メモリなどの衝撃に強いものを使用することが望ましい。
通信装置113は、有線または無線の各種通信方式によって後述する解析装置600と通信する。また、通信装置113は、機器間通信によって直接的に解析装置600と通信してもよいし、インターネットなどのネットワークを介して解析装置600と通信してもよい。
出力装置115は、情報を光、音声または画像として出力することが可能な装置で構成される。出力装置115は、例えばセンサ装置100における時刻やプレーイベントの検出を通知する情報を出力してもよいし、解析装置600から受信された解析結果、またはセンサ装置100において算出された解析結果に基づいて、ユーザに対する視覚的または聴覚的な通知を出力してもよい。出力装置115は、例えば、例えばLEDなどのランプ、LCDなどのディスプレイ、スピーカ、またはバイブレータなどを含む。
(解析装置)
図17は、本開示の実施形態に係る解析装置のハードウェア構成の例を示す図である。解析装置600は、本開示の実施形態に係る解析装置、例えば上記で説明したスマートフォン200またはサーバ300を実現しうる。なお、上述のように、解析装置は、センサ装置100によって実現されてもよい。
解析装置600は、CPU601と、ROM603と、RAM605と、ユーザインターフェース609と、外部記憶装置611と、通信装置613と、出力装置615とを含みうる。これらの要素は、例えばバスによって相互に接続される。
CPU601、ROM603、およびRAM605は、例えば外部記憶装置611に記録されたプログラム命令を読み込んで実行することによって、様々な機能をソフトウェア的に実現する。本開示の実施形態では、CPU601、ROM603、およびRAM605によって、例えば、解析装置600全体の制御や、上記の機能構成における処理部の機能などが実現されうる。
ユーザインターフェース609は、解析装置600へのユーザ操作を受け付ける、例えばボタンやタッチパネルなどの入力装置である。
外部記憶装置611は、解析装置600に関する各種の情報を記憶する。外部記憶装置611には、例えば、CPU601、ROM603、およびRAM605にソフトウェア的に機能を実現させるためのプログラム命令が格納されてもよく、また通信装置613が受信したセンサ情報が一時的にキャッシュされてもよい。また、外部記憶装置611には、解析結果のログが蓄積されてもよい。
出力装置615は、情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置615は、例えば、LCD(Liquid Crystal Display)などの表示装置、またはスピーカやヘッドホンなどの音声出力装置などでありうる。出力装置615は、解析装置600の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。
以上、センサ装置100および解析装置600のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
(5.補足)
本開示の実施形態は、例えば、上記で説明したような解析装置(スマートフォンなどの情報処理端末、サーバ、またはセンサ装置)、システム、解析装置またはシステムで実行される情報処理方法、解析装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)実空間での位置関係が既知である少なくとも2つの点の、撮像装置によって取得された画像での位置に基づいて前記画像の画角を推定する画角推定部と、
前記画角に応じて規定される、被写体と前記撮像装置との位置関係が満たされるように、前記画像の構図を指定する情報を出力する構図指定情報出力部と
を備える情報処理装置。
(2)前記画角推定部は、前記少なくとも2つの点を含む第1の平面的または立体的なオブジェクトの像の前記画像での位置に基づいて前記画像の画角を推定する、前記(1)に記載の情報処理装置。
(3)前記第1の平面的または立体的なオブジェクトは、コート、フィールド、またはコースを規定する線を含む、前記(2)に記載の情報処理装置。
(4)前記構図指定情報出力部は、前記撮像装置によって取得されるスルー画像において視認される第2の平面的または立体的なオブジェクトに重ね合わせることによって前記指定された構図が実現されるガイドを表示させるための情報を出力する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)前記第2の平面的または立体的なオブジェクトは、コート、フィールド、またはコースを規定する線と、前記コート、前記フィールド、または前記コース上の所定の位置に配置された前記被写体とを含む、前記(4)に記載の情報処理装置。
(6)前記構図指定情報出力部は、前記被写体の近傍の少なくとも3つの点が前記画像で所定の位置に配置されるように、前記画像の構図を指定する情報を出力する、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)前記被写体は、コートまたはフィールドに配置されたプレーヤと該プレーヤのプレーによって放たれたボールとを含む、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)前記構図指定情報出力部は、前記プレー後の所定の時間、前記ボールが前記画像の画角内に位置するように、前記画像の構図を指定する情報を出力する、前記(7)に記載の情報処理装置。
(9)前記画角推定部は、前記少なくとも2つの点を含む軌道を通って落下するオブジェクトの前記画像での位置変化に基づいて前記画像の画角を推定する、前記(1)または(2)に記載の情報処理装置。
(10)前記被写体は、飛翔体を含み、
前記情報処理装置は、前記構図に従って取得された画像に基づいて前記飛翔体の速度を推定する画像解析部をさらに備える、前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(11)前記被写体は、自転するオブジェクトを含み、
前記情報処理装置は、前記構図に従って取得された画像に基づいて前記オブジェクトの自転速度を推定する画像解析部をさらに備える、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)前記被写体は、放物運動するオブジェクトを含み、
前記情報処理装置は、前記構図に従って取得された画像に基づいて前記放物運動するオブジェクトの位置変化量を推定する画像処理部をさらに備える、前記(1)〜(11)のいずれか1項に記載の情報処理装置。
(13)実空間での位置関係が既知である少なくとも2つの点の、撮像装置によって取得された画像での位置に基づいて前記画像の画角を推定する機能と、
前記画角に応じて規定される、被写体と前記撮像装置との位置関係が満たされるように、前記画像の構図を指定する情報を出力する機能と
をコンピュータに実現させるためのプログラムが格納された記録媒体。
(14)プロセッサが、実空間での位置関係が既知である少なくとも2つの点の、撮像装置によって取得された画像での位置に基づいて前記画像の画角を推定することと、
前記画角に応じて規定される、被写体と前記撮像装置との位置関係が満たされるように、前記画像の構図を指定する情報を出力することと
を含む情報処理方法。
10 システム
100 センサ装置
200 スマートフォン
300 サーバ
310 受信部
510 画角推定部
520 構図指定情報出力部
530 画像解析部
540 画像取得部
550 センサデータ取得部
560 記録制御部
565 記憶部
570 解析部
580 表示制御部

Claims (14)

  1. 撮像装置との距離が既知であれば実空間での位置関係が既知である少なくとも2つの点の、該撮像装置との距離が未知であれば実空間での位置関係が既知である少なくとも3つの点の、前記撮像装置によって取得された画像での位置に基づいて前記画像の画角を推定する画角推定部と、
    前記画角に応じて規定される、被写体と前記撮像装置との位置関係及び方向が満たされるように、前記画像の構図を指定する情報を出力する構図指定情報出力部と
    を備える情報処理装置。
  2. 前記画角推定部は、前記少なくとも2つの点を含む第1の平面的または立体的なオブジェクトの像の前記画像での位置に基づいて前記画像の画角を推定する、請求項1に記載の情報処理装置。
  3. 前記第1の平面的または立体的なオブジェクトは、コート、フィールド、またはコースを規定する線を含む、請求項2に記載の情報処理装置。
  4. 前記構図指定情報出力部は、前記撮像装置によって取得されるスルー画像において視認される第2の平面的または立体的なオブジェクトに重ね合わせることによって前記指定された構図が実現されるガイドを表示させるための情報を出力する、請求項1〜3のいずれかに記載の情報処理装置。
  5. 前記第2の平面的または立体的なオブジェクトは、コート、フィールド、またはコースを規定する線と、前記コート、前記フィールド、または前記コース上の所定の位置に配置された前記被写体とを含む、請求項4に記載の情報処理装置。
  6. 前記構図指定情報出力部は、前記被写体の近傍の少なくとも3つの点が前記画像で所定の位置に配置されるように、前記画像の構図を指定する情報を出力する、請求項1〜5のいずれかに記載の情報処理装置。
  7. 前記被写体は、コートまたはフィールドに配置されたプレーヤと該プレーヤのプレーによって放たれたボールとを含む、請求項1〜6のいずれかに記載の情報処理装置。
  8. 前記構図指定情報出力部は、前記プレー後の所定の時間、前記ボールが前記画像の画角内に位置するように、前記画像の構図を指定する情報を出力する、請求項7に記載の情報処理装置。
  9. 前記画角推定部は、初速が既知であれば前記少なくとも2つの点を含む軌道を通り、初速が未知であれば実空間での位置関係が既知である少なくとも3つの点を含む軌道を通って落下するオブジェクトの前記画像での位置変化に基づいて前記画像の画角を推定する、請求項1または2に記載の情報処理装置。
  10. 前記被写体は、飛行するオブジェクトを含み、
    前記情報処理装置は、前記構図に従って取得された画像に基づいて前記オブジェクトの速度を推定する画像解析部をさらに備える、請求項1〜9のいずれかに記載の情報処理装置。
  11. 前記被写体は、自転するオブジェクトを含み、
    前記情報処理装置は、前記構図に従って取得された画像に基づいて前記オブジェクトの自転速度を推定する画像解析部をさらに備える、請求項1〜10のいずれかに記載の情報処理装置。
  12. 前記被写体は、放物運動するオブジェクトを含み、
    前記情報処理装置は、前記構図に従って取得された画像に基づいて前記放物運動するオブジェクトの位置変化量を推定する画像処理部をさらに備える、請求項1〜11のいずれかに記載の情報処理装置。
  13. 撮像装置との距離が既知であれば実空間での位置関係が既知である少なくとも2つの点の、該撮像装置との距離が未知であれば実空間での位置関係が既知である少なくとも3つの点の、前記撮像装置によって取得された画像での位置に基づいて前記画像の画角を推定する機能と、
    前記画角に応じて規定される、被写体と前記撮像装置との位置関係及び方向が満たされるように、前記画像の構図を指定する情報を出力する機能と
    をコンピュータに実現させるためのプログラムが格納された記録媒体。
  14. プロセッサが、撮像装置との距離が既知であれば実空間での位置関係が既知である少なくとも2つの点の、該撮像装置との距離が未知であれば実空間での位置関係が既知である少なくとも3つの点の、前記撮像装置によって取得された画像での位置に基づいて前記画像の画角を推定することと、
    前記画角に応じて規定される、被写体と前記撮像装置との位置関係及び方向が満たされるように、前記画像の構図を指定する情報を出力することと
    を含む情報処理方法。
JP2015554626A 2013-12-24 2014-10-16 情報処理装置、記録媒体および情報処理方法 Expired - Fee Related JP6447515B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013265271 2013-12-24
JP2013265271 2013-12-24
PCT/JP2014/077593 WO2015098251A1 (ja) 2013-12-24 2014-10-16 情報処理装置、記録媒体および情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2015098251A1 JPWO2015098251A1 (ja) 2017-03-23
JP6447515B2 true JP6447515B2 (ja) 2019-01-09

Family

ID=53478130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015554626A Expired - Fee Related JP6447515B2 (ja) 2013-12-24 2014-10-16 情報処理装置、記録媒体および情報処理方法

Country Status (5)

Country Link
US (1) US10083519B2 (ja)
EP (1) EP3089441B1 (ja)
JP (1) JP6447515B2 (ja)
CN (1) CN105850109B (ja)
WO (1) WO2015098251A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7420377B2 (ja) 2020-01-31 2024-01-23 真一 原 テニス技術上達支援データベースの作成方法、および、テニス技術上達支援システム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9848129B2 (en) * 2015-07-08 2017-12-19 Chengdu Sioeye Technology Co., Ltd. Systems and methods for real-time integrating information into videos
JP6643162B2 (ja) * 2016-03-30 2020-02-12 キヤノン株式会社 制御装置、制御方法、撮像システム及びプログラム
CN105999666A (zh) * 2016-06-28 2016-10-12 任有恒 网络智能球拍
WO2018048838A1 (en) * 2016-09-06 2018-03-15 Apple Inc. Still image stabilization/optical image stabilization synchronization in multi-camera image capture
JP7283852B2 (ja) * 2020-02-17 2023-05-30 Kddi株式会社 マルチモーダル行動認識方法、装置およびプログラム
JP7473449B2 (ja) 2020-10-28 2024-04-23 Kddi株式会社 歪曲収差補正装置、方法及びプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59194761A (ja) 1983-04-20 1984-11-05 松下電工株式会社 打撃用具
US5266985A (en) * 1990-07-16 1993-11-30 Nikon Corporation Camera with optimum composition determinator
JPH0473731A (ja) * 1990-07-16 1992-03-09 Nikon Corp 構図の変更を指示するカメラ
JP2002126147A (ja) 2000-10-23 2002-05-08 Sumitomo Rubber Ind Ltd テニス挙動測定方法
AU2002368117A1 (en) * 2002-07-26 2004-02-16 National Institute Of Information And Communications Technology Incorporated Administrative Agency Image recognition apparatus and image recognition program
JP5200780B2 (ja) 2008-09-08 2013-06-05 ソニー株式会社 撮影装置および方法、並びにプログラム
JP2010109567A (ja) * 2008-10-29 2010-05-13 Hitachi Ltd 情報処理装置および情報処理方法
GB2473059A (en) * 2009-08-28 2011-03-02 Sony Corp A method and apparatus for forming a composite image
JP2011151709A (ja) * 2010-01-25 2011-08-04 Olympus Corp 撮像装置
JP2013042250A (ja) * 2011-08-12 2013-02-28 Sony Corp 撮像装置および撮像方法
JP2013074376A (ja) * 2011-09-27 2013-04-22 Sony Corp 撮像ガイド装置、撮像装置、撮像ガイド方法、プログラム
CN102509309B (zh) * 2011-11-04 2013-12-18 大连海事大学 一种基于图像匹配的目标点定位系统
GB2496428B (en) * 2011-11-11 2018-04-04 Sony Corp An apparatus, method and system for detecting the position of a sporting projectile
JP5994306B2 (ja) * 2012-03-15 2016-09-21 ソニー株式会社 情報処理装置、情報処理システムおよびプログラム
JP2013213872A (ja) * 2012-03-30 2013-10-17 Sony Corp 情報処理装置、情報処理方法、及びプログラム
US9385324B2 (en) * 2012-05-07 2016-07-05 Samsung Electronics Co., Ltd. Electronic system with augmented reality mechanism and method of operation thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7420377B2 (ja) 2020-01-31 2024-01-23 真一 原 テニス技術上達支援データベースの作成方法、および、テニス技術上達支援システム

Also Published As

Publication number Publication date
JPWO2015098251A1 (ja) 2017-03-23
CN105850109B (zh) 2019-10-29
US20160321822A1 (en) 2016-11-03
WO2015098251A1 (ja) 2015-07-02
EP3089441A4 (en) 2017-08-02
US10083519B2 (en) 2018-09-25
EP3089441B1 (en) 2020-01-22
EP3089441A1 (en) 2016-11-02
CN105850109A (zh) 2016-08-10

Similar Documents

Publication Publication Date Title
JP6447515B2 (ja) 情報処理装置、記録媒体および情報処理方法
KR101385325B1 (ko) 복수의 카메라로 운동하는 피사체를 촬영하고 그 촬영 이미지에 기초하여 피사체의 실제의 운동 궤적을 획득하기 위한 방법 및 시스템
EP3323240B1 (en) Integrated sensor and video motion analysis method
JP6213146B2 (ja) 情報処理装置、記録媒体、および情報処理方法
US11850498B2 (en) Kinematic analysis of user form
JP5811263B2 (ja) 仮想ゴルフシミュレーション装置及びその方法と、それに用いられるセンシング装置及びセンシング方法
KR101562319B1 (ko) 깊이 정보를 이용한 퍼팅 분석 시스템 및 방법
US20180056125A1 (en) Providing Workout Recap
JP6459979B2 (ja) 解析装置、記録媒体および解析方法
KR20210026483A (ko) 골프 공 타격을 감지하는 방법 및 이를 이용한 골프 스윙 모션 분석 장치
KR101348419B1 (ko) 영상컨텐츠를 제공하는 가상 골프 시뮬레이션 장치 및 그 방법
KR101276054B1 (ko) 공 궤적 추적 시스템
JP2018000959A (ja) ボールの画像撮影のために関心領域を決定するための方法、システム、及び非一時的なコンピュータ読み取り可能な記録媒体
KR20160139634A (ko) 골프공 스핀 계산 방법 및 장치
JP6710961B2 (ja) ゴルフスイングの解析方法
JP6965975B2 (ja) 映像処理装置、マルチカメラシステム、映像処理方法、及び映像処理プログラム
JP7513938B2 (ja) 情報処理方法、情報処理装置、及びプログラム
JP2018082770A (ja) 運動解析装置、運動解析方法及びプログラム
JP2018085574A (ja) 画像処理装置、解析システム、画像処理方法及びプログラム
JP6766707B2 (ja) 映像処理装置、マルチカメラシステム、映像処理方法、及び映像処理プログラム
TW202305664A (zh) 用於感測移動的球的影像分析方法及利用該方法的感測裝置
JP2024525894A (ja) 移動するボールのセンシングのため映像分析方法及びこれを利用したセンシング装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170914

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181119

R151 Written notification of patent or utility model registration

Ref document number: 6447515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

LAPS Cancellation because of no payment of annual fees