JP2020077953A - 画像処理装置 - Google Patents
画像処理装置 Download PDFInfo
- Publication number
- JP2020077953A JP2020077953A JP2018209494A JP2018209494A JP2020077953A JP 2020077953 A JP2020077953 A JP 2020077953A JP 2018209494 A JP2018209494 A JP 2018209494A JP 2018209494 A JP2018209494 A JP 2018209494A JP 2020077953 A JP2020077953 A JP 2020077953A
- Authority
- JP
- Japan
- Prior art keywords
- player
- information
- image processing
- server
- specific target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
特許文献2には、撮像された画像から取得したAF評価値に基づいてフォーカスレンズを駆動し、自動焦点検出制御を行う自動焦点検出装置が記載されている。
またサーバー側では、全方位の映像、試合や競技のフィールドの各種情報を把握することができ、グランド内外の各種の貴重な情報も入手することができるが、従来のシステムではサーバーの活用が十分でないという問題があった。
本発明は、上記、課題を解決し、撮影者や観察者にとって有益な情報をタイムリーに表示できる画像処理装置を提供することを目的とする。
画像を表示する表示手段、
前記表示手段に表示された画像の中から特定の対象を選択する選択手段、
前記選択手段によって選択された前記特定の対象に関する指定情報を生成する指定情報生成手段、
前記指定情報生成手段によって生成された前記指定情報をサーバーに送信する送信手段、
前記サーバーから前記指定情報に基づく前記特定の対象の位置情報を取得する取得手段、
前記取得手段によって取得された前記特定の対象の位置情報に基づき付加情報を前記表示手段に表示する制御手段、を有することを特徴とする。
最初に撮影や映像モニターを支援するための、画像処理装置を用いたシステムの全体像について図1を用いて説明する。
従って、そのような各ユーザーには見えない、わかりにくい情報をサーバーが把握して配信することによって観客に対するサービスを大幅に向上することができる。
105は有線/無線などによるLANやインターネットであり、106は、入力手段111から出力された情報をサーバー110で入力するための接続線である。107は、基地局112への信号を送受信するための接続線、108は、基地局の無線通信を実行するためのアンテナ部である。
すなわち、上記の100番台のブロックは、プロカメラマンや一般観客などによる映像撮影等をサポートするためのブロックである。
201は、イーサネット(登録商標)コントローラであり、204は選手の役割(所謂ポジション)に応じたプレイ位置を検出する検出部である。ここで選手の役割(ポジション)は予め登録等によって設定される。例えば、ラグビーの場合の役割(ポジション)としては、1、3はプロップ、2はフッカー、4、5はロック、6、7はフランカー、8はナンバー8と呼ばれ、9はスクラムハーフ、10はスタンドオフと呼ばれる。また、11、14はウィング、12、13はセンター、15はフルバックと呼ばれる。
これらの選手のいる場所は、セットプレイの時などは、フォワードは、攻撃している前方にいて、バックスは、攻撃している後方にいることが多い。
なお、通常は、背番号から、選手の役割は認識できることが多い。しかしながら、場合によっては、10番の選手が怪我をして、15番の選手がスタンドオフ(10番の位置に入り)、リザーブ選手が、15番に入ることなどがある。ここで、リザーブ選手の背番号は、16から23である。しかし、背番号だけからポジションが確定するわけではない。従って204の検出部では選手の予め設定された役割に応じたプレイ位置を検出し、この検出したプレイ位置の情報は、サーバー110内のCPU211に取り込まれるが、上記の予め設定された役割は競技中に選手交代などによって変更になる場合もある。
207は選手の体格認識部であり、注目選手の予め登録された体格写真情報に基づき前記のような画像認識技術を用いて選手を見つける。
210は各端末401〜403から送られてくる各端末の位置情報と方角情報と画角情報から、各端末の位置と各端末のカメラの向いている方角と画角を検出するカメラ位置情報、方角検出部である。
1101はサーバー110内のデータバスラインである。
図3、図4に示されるデジタルカメラは、動画および静止画の撮影、並びに、撮影情報の記録が可能である。また、図3、図4において、CPU(Central Processing Unit)318、プログラムメモリ319、データメモリ320は重複して示すが、これらは同一のブロックでありそれぞれ1つだけ内蔵されている。
図3において、301はイーサネット(登録商標)コントローラである。302は記憶媒体であり、デジタルカメラで撮影した動画、静止画が所定のフォーマットで格納される。
さらに、操作部入力手段306において、注目選手をサーバーからの位置情報に基づき自動追尾するか否かを選択/設定できる。どの選手を注目選手(特定の対象)に指定するか、注目選手の自動追尾をサーバーからの位置情報に基づき実行するか否かなどの情報は、選択手段としての操作部入力手段306によって生成される。即ち操作部入力手段306は特定の対象に関する指定情報を生成する指定情報生成手段として機能している。
313は選手の背番号検出部であり、注目選手の背番号(もちろん前側の番号でもよい)から前述のような画像認識技術によって選手を見つけるものである。314は端末のレンズの向いている方角を検出する方角検出部である。315は端末の位置情報を例えばGPSなどを用いて検出する位置検出部である。
データメモリ320は、デジタルカメラの設定条件を格納したり、撮影した静止画、動画、さらには、静止画、動画の属性情報などを格納したりするためのものである。
371は、デジタルカメラ自身で注目選手の追跡を行うための追跡部である。ここでいう追跡とは例えば注目選手を囲む枠表示を画面内で移動させるとともに、前記枠によって追尾される注目選手にフォーカスを合わせたり、露出を合わせたりする。
カメラ500からサーバー110には、注目選手指定情報(背番号、選手名などのID情報)を通知する。その際ユーザーは端末の画面上で注目選手の位置をタッチしてもよいし、指を画面にタッチしたまま注目選手の周りを指で囲んでもよい。あるいはメニューで画面上に複数の選手のリストを表示し、その中の注目選手名をタッチしたりしてもよいし、あるいは画面上に文字入力画面を表示し選手名や選手の背番号を入力してもよい。
カメラは、サーバーから送られた位置情報、輪郭情報などをもとに、カメラの表示部の画面で注目選手をより精度高く目立つように表示するとともに注目選手に対してAFやAEを行う。
なお、注目選手指定情報(背番号、選手名指定)を通知する代わりに、例えば注目する建物などを指定した場合には、サーバーは輪郭情報としてその建物の輪郭情報をカメラに送っても良い。
また、本実施例は撮影アシストの例を用いて説明しているが、端末が家庭用のTVであってもよい。即ち、TVを見ている観客が注目選手を指定したら、サーバーがその注目選手の位置情報などをTVに送って注目選手を枠表示等により目立つように表示してもよい。なお、枠だけでなく、カーソル(例えば矢印など)で注目選手を示してもよいし、注目選手位置の領域の色や輝度を他の部分と異ならせてもよい。注目選手が端末の画面外にいる場合には、端末の画面に対してどの方向にずれているかを矢印や文字で表示してもよい。
更に、画面内に注目選手がいる場合には付加情報を画面に表示するように制御し、画面外に注目選手が移動した場合には、矢印等で画面外にいることを表示しないようにユーザーが選択できるようにしてもよい。
あるいは競技の状況を自動的に判断して、注目選手がベンチに下がった場合等には、画面外に注目選手が移動しても、画面外にいることを矢印等で表示しないようにしてもよい。そのように自動的に付加情報の表示を消すモードと消さないモードをユーザーが選択できるようにすると更に使い勝手が向上する。
図8(A)においてにおいてS101は初期化を表している。S102で写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS103に進み、写真撮影が選択されていないとS101に進む。S103ではカメラの設定情報を入手する。S104では注目選手の撮影(指定)が選択されたか否かが判断され、注目選手の撮影が選択されているとS105に進み、注目選手の撮影が選択されていないとS110に進みその他の処理をする。S105は注目選手情報(注目選手のID情報等)とパスワードがあればそれをカメラからサーバーに送る。これによってサーバー側は注目選手の位置情報を検出してカメラに送信する。S106ではサーバーから注目選手の位置情報等をサーバーから受けとる。
S109では注目選手の撮影が終了したか否かが判断され、注目選手の撮影が終了するとS101に進む。注目選手の撮影が継続している場合には、S105に進み、再度、注目選手の情報をサーバーに送り、S106で、注目選手の情報をサーバーから受け取り、再度、注目選手の位置を認識して、注目選手の撮影を継続する。即ち、追跡が失敗した場合はS108でNoとなり、その場合追跡を継続するならS105に戻ってサーバーに位置情報のリクエストを行う。
図8(B)は、カメラ側における注目選手マーク表示制御フローを表している。S120では注目選手の表示部における相対位置を計算して求める。S121では画像表示部にイメージセンサーからのライブビュー画像を表示している状態において、注目選手に位置等を示す付加情報を重畳する。
一方、サーバーで上記変換を実行する場合は、サーバーは、絶対位置情報(X、Y)から個々のカメラのGPS等を用いた位置情報に従い、個々のカメラの相対的な位置情報(X´、Y´)に変換する。サーバーは、個々のカメラに対して、この相対的な位置情報を送り、この相対的な位置情報を受信したカメラは、この相対的な位置情報を個々のカメラ側の表示画面内での位置情報とする。
なお、図7に基づいたカメラ側での制御シーケンスの他の例を図9に示す。図9はカメラ等の端末側の注目選手表示追跡制御フローの他の例を表している。図9において、S101、S102、S103、S104、S105、S106、S107、S107−2、S110は、図8と同一の制御であり説明は省略する。
図10はデジタルカメラの追跡部371の機能構成例を示すブロック図である。追跡部371は、照合部3710と特徴抽出部3711と距離マップ生成部3712からなる。特徴抽出部3711はサーバーから送られた位置情報に基づき、追跡すべき画像領域(被写体領域)を特定する。そしてこの被写体領域の画像から特徴量を抽出する。一方、照合部3710は継続して供給される個々のフレームの撮像画像内で、前記の抽出した特徴量を参照して、前フレームの被写体領域と類似度の高い領域を被写体領域として探索する。なお距離マップ生成部3712により撮像素子からの1対の視差画像(A像とB像)から被写体までの距離情報を取得し、照合部3710における被写体領域の特定精度を上げることもできる。ただし距離マップ生成部3712は必ずしもなくても構わない。
照合部3710が、特徴抽出部3711から供給される画像内の被写体領域の特徴量に基づいて被写体領域と類似度の高い領域を被写体領域として探索する際には例えばテンプレートマッチングやヒストグラムマッチングなどを用いる。
カメラ等の端末から送られてきた注目選手のID情報等に基づき、サーバーは注目選手の画像認識を行う。サーバーはサーバー用の複数台のカメラ(固定されたカメラや移動カメラなど)からの映像をもとに選手の位置情報を検出して、プロカメラマンや観客のカメラ端末などに選手の位置情報を送る。特に、プロカメラマンや観客が撮影を行う際に、サーバーからの注目選手の位置情報があれば注目選手を間違えることなく確実に撮影できる。さらに、カメラでも注目選手の追跡を実施している際に、死角となって選手を見失ったときなどにおいても同様に、サーバーからの情報は重要になる。なお、サーバー側ではサーバー用の複数台のカメラからの映像をもとに選手の位置情報を検出し続ける。
図11において、最初にS201で初期化を行う。次にS202でカメラにおいて写真撮影が選択されたか否かが判断され、写真撮影が選択されるとS203に進み、カメラの設定情報を入手する。このときカメラの設定情報の中にパスワードがあればそれも入手する。写真撮影が選択されていないとS201に進む。S204では、注目選手の撮影(指定)が選択されたか否かが判断され、注目選手の撮影が選択されているとS205に進み、サーバーは、カメラから注目選手のID情報(例えば選手名、背番号など)を受信する。S204で注目選手の撮影が選択されていないとS210に進みその他の処理をする。
図12は背番号情報を用いたサーバーによる注目選手検出制御フローを示す。図12において、S401で、サーバーは注目選手のID情報に基づきデータメモリ213から背番号を取得し、サーバー用の複数台のカメラの映像情報の中からこの背番号を画像認識で探し、その背番号の選手の位置情報を取得する。S402において、更にサーバー用の複数台のカメラの映像から取得された位置情報を総合することにより、注目選手の絶対位置情報を取得する。このようにサーバー用の複数台のカメラの情報を総合することによって、ある背番号の選手の絶対位置情報の精度が向上する。S403では、S402で検出した注目選手の絶対位置をプロカメラマンや観客の保有するカメラ等の端末に対して送信する。S404では、注目選手の追跡が継続しているか否かが判断され、注目選手の追跡が継続しているとS401に戻り、注目選手の追跡が継続していないと図12のフローを終了する。
この例においては、選手自身がユニフォーム等のウエアに位置センサーを内蔵させるか、選手が位置センサーを腕や腰や脚などにベルト等を用いて装着しているものとする。そしてこの位置センサーからの情報をサーバー側へ通信手段により無線で送ることで選手の位置センサーからの信号をサーバー(側の複数のカメラ等)が認識して、位置情報を生成し、サーバーからプロカメラマンや一般観客が保有するカメラへ知らせる。
サーバーのデータメモリ213には、試合にメンバー登録されている選手の過去に撮影した顔情報が複数枚格納されている。さらに、サーバーは、複数台のサーバー用のカメラからの映像をもとに選手の顔情報を検出する手段を有する。そしてサーバーは、前記複数台のサーバー用カメラから検出した顔情報をもとに、試合にメンバー登録されている選手の過去に撮影した顔情報を複数枚の写真と比較して例えばAIを用いて顔認識し、注目選手を検出する。
サーバーのデータメモリ213には、試合にメンバー登録されている選手の、過去に撮影した体格画像情報が複数枚格納されている。また、サーバーは、サーバー用の複数台のカメラからの映像をもとに選手の体格情報を検出する手段を有する。そして、サーバーは、サーバー用の複数台のカメラから検出した体格情報と、試合にメンバー登録されている選手の、過去に撮影した複数枚の体格画像情報と例えばAIを用いて比較して、選手を検出する。
以上、選手の位置センサー情報、背番号認識、顔認識、体格認識等について説明したが、更にユニフォーム(デザイン、色)、シューズ、選手の髪型、選手の動きなどの情報についても画像認識して注目選手の認識精度を上げても良い。
サーバーのデータメモリ213には、各選手の競技フィールドにおける役割(ポジション)の情報が格納されている。さらに、ボールがある位置に従って、選手の役割に基づく位置も変わってくるので、この情報も合わせて格納してある。
本実施例では、カメラ等の端末の画像表示部にイメージセンサーからのライブビュー画像を表示している状態において、サーバーから注目選手の位置情報が送られてきたら、注目選手の位置に付加情報としてのマークやカーソルや矢印や枠などを重畳表示する。ここで、注目選手が、前記画像表示部の画面外にいる場合には、表示部の画面内の周辺部に、どちらの方向に注目選手がいるかを表示する。この表示を見ることにより、プロカメラマンや一般観客が保持するカメラ等の端末の画面を見れば、どちらの方向にカメラを向ければ、撮影エリアの中に、注目選手が画面に入るかを速やかに認識できるようになる。
ここで、注目選手が、表示エリアから外れていて、表示画面の右側にいるのであれば、3402のように表示部の画面内の右側周辺に右側の矢印を表示する。注目選手が、表示エリアから外れていて、表示画面の下側にいるのであれば、3403のように表示部の画面内の下側周辺に下側の矢印を表示する。注目選手が、表示エリアから外れていて、表示画面の左側にいるのであれば、3404のように表示部の画面内の左側周辺に左側の矢印を表示する。注目選手が、表示エリアから外れていて、表示画面の上側にいるのであれば、3405のように表示部の画面内の上側周辺に上側の矢印を表示する。しかも上記において、矢印の長さで画面に対して注目選手がどのくらい外れているか(ずれているか)、即ちカメラをどのくらい回転しないと注目選手が映らないかを表している。注目選手の位置が画面の視野からずれているほど、矢印の長さが長くなっている。
これにより、プロカメラマンや一般観客にとって、注目選手を撮影エリア(表示画面内)に入れやすくなり、注目選手のシャッターチャンスを逃すことなく撮影できるようになる。
このような表示により、プロカメラマンや一般観客にとって、見失った注目選手をすぐに、見つけ出すことが可能になり、注目選手の好プレイをシャッターチャンスを逃すことなく撮影できる。
図18において、図8と同じ符番のステップすなわちS3300以外は図8と同じステップなので説明は省略する。S3300は、カメラ自身で注目選手の追跡を実施する。ここで、注目選手がカメラで撮影しているエリアの外にいった時には、その方向を示す矢印が表示部に表示される。このS3300における詳細なフローを図19に示す。
図21は、図18のS3300において、図17(D)のような表示をするためのフローを示す図である。図21において、S3311からS3515、S3517は、図19、図20と同じなので説明を省略する。S3716では、カメラの表示部の画面内の周辺部に、注目選手のいる位置を矢印で表すとともに、カメラの表示画面内にいれるために回転すべき角度に応じて、矢印の太さを変える。カメラの回転角度が大きいほど矢印を太くする。
また、本発明における制御の一部または全部を上述した実施例の機能を実現するプログラム(ソフトウェア)をネットワーク又は各種記憶媒体を介して撮像装置や情報処理装置に供給するようにしてもよい。そしてその撮像装置や情報処理装置におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
401,402,403 ・・・・ 端末
110 ・・・・ サーバー
371 ・・・・ 追跡部
380 ・・・・ 画像表示部
Claims (27)
- 画像を表示する表示手段、
前記表示手段に表示された画像の中から特定の対象を選択する選択手段、
前記選択手段によって選択された前記特定の対象に関する指定情報を生成する指定情報生成手段、
前記指定情報生成手段によって生成された前記指定情報をサーバーに送信する送信手段、
前記サーバーから前記指定情報に基づく前記特定の対象の位置情報を取得する取得手段、
前記取得手段によって取得された前記特定の対象の位置情報に基づき付加情報を前記表示手段に表示する制御手段、を有することを特徴とする画像処理装置。 - 前記制御手段は、前記位置情報に基づき前記表示手段の表示画面内における前記特定の対象の位置を前記付加情報として表示することを特徴とする請求項1項に記載の画像処理装置。
- 前記サーバーは、映像の中の前記特定の対象を認識し、認識結果に基づき前記特定の対象の位置情報を生成して前記画像処理装置に送信することを特徴とする請求項1または2に記載の画像処理装置。
- 前記サーバーは、前記特定の対象を画像認識して認識結果に基づき位置情報を生成して前記画像処理装置に送信することを特徴とする請求項2に記載の画像処理装置。
- 前記サーバーは、前記特定の対象が有する位置センサーからの信号を認識した結果に基づき前記特定の対象の位置情報を生成することを特徴とする請求項2から4のいずれか1項に記載の画像処理装置。
- 前記付加情報は枠、カーソル、色や輝度の異なる領域の少なくとも一つを含むことを特徴とする請求項5に記載の画像処理装置。
- 前記付加情報は前記特定の対象が画面外にいる場合には画面から見てどの方向にいるかを示すものであることを特徴とする請求項6に記載の画像処理装置。
- 前記付加情報は前記特定の対象がどのくらい画面からずれているかを示すものであることを特徴とする請求項6または7に記載の画像処理装置。
- 前記付加情報は前記特定の対象がどのくらい画面からずれているかを矢印の長さまたは太さによって示すものであることを特徴とする請求項8に記載の画像処理装置。
- 前記付加情報は前記特定の対象がどのくらい画面からずれているかを数字または目盛りによって示すものであることを特徴とする請求項8に記載の画像処理装置。
- 前記サーバーは、前記特定の対象が装着している番号、前記特定の対象の一部または全体の形状を画像認識することを特徴とする請求項4に記載の画像処理装置。
- 前記サーバーは、複数のカメラからの映像の中の前記特定の対象を画像認識した結果に基づき前記特定の対象の位置情報を生成して前記画像処理装置に送信することを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
- 前記特定の対象の位置情報をサーバーから取得した後に、前記特定の対象の追跡を実行する追跡手段を更に有し、前記送信手段は、追跡に失敗したときには、前記サーバーへ位置情報の送信をリクエストすることを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。
- 前記サーバーは、前記画像処理装置が前記特定の対象の追跡に失敗すると予測する場合には、前記画像処理装置からの前記リクエストを待たずに、前記特定の対象の位置情報を画像処理装置に通知することを特徴とする請求項13に記載の画像処理装置。
- 前記サーバーは、前記特定の対象が存在するフィールド全体の映像をあらかじめ取得し、前記位置情報を生成することを特徴とする請求項1から14のいずれか1項に記載の画像処理装置。
- 前記サーバーは前記フィールドにおける前記特定の対象の位置情報に基づき、前記画像処理装置から前記特定の対象を見たときの相対的な位置情報を生成することを特徴とする請求項15に記載の画像処理装置。
- 前記サーバーは前記フィールドにおける前記特定の対象の第1の位置情報を前記画像処理装置に送信し、前記画像処理装置は前記第1の位置情報に基づき前記画像処理装置から前記特定の対象を見たときの相対的な位置情報を生成することを特徴とする請求項16に記載の画像処理装置。
- 前記選択手段は複数の特定の対象を選択することを特徴とする請求項1から請求項17のいずれか1項に記載の画像処理装置。
- 前記表示手段に表示される画像は撮像手段によって得られたライブビュー画像であり、前記ライブビュー画像に前記位置情報に基づく前記付加情報が重畳表示されることを特徴とする請求項1から18のいずれか一項に記載の画像処理装置。
- 画像を表示する表示手段、
前記表示手段に表示された画像の中から特定の対象を選択する選択手段、
前記選択手段によって選択された前記特定の対象に関する指定情報を生成する指定情報生成手段、
前記指定情報生成手段によって生成された前記指定情報をサーバーに送信する送信手段、
前記サーバーから前記指定情報に基づき前記特定の対象の位置情報を取得する取得手段、
前記取得手段によって取得された前記特定の対象の位置情報に基づき、前記特定の対象の位置が前記表示手段の画面外に存在する場合に前記画面から外れていることを表示する制御手段、を有することを特徴とする画像処理装置。 - 前記制御手段は、前記特定の対象が前記表示手段の画面外に存在する場合には前記画面に対して外れている方向を表示することを特徴とする請求項20に記載の画像処理装置。
- 前記制御手段は、前記特定の対象が前記表示手段の画面外に存在する場合には前記画面に対してどのくらい外れているかを表示することを特徴とする請求項20または21に記載の画像処理装置。
- 画像処理装置から送られてくる特定の対象に関する指定情報を受信する受信手段、
前記受信手段によって受信された指定情報に基づき、前記特定の対象を映像の中から探して前記特定の対象の位置に関するデータを生成する生成手段、
前記生成手段によって生成された前記特定の対象の位置に関するデータを前記画像処理装置に送信する送信手段、を有することを特徴とする画像処理サーバー。 - 請求項1から22のうちいずれか一項に記載の画像処理装置の各手段としてコンピュータを機能させるためのコンピュータプログラム。
- 請求項24に記載のコンピュータプログラムを記憶したコンピュータで読み取り可能な記憶媒体。
- 請求項23に記載の画像処理サーバーの各手段としてコンピュータを機能させるためのコンピュータプログラム。
- 請求項26に記載のコンピュータプログラムを記憶したコンピュータで読み取り可能な記憶媒体。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018209494A JP7233887B2 (ja) | 2018-11-07 | 2018-11-07 | 画像処理装置 |
PCT/JP2019/040874 WO2020095647A1 (ja) | 2018-11-07 | 2019-10-17 | 画像処理装置、画像処理サーバー、画像処理方法、コンピュータプログラム及び記憶媒体 |
CN201980088091.XA CN113273171A (zh) | 2018-11-07 | 2019-10-17 | 图像处理装置、图像处理服务器、图像处理方法、计算机程序和存储介质 |
US17/307,582 US20210258496A1 (en) | 2018-11-07 | 2021-05-04 | Image processing device, image processing server, image processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018209494A JP7233887B2 (ja) | 2018-11-07 | 2018-11-07 | 画像処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020077953A true JP2020077953A (ja) | 2020-05-21 |
JP7233887B2 JP7233887B2 (ja) | 2023-03-07 |
Family
ID=70724470
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018209494A Active JP7233887B2 (ja) | 2018-11-07 | 2018-11-07 | 画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7233887B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008227877A (ja) * | 2007-03-13 | 2008-09-25 | Hitachi Ltd | 映像情報処理装置 |
JP2009010967A (ja) * | 2001-09-28 | 2009-01-15 | Fujifilm Corp | 撮影支援装置 |
JP2010198104A (ja) * | 2009-02-23 | 2010-09-09 | Nec Corp | 映像表示システム、携帯端末システム、携帯端末装置及びサーバ並びにその映像表示方法 |
JP2012209943A (ja) * | 2011-03-29 | 2012-10-25 | Sony Corp | アノテーション方法、アノテーション装置、および携帯電話機 |
JP2013168854A (ja) * | 2012-02-16 | 2013-08-29 | Nikon Corp | 撮影装置、サーバ装置及び管理システム |
WO2016017121A1 (ja) * | 2014-07-28 | 2016-02-04 | パナソニックIpマネジメント株式会社 | 拡張現実表示システム、端末装置および拡張現実表示方法 |
-
2018
- 2018-11-07 JP JP2018209494A patent/JP7233887B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009010967A (ja) * | 2001-09-28 | 2009-01-15 | Fujifilm Corp | 撮影支援装置 |
JP2008227877A (ja) * | 2007-03-13 | 2008-09-25 | Hitachi Ltd | 映像情報処理装置 |
JP2010198104A (ja) * | 2009-02-23 | 2010-09-09 | Nec Corp | 映像表示システム、携帯端末システム、携帯端末装置及びサーバ並びにその映像表示方法 |
JP2012209943A (ja) * | 2011-03-29 | 2012-10-25 | Sony Corp | アノテーション方法、アノテーション装置、および携帯電話機 |
JP2013168854A (ja) * | 2012-02-16 | 2013-08-29 | Nikon Corp | 撮影装置、サーバ装置及び管理システム |
WO2016017121A1 (ja) * | 2014-07-28 | 2016-02-04 | パナソニックIpマネジメント株式会社 | 拡張現実表示システム、端末装置および拡張現実表示方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7233887B2 (ja) | 2023-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9967458B2 (en) | Controlling a client terminal to automatically determine image settings | |
KR101680714B1 (ko) | 실시간 동영상 제공 방법, 장치, 서버, 단말기기, 프로그램 및 기록매체 | |
CN106575027B (zh) | 摄像装置及其被摄体跟踪方法 | |
JP5194650B2 (ja) | 電子カメラ | |
US9648229B2 (en) | Image processing device and associated methodology for determining a main subject in an image | |
US8730335B2 (en) | Imaging apparatus and imaging system | |
US8760518B2 (en) | Photographing apparatus, photographing system and photographing method | |
US8817134B2 (en) | Imaging control device, subject detection method, and program | |
US9094597B2 (en) | Imaging apparatus and imaging system | |
CN108259921B (zh) | 一种基于场景切换的多角度直播系统及切换方法 | |
JP5991514B2 (ja) | 撮像装置及び撮像システム | |
JP4121974B2 (ja) | 画像撮影システムおよび画像撮影方法 | |
JP2011091607A (ja) | 撮像装置、撮像方法、及び撮像システム | |
KR20150119793A (ko) | 촬상 장치, 카메라 유닛, 표시 유닛, 촬영 방법, 표시 방법 및 기록 매체 | |
US20210258505A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US20210258496A1 (en) | Image processing device, image processing server, image processing method, and storage medium | |
KR101814714B1 (ko) | 스마트폰 카메라 원격 제어 방법 및 시스템 | |
JP7235098B2 (ja) | 情報配信装置、情報配信方法、情報配信プログラム | |
JP7282519B2 (ja) | 画像処理装置または画像処理サーバー | |
JP7233887B2 (ja) | 画像処理装置 | |
JP7289630B2 (ja) | 画像処理装置 | |
JP7233886B2 (ja) | 画像処理装置 | |
JP2017022650A (ja) | 撮影システム、携帯機器、撮像装置、カメラ選択方法及びプログラム | |
JP2015037219A (ja) | 撮像装置、撮像方法およびプログラム | |
JP2014123853A (ja) | 撮影機器、画像表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230222 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7233887 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |