JPWO2018123714A1 - カメラ、カメラの処理方法、サーバ、サーバの処理方法および情報処理装置 - Google Patents

カメラ、カメラの処理方法、サーバ、サーバの処理方法および情報処理装置 Download PDF

Info

Publication number
JPWO2018123714A1
JPWO2018123714A1 JP2018559080A JP2018559080A JPWO2018123714A1 JP WO2018123714 A1 JPWO2018123714 A1 JP WO2018123714A1 JP 2018559080 A JP2018559080 A JP 2018559080A JP 2018559080 A JP2018559080 A JP 2018559080A JP WO2018123714 A1 JPWO2018123714 A1 JP WO2018123714A1
Authority
JP
Japan
Prior art keywords
information
camera
unit
specific
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018559080A
Other languages
English (en)
Other versions
JP7020429B2 (ja
Inventor
賢久 染谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018123714A1 publication Critical patent/JPWO2018123714A1/ja
Application granted granted Critical
Publication of JP7020429B2 publication Critical patent/JP7020429B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

カメラにクリップ用メタ情報等の情報を自動的に設定可能とする。カメラは、ネットワークを介してサーバに位置情報を送信する。カメラは、この位置情報で示される位置の近傍に位置する携帯端末を所持する特定人に関連した情報をサーバからネットワークを介して受信する。例えば、特定人は、カメラを用いて取材をする取材者であり、特定人に関連した情報は、取材者に係る取材情報である。また、例えば、特定人は、カメラを操作するカメラマンであり、特定人に関連した情報は、カメラマンに係るカメラ設定情報である。

Description

本技術は、カメラ、カメラの処理方法、サーバ、サーバの処理方法および情報処理装置に関する。
放送用コンテンツ制作の取材を行うに際し、事前に取材内容が計画され、クリップ用メタ情報(取材情報)も事前に制作される。クリップ用メタ情報を、利用するカムコーダに登録する機能がある。しかし、どのカムコーダを利用するかは、計画時には決定してない場合が多く、決定しているのは取材者(取材クルーも含む)のみであり、機材情報は制作されたクリップ用メタ情報には入っていない場合が多い。そのため、クリップ用メタ情報を自動的にカムコーダに設定することができなかった。例えば、特許文献1には、GPS情報から得られた撮像位置情報を、予め登録しておいた撮影者データと共に収録中の映像情報中に重畳して記録することが記載されている。
特開平10−285501号公報
本技術の目的は、カメラにクリップ用メタ情報等の情報を自動的に設定可能とすることにある。
本技術の概念は、
ネットワークを介してサーバに位置情報を送信する情報送信部と、
上記位置情報で示される位置の近傍に位置する携帯端末を所持する特定人に関連した情報を上記サーバから上記ネットワークを介して受信する情報受信部を備える
カメラにある。
本技術において、情報送信部により、ネットワークを介してサーバに位置情報が送信される。例えば、情報送信部は、電源オン時に位置情報をサーバに送る、ようにされてもよい。そして、情報受信部により、位置情報で示される位置の近傍に位置する携帯端末を所持する特定人に関連した情報がサーバからネットワークを介して受信される。
このように本技術においては、サーバに位置情報を送信することで、そのサーバから位置情報で示される位置の近傍に位置する携帯端末を所持する特定人に関連した情報を受信し得る。そのため、カメラに特定人に関連した情報を自動的に設定することが可能となる。
なお、本技術において、例えば、特定人は、カメラを用いて取材をする取材者であり、特定人に関連した情報は、取材者に係る取材情報であり、受信された情報を、撮像クリップデータに付加するためのメタ情報として保持する情報保持部をさらに備える、ようにされてもよい。この場合、カメラは取材者に係る取材情報を自動的に設定でき、この取材情報を撮像クリップデータに付加することが可能となる。
また、本技術において、例えば、特定人は、カメラを操作するカメラマンであり、特定人に関連した情報は、カメラマンに係るカメラ設定情報であり、受信された情報に基づいてカメラ設定を行うカメラ制御部をさらに備える、ようにされてもよい。この場合、カメラを自動的にカメラマンに合った設定にすることが可能となる。
また、本技術の他の概念は、
特定の複数人が所持する携帯端末および特定の一個または複数個のカメラとネットワークを通じて通信をする通信部と、
上記特定の複数人にそれぞれ関連した情報を保持する情報保持部と、
上記特定の一個または複数個のカメラのうちの一つのカメラからの位置情報があるとき、該位置情報と上記特定の複数人が所持する携帯端末からの位置情報に基づいて、上記一つのカメラの近傍に上記特定の複数人が所持する携帯端末のうちの一つが存在するマッチング状態にあるかを判断する状態判断部を備え、
上記通信部は、上記マッチング状態にあると判断されるとき、上記一つのカメラの近傍に位置する上記一つの携帯端末の所持者に関連した情報を上記一つのカメラに送信する
サーバにある。
本技術において、通信部により、特定の複数人が所持する携帯端末および特定の一個または複数個のカメラとネットワークを通じて通信が行われる。情報保持部により、特定の複数人にそれぞれ関連した情報が保持される。
状態判断部により、特定の一個または複数個のカメラのうちの一つのカメラからの位置情報があるとき、この位置情報と特定の複数人が所持する携帯端末からの位置情報に基づいて、一つのカメラの近傍に特定の複数人が所持する携帯端末のうちの一つが存在するマッチング状態にあるかが判断される。そして、通信部では、マッチング状態にあると判断されるとき、一つのカメラの近傍に位置する一つの携帯端末の所持者に関連した情報が上記一つのカメラに送信される。
このように本技術においては、一つのカメラの近傍に特定の複数人が所持する携帯端末のうちの一つが存在するマッチング状態にあるとき、この一つのカメラの近傍に位置する一つの携帯端末の所持者に関連した情報をこの一つのカメラに送信するものである。そのため、カメラに特定人に関連した情報を自動的に設定することが可能となる。
なお、本技術において、例えば、特定の複数人は、それぞれ、一個または複数個のカメラのうちのいずれか一つを用いて取材をする取材者であり、特定の複数人にそれぞれ関連した情報は、取材者に係る取材情報である、ようにされてもよい。これにより、カメラに取材者に係る取材情報を自動的に設定でき、この取材情報を撮像クリップデータに付加することが可能となる。
この場合、例えば、複数のカメラのうちどのカメラがマッチング状態にあるかを示すUI画面の表示信号を生成する表示信号生成部をさらに備える、ようにされてもよい。そして、この場合、UI画面では、マッチング状態にあるカメラが、そのカメラで取材される取材の情報と関連付けて示される、ようにされてもよい。
また、本技術において、例えば、特定の複数人は、それぞれ、一個または複数個のカメラのうちのいずれか一つを操作するカメラマンであり、特定の複数人にそれぞれ関連した情報は、カメラマンに係るカメラ設定情報である、ようにされてもよい。これにより、カメラを自動的にカメラマンに合った設定にすることが可能となる。
また、本技術の他の概念は、
ネットワークを介してサーバに位置情報を送信する情報送信部と、
上記位置情報に対応した取材情報を上記サーバから上記ネットワークを介して受信する情報受信部を備える
カメラにある。
本技術において、情報送信部により、ネットワークを介してサーバに位置情報が送信される。例えば、情報送信部は、電源オン時に位置情報をサーバに送る、ようにされてもよい。そして、情報受信部により、位置情報に対応した取材情報がサーバからネットワークを介して受信される。例えば、受信された取材情報を、撮像クリップデータに付加するためのメタ情報として保持する情報保持部をさらに備える、ようにされてもよい。
このように本技術においては、サーバに位置情報を送信することで、そのサーバから位置情報に対応した取材情報を受信し得る。そのため、取材情報を自動的に設定することが可能となる。
また、本技術の他の概念は、
特定の一個または複数個のカメラとネットワークを通じて通信をする通信部と、
位置情報に関連付けて取材情報を保持する情報保持部を備え、
上記通信部は、上記特定の一個または複数個のカメラのうちの一つのカメラからの位置情報があるとき、該位置情報に対応する取材情報を上記一つのカメラに送信する
サーバにある。
本技術において、通信部により、特定の一個または複数個のカメラとネットワークを通じて通信が行われる。情報保持部により、位置情報に関連付けて取材情報が保持される。そして、通信部では、特定の一個または複数個のカメラのうちの一つのカメラからの位置情報があるとき、この位置情報に対応する取材情報がこの一つのカメラに送信される。
このように本技術においては、特定の一個または複数個のカメラのうちの一つのカメラからの位置情報があるとき、この位置情報に対応する取材情報をこの一つのカメラに送信するものである。そのため、カメラにそのカメラによる取材情報を自動的に設定することが可能となる。
本技術によれば、カメラにクリップ用メタ情報等の情報を自動的に設定できる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
実施の形態としてのカメラシステムの構成例を示すブロック図である。 取材者毎の取材情報(クリップ用メタ情報)の一例を概略的に示す図である。 カメラマン毎のカメラ設定情報の一例を概略的に示す図である。 カムコーダの構成例を示すブロック図である。 クラウドサーバの構成例を示すブロック図である。 カムコーダにそのカムコーダを用いて取材する取材者に係る取材情報をクラウドサーバから自動的に送信する場合における動作例を示すシーケンス図である。 UI画面の一例を示す図(全てのカムコーダがオフライン状態)である。 UI画面の一例を示す図(一部のカムコーダがオンライン状態)である。 UI画面の一例を示す図(一部のカムコーダがマッチング状態にあることの表示、当該カムコーダへの取材情報が送信済みであることの表示)である。 カムコーダにそのカムコーダを操作するカメラマンに係るカメラ設定情報をクラウドサーバから自動的に送信する場合における動作例を示すシーケンス図である。 カムコーダにそのカムコーダで取材される取材の情報をクラウドサーバから自動的に送信する場合における動作例を示すシーケンス図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.応用例
4.変形例
<1.第1の実施の形態>
[カメラシステムの構成例]
図1は、実施の形態としてのカメラシステム10の構成例を示している。このカメラシステム10は、テレビ局側にニュースルームコンピュータシステム101と、クライアントPC102と、クリップ受信サーバ103と、コンテンツマネジメントシステム104と、通信部としてのネットワークインタフェース105を有している。
また、このカメラシステム10は、インターネット等のネットワーク200と、クラウドサーバ201と、カメラとしてのカムコーダ301と、携帯端末としてのスマートフォン302,303を有している。なお、図示の例においては、カムコーダ301が1個だけ示されているが、テレビ局で取材に利用し得る1個または複数個、この実施の形態では5個のカムコーダ301が存在している。なお、携帯端末は、スマートフォンに限定されるものではないが、従来周知の位置情報を取得する機能は必要である。スマートフォン302,303の詳細構成の説明は省略するが、この実施の形態において、電源オン状態にあるスマートフォン302,303で取得された位置情報は、ネットワーク200を介してクラウドサーバ201に送られる。
また、図示の例において、スマートフォン302,303がそれぞれ1個だけ示されているが、スマートフォン302に関しては、上述のカムコーダ301を操作し得るカメラマンの人数分だけ存在し、スマートフォン303に関しては、カムコーダ301を用いて取材する取材者(ジャーナリスト)の人数分だけ存在している。
この実施の形態では、カメラマンの人数と取材者の人数はいずれも5であるとする。ここで、取材者の一人は、単純に人間一人を意味するだけでなく、複数の人からなる取材クルーの一つをも意味するものとする。取材は、例えば、破線枠で囲って示すように、カムコーダ301と、カメラマンと、取材者とがセットとなって行われる。
ニュースルームコンピュータシステム101は、取材内容を計画し、取材者毎の取材情報(クリップ用メタ情報)を作成し、この取材情報をネットワークインタフェース105およびネットワークネット200を通じて、クラウドサーバ201にアップロードする。
図2は、取材者毎の取材情報(クリップ用メタ情報)の一例を概略的に示している。この取材情報には、「日付」、「取材者ID」、「取材者」、「取材ID」、「取材タイトル」、「取材場所」の各情報が含まれる。なお、取材情報に含まれる情報は、これに限定されるものではなく、この中の一部の情報だけが含まれるか、あるいはこれ以外の他の情報がさらに含まれてもよい。
図1に戻って、クライアントPC102は、クラウドサーバ201からネットワーク200およびネットワークインタフェース105を介してUI画面表示信号を受け取り、UI画面を表示する。テレビ局側では、詳細は後述するが、このUI画面から、5台のカムコーダ301のいずれがオンライン状態(電源オンの状態)になっているか、さらには、どのカメラがどの取材をするために用いられるかなどの確認が可能となる。
また、クライアントPC102は、カメラマン毎のカメラ設定情報を作成し、このカメラ設定情報をネットワークインタフェース105およびネットワークネット200を通じて、クラウドサーバ201にアップロードする。なお、このカメラマン毎のカメラ設定情報の作成、アップロードは、クライアントPC102で行うのではなく、他の箇所で行ってもよい。例えば、各カメラマンが、カムコーダ301で実際にカメラ設定を行って、そのカメラ設定情報をカムコーダ301から直接ネットワーク200を介してクラウドサーバ201にアップロードすることも考えられる。
図3は、カメラマン毎のカメラ設定情報の一例を概略的に示している。このカメラ設定情報には、「カメラマンID」、「設定情報」の各情報が含まれる。例えば、「設定情報」には、アサイナブルボタン設定、ビューファインダ設定、ファイルフォーマット設定などの情報が含まれる。
図1に戻って、クリップ受信サーバ103は、カムコーダ301で撮像して得られた撮像クリップデータ(AVデータファイル)を、ネットワーク200およびネットワークインタフェース105を介して受信する。コンテンツマネジメントシステム104は、クリップ受信サーバ103で受信された撮像クリップデータを管理する。
図4は、カムコーダ301の構成例を示している。このカムコーダ301は、制御部311と、ユーザ操作部312と、撮像部313と、撮像信号処理部314と、画像圧縮エンコーダ315と、記録部316と、位置情報取得部317と、ネットワークインタフェース318を有している。
制御部311は、カムコーダ301の各部の動作を制御する。この制御部311は、CPUの他に、メモリ311aを備えている。ユーザ操作部312は、制御部311に接続されており、ユーザによる種々の操作を受け付けるユーザーインタフェースを構成している。
撮像部313は、図示しない撮像レンズおよび撮像素子を有しており、画像を撮像し、撮像信号を出力する。撮像素子は、CCD(Charged Coupled Device)、CMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子である。撮像信号処理部314は、撮像部313から出力される撮像信号(アナログ信号)に対して、サンプルホールドおよび利得制御、アナログ信号からデジタル信号への変換、さらにホワイトバランス調整、ガンマ補正等を行って、撮像画像データを生成する。
画像圧縮エンコーダ315は、撮像信号処理部314で生成された撮像画像データに対して、例えば、MPEG方式によりデータ圧縮処理を行って、撮像クリップデータを生成する。記録部316は、画像圧縮エンコーダ315で得られた撮像クリップデータを一時的に記録する。位置情報取得部317は、GPS(Global Positioning System)衛星からの電波を受信してカムコーダ301の位置(経度・緯度・高度)の情報を得る。
ネットワークインタフェース318は、通信部を構成し、ネットワーク200を介してクラウドサーバ201との間で通信をする。この実施の形態において、ネットワークインタフェース318は、電源オン時に、位置情報取得部317で取得された位置情報をクラウドサーバ201に送る。電源オン状態にあるスマートフォン302,303からも、当該スマートフォン302,303で取得された位置情報がクラウドサーバ201にネットワーク200を介して送られてくる。これにより、クラウドサーバ201では、後述するように、位置情報を送ってきたカムコーダ301とマッチング状態にあるスマートフォン302,303が存在するか判断される。
また、ネットワークインタフェース318は、画像圧縮エンコーダ315で得られた撮像画像データをストリーミングデータとしてクラウドサーバ201に送る。これにより、クラウドサーバ201では、例えば、後述するように、この撮像画像データからUI画面に載せるサムネイル画像のデータが生成される。
また、ネットワークインタフェース318は、自身のカムコーダ301の近傍に位置し、自身のカムコーダ301とマッチング状態にあるスマートフォン303を所持している取材者(自身のカムコーダ301を用いて取材をする取材者と見なされる)に係る取材情報を、クラウドサーバ201から受け取る。この取材情報は、撮像クリップデータに付加するためのメタ情報として、メモリ311aに保持される。
また、ネットワークインタフェース318は、自身のカムコーダ301の近傍に位置し、自身のカムコーダ301とマッチング状態にあるスマートフォン302を所持しているカメラマン(自身のカムコーダ301を操作するカメラマンと見なされる)に係るカメラ設定情報を、クラウドサーバ201から受け取る。制御部311は、このように受け取ったカメラ設定情報に基づいてカメラ設定をする。
また、ネットワークインタフェース318は、ネットワーク200を介してネットワークインタフェース105と通信をする。これにより、記録部316に記録されている撮像クリップデータが、ネットワーク200およびネットワークインタフェース105を通じて、クリップ受信サーバ103に送られて保持される。この場合、撮像クリップデータには、メモリ311aに保持されている取材情報がメタ情報として付加される。
図5は、クラウドサーバ201の構成例を示している。このクラウドサーバ201は、CPU211と、ROM212と、RAM213と、入出力インタフェース214と、入力部215と、出力部216と、記憶部217と、ドライブ218と、ネットワークインタフェース219を有している。
このクラウドサーバ201において、CPU211、ROM212、RAM213は、バスにより相互に接続されている。このバスには、さらに、入出力インタフェース214が接続されている。入出力インタフェース214には、入力部215、出力部216、記憶部217、ドライブ218が接続されている。CPU211は、クラウドサーバ201の各部の動作を制御する。
入力部215は、キーボード、マウス、マイクロホン等により構成されている。出力部216は、ディスプレイ、スピーカ等により構成されている。記憶部217は、HDD(Hard Disk Drive)、不揮発性メモリ等により構成されている。ドライブ218は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等のリムーバブルメディアを駆動する。
また、バスには、ネットワークインタフェース219が接続されている。このネットワークインタフェース219は、ネットワーク200を介してカムコーダ301やスマートフォン302,303と通信をする。この実施の形態において、ネットワークインタフェース219は、スマートフォン302,303からその位置を示す位置情報を受信する。この位置情報は、スマートフォン302,303でGPS衛星からの電波を受信して得られた位置(経度・緯度・高度)の情報である。
また、ネットワークインタフェース219は、カムコーダ301から位置情報を受信する。CPU211は、あるカムコーダ301から位置情報を受信したとき、この位置情報と、上述のスマートフォン303から受信された位置情報とに基づいて、そのカムコーダ301の近傍、例えばNメートル以内に一つのスマートフォン303が存在するときは、そのカムコーダ301はその一つのスマートフォン303とマッチング状態にあると判断する。ここで、Nは、ユーザにより、任意の値に設定可能とされてもよい。
この場合、その一つのスマートフォン303を所持している取材者は、そのカムコーダ301を用いて取材をするものと見なされる。そして、CPU211の制御のもと、ネットワークインタフェース219は、当該マッチング状態にあるスマートフォン303の所持者(取材者)に関連した取材情報をそのカムコーダ301に送る。これにより、そのカムコーダ301では、その取材情報が撮像クリップデータに付加するためのメタ情報として保持される。
また、CPU211は、あるカムコーダ301から位置情報を受信したとき、この位置情報と、上述のスマートフォン302から受信された位置情報とに基づいて、そのカムコーダ301の近傍、例えばNメートル以内に一つのスマートフォン302が存在するときは、そのカムコーダ301はその一つのスマートフォン302とマッチング状態にあると判断する。ここで、Nは、ユーザにより、任意の値に設定可能とされてもよい。
この場合、その一つのスマートフォン302を所持しているカメラマンは、そのカムコーダ301を操作するものと見なされる。そして、CPU211の制御のもと、ネットワークインタフェース219は、当該マッチング状態にあるスマートフォン302の所持者(カメラマン)に関連したカメラ設定情報をそのカムコーダ301に送る。これにより、そのカムコーダ301では、そのカメラ設定情報に基づいてカメラ設定がされる。
また、ネットワークインタフェース219は、オンライン状態にあるカムコーダ301から、撮像画像データをストリーミングデータとして受信する。CPU211は、5台のカムコーダ301のいずれがオンライン状態(電源オンの状態)になっているか、さらには、どのカムコーダ301がどの取材をするために用いられるかなどの確認を可能とするためのUI画面の表示信号を生成する。この際、CPU211は、オンライン状態にあるカムコーダ301から送られてくる撮像画像データに基づいて、UI画面に載せるサムネイル画像のデータを生成する。
ネットワークインタフェース219は、ネットワーク200を介してネットワークインタフェース105と通信をする。この実施の形態において、ネットワークインタフェース219は、ニュースルームコンピュータシステム101から、取材者毎の取材情報(クリップ用メタ情報)を受信する(図2参照)。この取材者毎の取材情報は、RAM213あるいは記憶部217に保持される。
また、ネットワークインタフェース219は、クライアントPC102から、カメラマン毎のカメラ設定情報を受信する(図3参照)。このカメラマン毎のカメラ設定情報は、RAM213あるいは記憶部217に保持される。また、ネットワークインタフェース219は、クライアントPC102に、UI画面の表示信号を送信する。これにより、クライアントPC102では、UI画面の表示が可能となる。
カムコーダ301に、そのカムコーダ301を用いて取材する取材者に係る取材情報をクラウドサーバ201から自動的に送信する場合における動作例を、図6のシーケンス図を用いて説明する。
(1)ニュースルームコンピュータシステム101からクラウドサーバ201に取材者毎の取材情報が送信されて記憶される。この場合、クラウドサーバ201では、取材者毎の取材情報に基づいて、この取材者毎の取材情報を持つUI画面の表示信号が生成され、図示のシーケンス図には示されていないが、その表示信号はクライアントPC102に送られ、UI画面の表示が行われる。図7は、その場合におけるUI表示例を示しており、下側に取材者毎の取材情報がリスト表示されている。
ここで、「取材ID」、「取材タイトル」、「取材者」の各情報は、ニュースルームコンピュータシステム101からクラウドサーバ201に送られる取材者毎の取材情報(図2参照)における「取材ID」、「取材タイトル」、「取材者」の各情報と同じものである。「利用カムコーダNo.」の情報は、それぞれの取材を行うために利用されるカムコーダ301のシリアル番号(カムコーダNo.)の情報であるが、この時点では解からないので“unknown”となっている。また、「Status」の情報は、そのカムコーダ301に取材情報の送信があったかを示す情報であるが、この時点では未だ送信されていないので“未送信”となっている。
また、このUI画面の上側に、各カムコーダ301がオンラインになっているか否かをサムネイル画像で表示する箇所が存在する。この時点では、いずれのカムコーダ301もオフライン状態にあるので、「カムコーダNo.」と共に“Offline”が表示され、サムネイル画像の表示はない。
(2)ニュースルームコンピュータシステム101からクリップ受信サーバ103に、上述の取材者毎の取材情報に対応した日付、取材タイトルの情報が送られる。これにより、クリップ受信サーバ103は、受け入れ待ち状態となる。
(3)スマートフォン303がオンライン状態となって、クラウドサーバ201にネットワーク200を介して接続される。
(4)このスマートフォン303からクラウドサーバ201に、位置情報が送られる。この場合、位置情報には、スマートフォン303の所持者を識別するための「取材者ID」の情報が付加されている。
(5)カムコーダ301がオンライン状態となって、クラウドサーバ201にネットワーク200を介して接続され、カムコーダ301からクラウドサーバ201に撮像画像データがストリーミングデータとして送られる。図8は、その場合におけるUI表示例を示しており、「カムコーダNo.」が“aaa000001”のカムコーダ301と「カムコーダNo.」が“aaa000002”のカムコーダ301に対応してサムネイルが表示され、これらのカムコーダ301がオンライン状態にあることが示されている。
(6)このカムコーダ301からクラウドサーバ201に、位置情報が送られる。この場合、位置情報には、カムコーダ301を識別するための「カメラID」としてカムコーダ301のシリアル番号(カムコーダNo.)が付加されている。クラウドサーバ201では、位置情報が送られてくるカムコーダ301毎に、マッチング判断が行われる。
すなわち、この位置情報と、上述のスマートフォン303から受信された位置情報とに基づいて、そのカムコーダ301の近傍、例えばNメートル以内に一つのスマートフォン303が存在するときは、そのカムコーダ301はその一つのスマートフォン303とマッチング状態にあると判断される。
(7)マッチング状態にあると判断されるとき、クラウドサーバ201からカムコーダ301に、その一つのスマートフォン303を所持している取材者に関連した取材情報が送られる。これにより、そのカムコーダ301では、その取材情報が撮像クリップデータに付加するためのメタ情報として保持される。
図9は、その場合におけるUI表示例を示している。この場合、「取材ID」が“bbb000001”である取材情報に対応して、「利用カムコーダNo.」が“aaa000001”となり、このカムコーダ301がマッチング状態となったことが示され、このカムコーダ301が「取材ID」が“bbb000001”である取材に用いられることが示されている。また、「取材ID」が“bbb000001”である取材情報に対応して、「Status」が“送信済”となり、「利用カムコーダNo.」が“aaa000001”であるカムコーダ301に、「取材ID」が“bbb000001”である取材情報が送信されたことが示されている。
(8)カムコーダ301からクリップ受信サーバ103に、撮像クリップデータが送信される。この場合、この撮像クリップデータには取材情報がクリップメタ情報として付加されている。これにより、クリップ受信サーバ103では、付加されている取材情報(クリップメタ情報)に基づいて、予め受け入れ待ち状態になっている撮像クリップデータの受け入れが行われる。
次に、カムコーダ301に、そのカムコーダ301を操作するカメラマンに係るカメラ設定情報をクラウドサーバ201から自動的に送信する場合における動作例を、図10のシーケンス図を用いて説明する。
(1)クライアントPC102からクラウドサーバ201にカメラマン毎のカメラ設定情報(図3参照)が送信され記憶される。
(2)スマートフォン302がオンライン状態となって、クラウドサーバ201にネットワーク200を介して接続される。
(3)このスマートフォン302からクラウドサーバ201に、位置情報が送られる。この場合、位置情報には、スマートフォン302の所持者を識別するための「カメラマンID」の情報が付加されている。
(4)カムコーダ301がオンライン状態となって、クラウドサーバ201にネットワーク200を介して接続される。
(5)このカムコーダ301からクラウドサーバ201に、位置情報が送られる。この場合、位置情報には、カムコーダ301を識別するための「カメラID」としてカムコーダ301のシリアル番号(カムコーダNo.)が付加されている。クラウドサーバ201では、位置情報が送られてくるカムコーダ301毎に、マッチング判断が行われる。
すなわち、この位置情報と、上述のスマートフォン302から受信された位置情報とに基づいて、そのカムコーダ301の近傍、例えばNメートル以内に一つのスマートフォン302が存在するときは、そのカムコーダ301はその一つのスマートフォン302とマッチング状態にあると判断される。
(6)マッチング状態にあると判断されるとき、クラウドサーバ201からカムコーダ301に、その一つのスマートフォン302を所持しているカメラマンに関連したカメラ設定情報が送られる。これにより、そのカムコーダ301では、そのカメラ設定情報に基づいて、カメラ設定が行われる。
(7)カムコーダ301からクリップ受信サーバ103に、撮像クリップデータが送信される。
上述したように、図1に示すカメラシステム10においては、カムコーダ301は、クラウドサーバ201に位置情報を送信することで、そのクラウドサーバ201から位置情報で示される位置の近傍に位置するスマートフォン303を所持する取材者に関連した取材情報を受信して、撮像クリップデータに付加するクリップメタ情報として自動的に保持できる。
また、図1に示すカメラシステム10においては、カムコーダ301は、クラウドサーバ201に位置情報を送信することで、そのクラウドサーバ201から位置情報で示される位置の近傍に位置するスマートフォン302を所持するカメラマンに関連したカメラ設定情報を受信して、自動的にカメラ設定できる。
また、図1に示すカメラシステム10においては、クラウドサーバ201は、UI画面の表示信号を生成し、クライアントPC102に送る。そのため、ユーザは、クライアントPC102の表示されるUI画面において、どのカムコーダ301がオンライン状態(電源オンの状態)になっているか、さらには、どのカムコーダ301がどの取材をするために用いられるかなどの確認を容易に行うことができる。
<2.第2の実施の形態>
上述した第1の実施の形態においては、クラウドサーバ201は、カムコーダ301からの位置情報とスマートフォン303からの位置情報とに基づいて、そのカムコーダ301の近傍に一つのスマートフォン303が存在するときは、そのカムコーダ301はその一つのスマートフォン303とマッチング状態にあると判断し、その一つのスマートフォン303を所持している取材者に関連した取材情報をそのカムコーダ301に送信する例を示した。
しかし、ニュースルームコンピュータシステム101から送られてくる取材者毎の取材情報には「取材場所」の情報も含まれているので(図2参照)、クラウドサーバ201は、この「取材場所」の情報を利用して、カムコーダ301からの位置情報に対応した取材情報を選択して、その取材情報をそのカムコーダ301に送信することも考えられる。
図11のシーケンス図は、その場合における動作例を示している。
(1)ニュースルームコンピュータシステム101からクラウドサーバ201に取材者毎の取材情報(図2参照)が送信され記憶される。
(2)ニュースルームコンピュータシステム101からクリップ受信サーバ103に、上述の取材者毎の取材情報に対応した日付、取材タイトルの情報が送られる。これにより、クリップ受信サーバ103は、受け入れ待ち状態となる。
(3)カムコーダ301がオンライン状態となって、クラウドサーバ201にネットワーク200を介して接続される。
(4)このカムコーダ301からクラウドサーバ201に、位置情報が送られる。この場合、位置情報には、カムコーダ301を識別するための「カメラID」としてカムコーダ301のシリアル番号(カムコーダNo.)が付加されている。クラウドサーバ201では、位置情報が送られてくるカムコーダ301毎に、その位置情報で示される位置に対応する取材場所を持つ取材情報を選択する。
(5)クラウドサーバ301からカムコーダ301に、選択された取材情報が送られる。これにより、そのカムコーダ301では、その取材情報が撮像クリップデータに付加するためのメタ情報として保持される。
(6)カムコーダ301からクリップ受信サーバ103に、撮像クリップデータが送信される。この場合、この撮像クリップデータには取材情報がクリップメタ情報として付加されている。これにより、クリップ受信サーバ103では、付加されている取材情報(クリップメタ情報)に基づいて、予め受け入れ待ち状態になっている撮像クリップデータの受け入れが行われる。
<3.応用例>
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
図12は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図12に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図E1では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
ここで、図13は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図13には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920〜7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
図12に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE−A(LTE−Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi−Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図12の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
なお、図12に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
なお、上述した車両制御システム7000、例えば統合制御ユニット7600は、上述実施の形態におけるカムコーダ301と同様の情報処理機能、すなわちネットワークを介してサーバに位置情報を送信し、その位置情報に基づいた情報をサーバからネットワークを介して受信する機能を持つ。このように車両制御システム7000が本実施の形態に係るカムコーダ301と同様の情報処理機能を持つことで、以下のような適用が可能となる。なお、適用範囲は、これに限定されるものではない。
(1)車が観光地に行った際に、当該車は観光地に適した設定情報をクラウドサーバからもらうために適用できる。例えば、設定情報は、車自体を機器と捉えた場合、車自体を設定(ライト、空調、速度など)するための情報であり、車に備えられたカメラを設定するための情報も含む。
(2)あるユーザがレンタカーを借りた場合、そのユーザ固有の情報をクラウドサーバからもらってレンタカー(レンタカー備えられたカメラも含む)に反映させるために適用できる。例えば、ユーザ固有の情報として、ユーザに応じた座席設定情報、ユーザに応じた自動運転情報、ユーザに応じた推薦走行ルート情報、ユーザに応じたオーディオ環境情報など種々が考えられる。
(3)駐車場で車を探す際に適用できる。ユーザとマッチングした車(または車に備えられたカメラ)を探すことが可能となる。
(4)カーシェアリングにおけるセキュリティ対策に適用できる。本人が車の近くに行くことで鍵が開く、あるいは近くに行かないと車の鍵が開かないなどの制御が可能となる。
(5)運転記録と個人情報の紐づけを行うために適用できる。ユーザの普段の生体情報のログを使い、疲れている場合に休憩することを勧めたり、気分転換を勧めたりすることができる。また、運転の仕方の評価に使うことができる。
(6)自動車保険に適用できる。自動車保険では、実際に運転している人が誰であるかということが重要であり、その特定が可能となる。また、ドライバーの自動車の運転スキルに応じて保険の料金をかえることが可能となる。また、スマートフォンを使ってドライバーがだれかを判断することが可能となる。また、運転手の運転スキルによって車の各種設定を変えること、車載カメラの撮影モードや設定、記録のレートを上げることが可能となる。また、ドライバーが車に近づいたとき運転スキルを表示することが可能となる。
(7)セキュリティ観点に適用できる。例えば、ドライバーが車を離れたらセンシング開始(カメラを起動して監視を開始)することが可能となる。
また、本開示に係る技術は、上述した車載観点以外の応用も考えられる。例えば、防犯観点として、本開示に係る技術を適用することで、カメラとスマホが離れたらサーバに通知がいくようにすることが可能となる。また、例えば、メディカル観点として、病院で使用する各種機器と医者の情報のマッチングに使うことが可能であり、また、医療情報や薬などは対象の人がその場所に行かないと渡さないということで、本当にその場所にいるか判別する際に使うことが可能となる。
<4.変形例>
なお、上述の実施の形態は、例示という形態で本技術を開示しており、本技術の要旨を逸脱しない範囲で当業者が実施の形態の修正や代用をなし得ることは自明である。すなわち、本技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
また、本技術は、以下のような構成を取ることもできる。
(1)ネットワークを介してサーバに位置情報を送信する情報送信部と、
上記位置情報で示される位置の近傍に位置する携帯端末を所持する特定人に関連した情報を上記サーバから上記ネットワークを介して受信する情報受信部を備える
カメラ。
(2)上記特定人は、上記カメラを用いて取材をする取材者であり、
上記特定人に関連した情報は、上記取材者に係る取材情報であり、
上記受信された情報を、撮像クリップデータに付加するためのメタ情報として保持する情報保持部をさらに備える
前記(1)に記載のカメラ。
(3)上記特定人は、上記カメラを操作するカメラマンであり、
上記特定人に関連した情報は、上記カメラマンに係るカメラ設定情報であり、
上記受信された情報に基づいてカメラ設定を行うカメラ制御部をさらに備える
前記(1)または(2)に記載のカメラ。
(4)上記情報送信部は、電源オン時に上記位置情報を上記サーバに送る
前記(1)から(3)のいずれかに記載のカメラ。
(5)情報送信部が、ネットワークを介してサーバに位置情報を送信する情報送信部ステップと、
受信部が、上記位置情報で示される位置の近傍に位置する携帯端末を所持する特定人に関連した情報を上記サーバから上記ネットワークを介して受信する受信ステップを有する
カメラの処理方法。
(6)特定の複数人が所持する携帯端末および特定の一個または複数個のカメラとネットワークを通じて通信をする通信部と、
上記特定の複数人にそれぞれ関連した情報を保持する情報保持部と、
上記特定の一個または複数個のカメラのうちの一つのカメラからの位置情報があるとき、該位置情報と上記特定の複数人が所持する携帯端末からの位置情報に基づいて、上記一つのカメラの近傍に上記特定の複数人が所持する携帯端末のうちの一つが存在するマッチング状態にあるかを判断する状態判断部を備え、
上記通信部は、上記マッチング状態にあると判断されるとき、上記一つのカメラの近傍に位置する上記一つの携帯端末の所持者に関連した情報を上記一つのカメラに送信する
サーバ。
(7)上記特定の複数人は、それぞれ、上記一個または複数個のカメラのうちのいずれか一つを用いて取材をする取材者であり、
上記特定の複数人にそれぞれ関連した情報は、上記取材者に係る取材情報である
前記(6)に記載のサーバ。
(8)上記複数のカメラのうちどのカメラが上記マッチング状態にあるかを示すUI画面の表示信号を生成する表示信号生成部をさらに備える
前記(6)または(7)に記載のサーバ。
(9)上記UI画面では、上記マッチング状態にあるカメラが、該カメラで取材される取材の情報と関連付けて示される
前記(8)に記載のサーバ。
(10)上記特定の複数人は、それぞれ、上記一個または複数個のカメラのうちのいずれか一つを操作するカメラマンであり、
上記特定の複数人にそれぞれ関連した情報は、上記カメラマンに係るカメラ設定情報である
前記(6)から(10)のいずれかに記載のサーバ。
(11)通信部が、特定の複数人が所持する携帯端末および特定の一個または複数個のカメラとネットワークを通じて通信をする通信ステップと、
状態判断部が、上記特定の一個または複数個のカメラのうちの一つのカメラからの位置情報があるとき、該位置情報と上記特定の複数人が所持する携帯端末からの位置情報に基づいて、上記一つのカメラの近傍に上記特定の複数人が所持する携帯端末のうちの一つが存在するマッチング状態にあるかを判断する状態判断ステップを有し、
上記通信ステップでは、上記マッチング状態にあると判断されるとき、上記一つのカメラの近傍に位置する上記一つの携帯端末の所持者に関連した情報を上記一つのカメラに送信する
サーバの処理方法。
(12)ネットワークを介してサーバに位置情報を送信する情報送信部と、
上記位置情報に対応した取材情報を上記サーバから上記ネットワークを介して受信する情報受信部を備える
カメラ。
(13)上記情報送信部は、電源オン時に上記位置情報を上記サーバに送る
前記(12)に記載のカメラ。
(14)上記受信された取材情報を、撮像クリップデータに付加するためのメタ情報として保持する情報保持部をさらに備える
前記(12)または(13)に記載のカメラ。
(15)情報送信部が、ネットワークを介してサーバに位置情報を送信する情報送信ステップと、
情報受信部が、上記位置情報に対応した取材情報を上記サーバから上記ネットワークを介して受信する情報受信ステップを有する
カメラの処理方法。
(16)特定の一個または複数個のカメラとネットワークを通じて通信をする通信部と、
位置情報に関連付けて取材情報を保持する情報保持部を備え、
上記通信部は、上記特定の一個または複数個のカメラのうちの一つのカメラからの位置情報があるとき、該位置情報に対応する取材情報を上記一つのカメラに送信する
サーバ。
(17)通信部が、特定の一個または複数個のカメラとネットワークを通じて通信をする通信ステップを有し、
上記通信ステップでは、上記特定の一個または複数個のカメラのうちの一つのカメラから位置情報があるとき、該位置情報に対応する取材情報を上記一つのカメラに送信する
サーバの処理方法。
10・・・カメラシステム
101・・・ニュースルームコンピュータシステム
102・・・クライアントPC
103・・・クリップ受信サーバ
104・・・コンテンツマネジメントシステム
105・・・ネットワークインタフェース
200・・・ネットワーク
201・・・クラウドサーバ
211・・・CPU
212・・・ROM
213・・・RAM
214・・・入出力インタフェース
215・・・入力部
216・・・出力部
217・・・記憶部
218・・・ドライブ
219・・・ネットワークインタフェース
301・・・カムコーダ
302・・・スマートフォン(カメラマン)
303・・・スマートフォン(取材者)
311・・・制御部
311a・・・メモリ
312・・・ユーザ操作部
313・・・撮像部
314・・・撮像信号処理部
315・・・画像圧縮エンコーダ
316・・・記録部
317・・・位置情報取得部
318・・・ネットワークインタフェース

Claims (19)

  1. ネットワークを介してサーバに位置情報を送信する情報送信部と、
    上記位置情報で示される位置の近傍に位置する携帯端末を所持する特定人に関連した情報を上記サーバから上記ネットワークを介して受信する情報受信部を備える
    カメラ。
  2. 上記特定人は、上記カメラを用いて取材をする取材者であり、
    上記特定人に関連した情報は、上記取材者に係る取材情報であり、
    上記受信された情報を、撮像クリップデータに付加するためのメタ情報として保持する情報保持部をさらに備える
    請求項1に記載のカメラ。
  3. 上記特定人は、上記カメラを操作するカメラマンであり、
    上記特定人に関連した情報は、上記カメラマンに係るカメラ設定情報であり、
    上記受信された情報に基づいてカメラ設定を行うカメラ制御部をさらに備える
    請求項1に記載のカメラ。
  4. 上記情報送信部は、電源オン時に上記位置情報を上記サーバに送る
    請求項1に記載のカメラ。
  5. 情報送信部が、ネットワークを介してサーバに位置情報を送信する情報送信ステップと、
    受信部が、上記位置情報で示される位置の近傍に位置する携帯端末を所持する特定人に関連した情報を上記サーバから上記ネットワークを介して受信する受信ステップを有する
    カメラの処理方法。
  6. 特定の複数人が所持する携帯端末および特定の一個または複数個のカメラとネットワークを通じて通信をする通信部と、
    上記特定の複数人にそれぞれ関連した情報を保持する情報保持部と、
    上記特定の一個または複数個のカメラのうちの一つのカメラからの位置情報があるとき、該位置情報と上記特定の複数人が所持する携帯端末からの位置情報に基づいて、上記一つのカメラの近傍に上記特定の複数人が所持する携帯端末のうちの一つが存在するマッチング状態にあるかを判断する状態判断部を備え、
    上記通信部は、上記マッチング状態にあると判断されるとき、上記一つのカメラの近傍に位置する上記一つの携帯端末の所持者に関連した情報を上記一つのカメラに送信する
    サーバ。
  7. 上記特定の複数人は、それぞれ、上記一個または複数個のカメラのうちのいずれか一つを用いて取材をする取材者であり、
    上記特定の複数人にそれぞれ関連した情報は、上記取材者に係る取材情報である
    請求項6に記載のサーバ。
  8. 上記複数のカメラのうちどのカメラが上記マッチング状態にあるかを示すUI画面の表示信号を生成する表示信号生成部をさらに備える
    請求項6に記載のサーバ。
  9. 上記UI画面では、上記マッチング状態にあるカメラが、該カメラで取材される取材の情報と関連付けて示される
    請求項8に記載のサーバ。
  10. 上記特定の複数人は、それぞれ、上記一個または複数個のカメラのうちのいずれか一つを操作するカメラマンであり、
    上記特定の複数人にそれぞれ関連した情報は、上記カメラマンに係るカメラ設定情報である
    請求項6に記載のサーバ。
  11. 通信部が、特定の複数人が所持する携帯端末および特定の一個または複数個のカメラとネットワークを通じて通信をする通信ステップと、
    状態判断部が、上記特定の一個または複数個のカメラのうちの一つのカメラからの位置情報があるとき、該位置情報と上記特定の複数人が所持する携帯端末からの位置情報に基づいて、上記一つのカメラの近傍に上記特定の複数人が所持する携帯端末のうちの一つが存在するマッチング状態にあるかを判断する状態判断ステップを有し、
    上記通信ステップでは、上記マッチング状態にあると判断されるとき、上記一つのカメラの近傍に位置する上記一つの携帯端末の所持者に関連した情報を上記一つのカメラに送信する
    サーバの処理方法。
  12. ネットワークを介してサーバに位置情報を送信する情報送信部と、
    上記位置情報に対応した取材情報を上記サーバから上記ネットワークを介して受信する情報受信部を備える
    カメラ。
  13. 上記情報送信部は、電源オン時に上記位置情報を上記サーバに送る
    請求項12に記載のカメラ。
  14. 上記受信された取材情報を、撮像クリップデータに付加するためのメタ情報として保持する情報保持部をさらに備える
    請求項12に記載のカメラ。
  15. 情報送信部が、ネットワークを介してサーバに位置情報を送信する情報送信ステップと、
    情報受信部が、上記位置情報に対応した取材情報を上記サーバから上記ネットワークを介して受信する情報受信ステップを有する
    カメラの処理方法。
  16. 特定の一個または複数個のカメラとネットワークを通じて通信をする通信部と、
    位置情報に関連付けて取材情報を保持する情報保持部を備え、
    上記通信部は、上記特定の一個または複数個のカメラのうちの一つのカメラからの位置情報があるとき、該位置情報に対応する取材情報を上記一つのカメラに送信する
    サーバ。
  17. 通信部が、特定の一個または複数個のカメラとネットワークを通じて通信をする通信ステップを有し、
    上記通信ステップでは、上記特定の一個または複数個のカメラのうちの一つのカメラから位置情報があるとき、該位置情報に対応する取材情報を上記一つのカメラに送信する
    サーバの処理方法。
  18. ネットワークを介してサーバに位置情報を送信する情報送信部と、
    上記位置情報で示される位置の近傍に位置する携帯端末を所持する特定人に関連した情報を上記サーバから上記ネットワークを介して受信する情報受信部を備える
    情報処理装置。
  19. ネットワークを介してサーバに位置情報を送信する情報送信部と、
    上記位置情報に対応した情報を上記サーバから上記ネットワークを介して受信する情報受信部を備える
    情報処理装置。
JP2018559080A 2016-12-27 2017-12-19 カメラ、カメラの処理方法、サーバ、サーバの処理方法および情報処理装置 Active JP7020429B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016252381 2016-12-27
JP2016252381 2016-12-27
PCT/JP2017/045462 WO2018123714A1 (ja) 2016-12-27 2017-12-19 カメラ、カメラの処理方法、サーバ、サーバの処理方法および情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2018123714A1 true JPWO2018123714A1 (ja) 2019-10-31
JP7020429B2 JP7020429B2 (ja) 2022-02-16

Family

ID=62708027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018559080A Active JP7020429B2 (ja) 2016-12-27 2017-12-19 カメラ、カメラの処理方法、サーバ、サーバの処理方法および情報処理装置

Country Status (5)

Country Link
US (1) US11159709B2 (ja)
EP (1) EP3565233B1 (ja)
JP (1) JP7020429B2 (ja)
CN (2) CN114640794A (ja)
WO (1) WO2018123714A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117679A1 (ja) * 2019-12-09 2021-06-17 ソニーグループ株式会社 端末装置、制御プログラム、情報処理装置、情報処理プログラムおよび情報処理システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352218A (ja) * 2001-05-24 2002-12-06 Olympus Optical Co Ltd ファイル名設定システム、電子カメラ、及び情報処理装置
JP2004096413A (ja) * 2002-08-30 2004-03-25 Casio Comput Co Ltd 取材情報提供装置及び取材用携帯端末装置
JP2010288002A (ja) * 2009-06-10 2010-12-24 Ikegami Tsushinki Co Ltd ファイル名設定方法
JP2016154300A (ja) * 2015-02-20 2016-08-25 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム、ウェアラブルカメラ、サーバ、及び録画制御方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3879170B2 (ja) 1997-03-31 2007-02-07 ソニー株式会社 撮像装置及び撮像方法
JP2002101369A (ja) * 2000-09-26 2002-04-05 Yokohama Consulting Group:Kk 撮影端末装置、画像処理サーバ、撮影方法及び画像処理方法
US6930707B2 (en) * 2000-12-22 2005-08-16 International Business Machines Corporation Digital camera apparatus with biometric capability
US7386601B2 (en) 2002-08-28 2008-06-10 Casio Computer Co., Ltd. Collected data providing apparatus and portable terminal for data collection
JP2005204124A (ja) 2004-01-16 2005-07-28 Matsushita Electric Ind Co Ltd カメラ装置及びネットワークシステム
US20060170778A1 (en) * 2005-01-28 2006-08-03 Digital News Reel, Llc Systems and methods that facilitate audio/video data transfer and editing
US20090254562A1 (en) * 2005-09-02 2009-10-08 Thomson Licensing Automatic Metadata Extraction and Metadata Controlled Production Process
KR100780438B1 (ko) * 2006-08-22 2007-11-29 삼성전자주식회사 휴대용 단말기에서 카메라의 촬영정보를 설정하는 방법 및장치
US20080147730A1 (en) * 2006-12-18 2008-06-19 Motorola, Inc. Method and system for providing location-specific image information
US8164426B1 (en) * 2008-04-09 2012-04-24 Chanan Steinhart System and method for producing and distributing digital images including data identifying subjects being photographed
US9683853B2 (en) * 2009-01-23 2017-06-20 Fuji Xerox Co., Ltd. Image matching in support of mobile navigation
US8180208B2 (en) * 2010-05-19 2012-05-15 Eastman Kodak Company Identifying a photographer
US9055276B2 (en) * 2011-07-29 2015-06-09 Apple Inc. Camera having processing customized for identified persons
CN102339579B (zh) 2011-10-13 2014-10-15 上海旅游网旅行服务有限公司 一种导游系统
US20130156274A1 (en) * 2011-12-19 2013-06-20 Microsoft Corporation Using photograph to initiate and perform action
TWI519167B (zh) * 2012-04-23 2016-01-21 廣達電腦股份有限公司 運用後設資料來進行目標辨識與事件重現之系統
CN103731599A (zh) * 2012-10-16 2014-04-16 北京千橡网景科技发展有限公司 拍照方法及相机
JP2014109927A (ja) * 2012-12-03 2014-06-12 Sony Corp 情報処理装置、情報処理方法、プログラム、端末装置及び通信装置
CN103347046B (zh) 2013-06-06 2017-03-01 百度在线网络技术(北京)有限公司 一种基于位置的信息交互方法及服务器
WO2016044442A1 (en) * 2014-09-16 2016-03-24 Jiwen Liu Identification of individuals in images and associated content delivery
WO2017044910A1 (en) * 2015-09-10 2017-03-16 I'm In It, Llc Methods, devices, and systems for determining a subset for autonomous sharing of digital media
US10318812B2 (en) * 2016-06-21 2019-06-11 International Business Machines Corporation Automatic digital image correlation and distribution

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352218A (ja) * 2001-05-24 2002-12-06 Olympus Optical Co Ltd ファイル名設定システム、電子カメラ、及び情報処理装置
JP2004096413A (ja) * 2002-08-30 2004-03-25 Casio Comput Co Ltd 取材情報提供装置及び取材用携帯端末装置
JP2010288002A (ja) * 2009-06-10 2010-12-24 Ikegami Tsushinki Co Ltd ファイル名設定方法
JP2016154300A (ja) * 2015-02-20 2016-08-25 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム、ウェアラブルカメラ、サーバ、及び録画制御方法

Also Published As

Publication number Publication date
CN114640794A (zh) 2022-06-17
EP3565233B1 (en) 2021-07-07
US20200099848A1 (en) 2020-03-26
JP7020429B2 (ja) 2022-02-16
EP3565233A1 (en) 2019-11-06
WO2018123714A1 (ja) 2018-07-05
US11159709B2 (en) 2021-10-26
CN110089099A (zh) 2019-08-02
EP3565233A4 (en) 2020-01-08

Similar Documents

Publication Publication Date Title
US20200344421A1 (en) Image pickup apparatus, image pickup control method, and program
US20200322585A1 (en) Image processing device, image processing method, and vehicle
US20200154025A1 (en) Control apparatus, image pickup apparatus, control method, program, and image pickup system
US11585898B2 (en) Signal processing device, signal processing method, and program
JP7074125B2 (ja) 情報処理装置と情報処理方法
EP3669358B1 (en) Server, method, non-transitory computer-readable medium, and system
JP7127636B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US11689797B2 (en) Camera, method, non-transitory computer-readable medium, and system
WO2020085101A1 (ja) 画像処理装置と画像処理方法およびプログラム
JP7020429B2 (ja) カメラ、カメラの処理方法、サーバ、サーバの処理方法および情報処理装置
US11671700B2 (en) Operation control device, imaging device, and operation control method
US11303815B2 (en) Imaging apparatus and imaging method
WO2022190801A1 (ja) 情報処理装置、情報処理システム、情報処理方法及び記録媒体
WO2024101015A1 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220117

R151 Written notification of patent or utility model registration

Ref document number: 7020429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151