JPWO2018020769A1 - 映像システム装置 - Google Patents

映像システム装置 Download PDF

Info

Publication number
JPWO2018020769A1
JPWO2018020769A1 JP2017560621A JP2017560621A JPWO2018020769A1 JP WO2018020769 A1 JPWO2018020769 A1 JP WO2018020769A1 JP 2017560621 A JP2017560621 A JP 2017560621A JP 2017560621 A JP2017560621 A JP 2017560621A JP WO2018020769 A1 JPWO2018020769 A1 JP WO2018020769A1
Authority
JP
Japan
Prior art keywords
digital camera
hub
host
image
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017560621A
Other languages
English (en)
Inventor
内田 茂樹
茂樹 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2018020769A1 publication Critical patent/JPWO2018020769A1/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/04Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

互いに異なる方向から特定の被写体を撮影する複数の撮像部(130)と、前記複数の撮像部(130)が撮影するタイミングを制御する撮影信号を前記複数の撮像部(130)に与える撮影信号送信部と、前記複数の撮像部(130)のそれぞれの物理的な位置を示す位置情報を取得し、前記複数の撮像部(130)のそれぞれから映像を受信した場合に、対応する前記位置情報に基づくファイル名で前記映像を保存するホスト(110)と、を備える映像システム装置(100)。

Description

本開示は、複数の撮像部で特定の被写体を多方面から撮影する映像システム装置に関する。
特許文献1は、同一機器を異なる階層に接続することで異なる役割を与える機器制御システムを開示する。この機器制御システムは、ルートハブに対して複数のハブをカスケード接続することで、階層分けされた複数のポートを形成する。この機器制御システムは、各階層に1つの機器のみ接続するため、階層の違いによってポートを区別して認識することができる。これにより、各ポートに接続された機器ごとに異なる役割を与えることが可能となる。
特開2002−7307号公報
本開示の映像システム装置は、互いに異なる方向から特定の被写体を撮影する複数の撮像部と、前記複数の撮像部が撮影するタイミングを制御する撮影信号を前記複数の撮像部に与える撮影信号送信部と、前記複数の撮像部のそれぞれの物理的な位置を示す位置情報を取得し、前記複数の撮像部のそれぞれから映像を受信した場合に、対応する前記位置情報に基づくファイル名で前記映像を保存するホストと、を備える。
本開示における映像システム装置は、撮影画像とデジタルカメラの対応関係を容易に特定可能である。
図1Aは実施の形態1における映像システム装置の構成を示す模式図である。 図1Bは実施の形態1におけるタブレット端末の構成を示すブロック図である。 図2は実施の形態1におけるホストPCとUSBハブの接続構成を示す模式図である。 図3は実施の形態1における映像システム装置で取得可能な撮影画像の一例を示す図である。 図4は実施の形態1におけるデジタルカメラの構成を示すブロック図である。 図5は実施の形態1における映像システム装置の構成を示す上面俯瞰図である。 図6は実施の形態1におけるデジタルカメラがどのUSBハブに取り付けられているかを示す図である。 図7は実施の形態1における各々のデジタルカメラが撮影する映像のファイル名を説明するための図である。 図8は実施の形態1におけるデジタルカメラの物理的な位置と取得した撮影画像の一覧を示す模式図である。 図9は実施の形態1における映像システム装置の動作を説明するためのフローチャートである。 図10は実施の形態1におけるファイル名を生成する動作を説明するためのフローチャートである。 図11は実施の形態1における動作異常カメラを特定する動作を説明するためのフローチャートである。 図12は実施の形態2における映像システム装置の構成を示す模式図である。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより請求の範囲に記載の主題を限定することは意図されていない。
(実施の形態1)
以下、図1A〜図11を用いて、実施の形態1を説明する。
[1−1.構成]
[1−1−1.映像システム装置の構成]
(実施の形態1)
図1Aは、実施の形態1における映像システム装置100の構成を示す模式図である。システムを制御するためのホストとしてのホストPC(Personal Computer)110と、ホストPC110に接続されたUSB(Universal Serial Bus)ハブ120及び無線ルーター210と、USBハブ120に接続された複数のデジタルカメラ130と、複数のデジタルカメラ130の近傍にそれぞれ位置する複数のランプ140で構成される。また、複数のデジタルカメラ130及び複数のランプ140を支持する複数のフレーム150と、フレーム150の上面の梁に設置されたストロボ160と、オペレータ170等からの音声を伝えるスピーカ180と、オペレータ170により操作されるタブレット端末190も備える。さらに映像システム装置100の中央に被写体200が配置され、複数のデジタルカメラ130で撮影する。
ホストPC110はWebサーバとして機能する。オペレータ170は、タブレット端末190を使用し、タブレット端末190のWebブラウザからホストPC110にアクセス出来る。これによりオペレータ170は、タブレット端末190を介して映像システム装置100を制御することが可能である。実施の形態1では、ホストPC110は、位置情報取得部として機能し、各々のデジタルカメラ130の位置情報を、各々のデジタルカメラ130が接続されたUSBハブ120のアドレス情報と対応付けて取得する。位置情報とは、各々のデジタルカメラ130の物理的な位置を示す情報であり、実施の形態1では、各々のデジタルカメラ130の識別情報と、各々のデジタルカメラ130の物理的な位置とを対応付けた情報とする。アドレス情報とは、各々のデジタルカメラ130とUSBハブ120との電子的な接続情報(USBハブ120の階層情報と、ポート番号情報)であり、階層構造で表現される。ホストPC110は、各々のデジタルカメラ130から、その撮影画像(映像)を各々のデジタルカメラ130の識別情報とともに取得する。ホストPC110は、撮影画像に紐付いたデジタルカメラ130の識別情報から、あるいは取得した経路のアドレス情報から、撮影画像を撮影したデジタルカメラ130の位置情報を特定する。そしてホストPC110は、特定した位置情報に基づいたファイル名を撮影画像に付与して撮影画像を保存する。ホストPC110は、複数のデジタルカメラ130からそれぞれ撮影画像を受信した後、それらの撮影画像から被写体200の3Dモデルデータを作成する。
USBハブ120は、ホストPC110と複数のデジタルカメラ130とを接続するハブとして機能する(詳細は後述する)。
無線ルーター210は、ホストPC110と外付接続され、ホストPC110から信号を受信して無線にて接続されているタブレット端末190に信号を伝達する。
デジタルカメラ130は、フレーム150に沿って鉛直方向に並ぶように固定される。各々のフレーム150には1つずつUSBハブ120が配置される。またデジタルカメラ130とUSBハブ120のポートとは、一対一で対応付けられる。つまり各々のデジタルカメラ130は自身が取り付けられたフレーム150に配置されたUSBハブ120のポートに一つずつ接続される。一つのフレーム150に固定された複数のデジタルカメラ130を一つの映像ユニットとする。映像システム装置100は、複数の映像ユニットを備える。複数の映像ユニットは、映像システム装置100の鉛直方向(図1Aの紙面上における上下方向)に円弧状に配置される。
各々のランプ140は、フレーム150によって支持され、対応するデジタルカメラ130の近傍に配置される。ランプ140が点灯することにより、オペレータ170等にどのデジタルカメラ130を指し示すかを報知する。つまりランプは、それぞれのデジタルカメラ130の物理的な位置をオペレータ170に報知可能な報知部として機能する。
フレーム150は、鉛直方向に平行な直線的に形成される。各フレーム150の鉛直方向における一端どうし(図1Aでは上端どうし)を結ぶように水平部材が配置され、各フレーム150は支持される。水平部材は、水平方向に平行な面上に配置される。水平部材の中央には十字の梁が架けられている。
ストロボ160は、フレーム150の上方に形成される十字の梁の中央部に配置される。ストロボ160は、上側(天井側)へ照射するように設置される。被写体200は、天井から反射した光によって照らされる。
スピーカ180は、フレーム150が設置されている部屋の上部に設置される。そのスピーカ180からは、オペレータ170の音声を聞くことができ、被写体200である人物に指示を出すことができる。
タブレット端末190は、図1Bに示すように、操作部191と、通信部192と、コントローラ193と、表示モニタ194と、を備える。
操作部191はオペレータ170による操作を受け付ける。操作部191は、機械的な操作釦であってもよく、表示モニタ194と一体化したタッチパネルであってもよい。
通信部192はホストPC110と双方向に通信する。通信部192は、赤外線通信あるいはWi−Fi規格やBluetooth(登録商標)規格などに準拠した無線通信が可能な通信装置である。場合によっては、通信部192はLAN(Local Area Network)ケーブルによってルータに接続され、ホストPC110と通信可能な有線通信の通信装置であってもよい。また通信部192は、無線通信あるいは有線通信を用いて直接デジタルカメラ130と通信可能な通信装置であってもよい。
コントローラ193は、各種信号を生成したり、通信部192による通信を制御したりする。各種信号には、デジタルカメラ130の撮影タイミングを制御する撮影信号であるシャッター操作信号が含まれる。コントローラ401は、マイクロコントローラ、Central Processing Unit(CPU)、Micro Processing Unit(MPU)、Digital Signal Processor(DSP)、Application Specific Integrated Circuit(ASIC)、Field‐Programmable Gate Array(FPGA)などで実現できる。
表示モニタ194は、例えば液晶モニタ、有機EL(Electro Luminescence)モニタなどの表示装置である。
オペレータ170がタブレット端末190の操作部191に撮影の指示を入力すると、タブレット端末190の通信部192は、操作部で受け付けた撮影の指示に基づいて、デジタルカメラ130のシャッター操作信号を、ホストPC110を介してデジタルカメラ130に送信する。つまりタブレット端末190の通信部192は、撮影信号送信部として機能する。またタブレット端末190の通信部192は、ホストPC110が受信したデジタルカメラ130からの映像を取得する。オペレータ170は、タブレット端末190の通信部192が受信した映像を、タブレット端末190の表示モニタ194で確認できる。
被写体200は、人物あるいは物体であり、3D(3次元)モデルデータを作成する対象である。
オペレータ170は、タブレット端末190を使用して、被写体200を撮影する。被写体200がシステム中央に配置されていることを確認し、任意のタイミングですべてのデジタルカメラ130のシャッターを同時に切ることができる。
尚、無線ルーター210は、図1AにおいてホストPC110に対して外付接続されていると説明したが、ホストPC110に内蔵されていても構わない。
図2は、実施の形態1におけるホストPC110とUSBハブ120の接続構成を示す模式図である。ホストPC110のUSBコネクタ220及びUSBコネクタ230にUSBハブ1(HUB1)及びUSBハブ2(HUB2)が接続される。以下、USBハブをHUBと記す場合がある。HUB1及びHUB2はそれぞれ4つのポートを有する。さらにHUB1及びHUB2は、HUB11〜HUB14及びHUB21〜HUB24をカスケード接続する。HUB11〜HUB14、HUB21〜HUB24はそれぞれ10個のポートを有する。尚、図2は、例えば4ポートUSBハブであるHUB1は、ホストPC110のUSBコネクタ220に接続され、4ポートUSBハブであるHUB2は、ホストPC110のUSBコネクタ230に接続されていることを示している。複数のデジタルカメラ130が、10ポートUSBハブのHUB11〜HUB14及びHUB21〜HUB24にそれぞれ接続される場合、これらのデジタルカメラ130のアドレス情報は、USBハブ120の階層情報およびポート番号情報に基づいて個別に識別される。階層情報とは、たとえば1階層目がHUB1及びHUB2のいずれであるかと、2階層目がHUB11〜HUB14およびHUB21〜HUB24のいずれであるかを示す情報である。尚、デジタルカメラ130の接続台数やUSBハブ120の接続構成は、USBの規格で制限されるものであって、本実施において制限されるものではない。
尚、図2では、1台のホストPC110のUSBコネクタ220、230を使用して2階層構造でデジタルカメラ130を接続したがそれに限るものではなく、複数のホストPC110を用いて1階層構造でデジタルカメラ130を接続してもよい。さらに複数のホストPC110を用いることで、デジタルカメラ130の接続台数を増加させてもよい。
図3は、実施の形態1における映像システム装置100で取得可能な撮影画像の一例を示す図である。写真Aは、被写体200の正面かつフレーム150の中間位置にあるデジタルカメラ130(デジタルカメラ130Aと称す)によって撮影された映像である。写真Bは、デジタルカメラ130Aと正対するデジタルカメラ130(デジタルカメラ130Bと称す)によって撮影された映像である。また、写真Cは、デジタルカメラ130Aの上方に位置するデジタルカメラ130(デジタルカメラ130Cと称す)によって撮影された映像である。写真Dは、デジタルカメラ130Aの下方に位置するデジタルカメラ130(デジタルカメラ130Dと称す)によって撮影された映像である。複数のデジタルカメラ130は、被写体200の周囲にそれぞれ配置されているため、被写体200を様々な角度から撮影することが可能である。そのため、これらの複数の撮影画像を用いることで3Dモデルデータを作成することができる。
以下、図面を用いて本開示に係る撮像部の実施の形態を説明する。
[1−1−2.デジタルカメラ130の構成]
図4は、実施の形態1におけるデジタルカメラ130の構成を示すブロック図である。実施の形態1に係るデジタルカメラ130の電気的構成について図4を用いて説明する。デジタルカメラ130は、1又は複数のレンズからなる光学系240により形成された被写体200の像をCCD(Charge Coupled Device)250で撮像する撮像装置である。CCD250で生成された画像データは、画像処理部260で各種処理が施され、メモリカード270に格納される。以下、デジタルカメラ130の構成を詳細に説明する。
光学系240は、ズームレンズ280やフォーカスレンズ290を含む。ズームレンズ280を光軸に沿って移動させることにより、被写体200の像の拡大又は縮小をすることができる。また、フォーカスレンズ290を光軸に沿って移動させることにより、被写体200の像のピント(合焦状態)を調整することができる。
レンズ駆動部300は、光学系240に含まれる各レンズ(例えばズームレンズ280及びフォーカスレンズ290)を駆動させる。レンズ駆動部300は、例えばズームレンズ280を駆動するズームモータや、フォーカスレンズ290を駆動するフォーカスモータを含む。
絞り部310は、ユーザの設定に応じて又は自動で開口部の大きさを調整し、開口部を透過する光の量を調整する。
シャッタ部320は、CCD250に透過させる光を遮光するための手段である。シャッタ部320は、光学系240及び絞り部310とともに、被写体200の像を示す光学情報を制御する光学系部を構成する。また、光学系240及び絞り部310はレンズ鏡筒内に収納される。
CCD250は、光学系240で形成された被写体200の像を撮像して、画像データを生成する。CCD250は、カラーフィルタと、受光素子と、AGC(Auto Gain Controller)とを含む。受光素子は、光学系240によって集光された光学的信号を電気信号に変換し、画像情報を生成する。AGCは、受光素子から出力された電気信号を増幅する。
ADC(A/Dコンバータ:アナログ−デジタル変換器)330は、CCD250で生成されたアナログ画像データをデジタル画像データに変換する。
画像処理部260は、CCD250で生成され、変換されたデジタル画像データに対して、コントローラ340の制御を受け、各種処理を施す。画像処理部260は、表示モニタ350に表示するための画像データを生成したり、メモリカード270に格納するための画像データを生成したりする。例えば、画像処理部260は、CCD250で生成された画像データに対して、ガンマ補正、ホワイトバランス補正、傷補正などの各種処理を行う。また、画像処理部260は、CCD250で生成された画像データを、H.264規格やMPEG2規格に準拠した圧縮形式等により圧縮する。また、画像処理部260は、CCD250で生成された画像データに基づいて、例えば、素数4000×2000前後の動画の画像データ(4K動画データ)を生成することができる。画像処理部260は、生成した4K動画データに対して後述する種々の処理を行うことができる。
コントローラ340は、デジタルカメラ130の全体を制御する制御手段である。コントローラ340は、半導体素子などで実現可能である。
画像処理部260やコントローラ340は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。コントローラ340は、マイクロコントローラ、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field‐Programmable Gate Array)などで実現できる。
バッファ360は、画像処理部260及びコントローラ340のワークメモリとして機能する。バッファ360は、例えば、DRAM(Dynamic Random Access Memory)、強誘電体メモリなどで実現できる。
カードスロット370は、メモリカード270をデジタルカメラ130に装着するための手段である。カードスロット370は、機械的及び電気的にメモリカード270とデジタルカメラ130を接続可能である。
メモリカード270は、フラッシュメモリや強誘電体メモリなどを内部に含み、画像処理部260で生成された画像ファイル等のデータを格納可能である。
内蔵メモリ380は、フラッシュメモリや強誘電体メモリなどで構成される。内蔵メモリ380は、デジタルカメラ130全体を制御するための制御プログラムやデータ等を記憶している。
操作部材390は、ユーザからの操作を受け付けるユーザーインターフェースの総称である。操作部材390は、ユーザからの操作を受け付けるボタン、レバー、ダイヤル、タッチパネル、スイッチ等を含む。また、操作部材390は、レンズ鏡筒の外周に設けられたフォーカスリングを含む。フォーカスリングは、フォーカスレンズ290を移動させるためにユーザにより回転操作される部材である。
表示モニタ350は、CCD250で生成した画像データが示す画像(スルー画像)や、メモリカード270から読み出した画像データが示す画像を表示可能である。また、表示モニタ350は、デジタルカメラ130の各種設定を行うための各種メニュー画面等も表示可能である。表示モニタ350は、液晶表示デバイスや有機EL(Electro Luminescence)表示デバイスで構成される。
[1−2.動作]
以上のように構成された映像システム装置100について、その動作を以下説明する。映像システム装置100は、デジタルカメラ130の位置情報の取得、撮影画像の取得およびデジタルカメラ130の位置情報に基づく撮影画像ファイル名の生成の各動作を行う。以下、それぞれの動作について詳細に説明する。
[1−2−1.デジタルカメラ130位置情報の取得]
図5は、実施の形態1における映像システム装置100の構成を示す上面俯瞰図である。HUB11、HUB12、HUB13は同一の4ポートUSBハブであるHUB1に接続され、HUB21、HUB22、HUB23は同一の4ポートUSBハブであるHUB2に接続される。HUB11〜HUB13及びHUB21〜HUB23は、上面から見た場合に、同心円状に等間隔に配置される。フレーム150が設置される空間の正面扉400は、開閉する際にHUB11とHUB23に邪魔にならないように配置される。
図6は、実施の形態1におけるデジタルカメラ130がどのUSBハブ120に取り付けられているかを示す図である。図6に示すように、デジタルカメラ130の物理的な位置とアドレス情報(USBハブ120の階層情報及びポート番号情報)とを対応させることで、デジタルカメラ130の位置情報をマトリックスとして表すことができる。なお、図1Aでは、10ポートUSBハブであるHUB11〜HUB13及びHUB21〜HUB23にそれぞれデジタルカメラ130を3台ずつ設置させたが、図6では、10ポートUSBハブであるHUB11〜HUB13及びHUB21〜HUB23にそれぞれデジタルカメラ130を6台ずつ設置させた際の各デジタルカメラ130の位置とアドレス情報との関係を表す。図6の横軸は、デジタルカメラ130がHUB11〜HUB13及びHUB21〜HUB23のどのハブに取り付けられているかを示している。たとえば図6の横軸の「1−1」はHUB11に対応し、「1−2」はHUB12、「1−3」はHUB13に対応する。横軸の「2−1」、「2−2」、「2−3」はそれぞれHUB21、HUB22、HUB23に対応する。図6の縦軸は、デジタルカメラ130がHUB11〜HUB13及びHUB21〜HUB23のどのポートに取り付けられているかを示している。尚、HUB11〜HUB13及びHUB21〜HUB23のポートには、それぞれ200、300、100、420、430、410・・・の10個の番号が振られている。
図7は、実施の形態1における各々のデジタルカメラ130が撮影する映像(撮影画像)のファイル名を説明するための図である。尚、図7は、図6と同様にHUB11〜HUB13及びHUB21〜HUB23にそれぞれデジタルカメラ130を6台ずつ設置した際の、各デジタルカメラ130の撮影画像のファイル名に含まれる数字を示している。図7に示す数字から、各デジタルカメラ130が接続されているUSBハブ120の階層情報およびポート番号情報が特定できる。たとえば撮影画像のファイル名に「11200」が含まれる場合、10ポートUSBハブであるHUB11のポート「200」に接続されたデジタルカメラ130の撮影画像であることが特定できる。つまり各々のデジタルカメラ130から送信される撮影画像に、USBハブ120のアドレス情報を示すファイル名を付与しホストPC110に保存する。これによりオペレータ170は、ホストPC110に保存された撮影画像がどのデジタルカメラ130から送信された撮影画像かがわかる。
図8は、実施の形態1におけるデジタルカメラ130の物理的な位置と取得した撮影画像の一覧を示す模式図である。ホストPC110は、デジタルカメラ130から撮影画像を取得する際、USBハブ120のアドレス情報を示すファイル名に基づいてデジタルカメラ130の物理的な位置を特定し、図8に示すような、各撮影画像がタイル上に配置された画像(以下タイル画像という)を新たに生成する。なお、各タイルは、デジタルカメラ130の物理的な位置に対応して配置されている。オペレータ170は、タブレット端末190のWebブラウザを通じて、生成したタイル画像を確認することが出来る。仮に特定のデジタルカメラ130が撮影或いは画像取得に失敗した場合、対応するデジタルカメラ130の撮影画像の欄を×印の画像へ差し替え、さらに対応するファイル名のテキストファイルを作成する。そのため、オペレータ170は生成されたタイル画像を確認するか、もしくは取得した撮影画像が保存されているWebサーバ内のフォルダを確認するだけで、どのデジタルカメラ130の画像が取得できていないか容易に特定することができる。また、そのテキストファイルには、デジタルカメラ130のエラーログが記載されている。つまり、テキストエディタ等でテキストファイルを開くと、デジタルカメラ130においてどのようなエラーが発生しているかを確認することが出来る。
図9は、実施の形態1における映像システム装置100の動作を説明するためのフローチャートである。
オペレータ170は、被写体200が映像システム装置100の中央に位置しているか否かを確認する(S100)。
被写体200が中央に位置していない場合(S100でNo)、被写体200が中央に位置するように調整を行い、再度確認を行う。たとえばオペレータ170は、被写体200に対し、スピーカ180を介して中央に位置するように指示をしてもよい。
被写体200が中央に位置している場合(S100でYes)、タブレット端末190は、オペレータ170がタブレット端末190を操作して撮影実施の指示をホストPC110に対して行ったか否かを確認する(S110)。
タブレット端末190は、オペレータ170がタブレット端末190を操作して、撮影実施の指示をホストPC110に対して行っていないと判断した場合(S110でNo)、撮影指示があるまで待機する。
タブレット端末190は、オペレータ170がタブレット端末190を操作して、撮影実施の指示をホストPC110に対して行っていると判断した場合(S110でYes)、撮影実施の指示に基づき、すべてのデジタルカメラ130にシャッター操作信号を送信する。シャッター操作信号を受信したすべてのデジタルカメラ130は、一斉に被写体200を同時に撮影する(S120)。撮影は続けて複数回実施されることも可能である。
ホストPC110に接続されたデジタルカメラ130の数が多い場合、すべてのデジタルカメラ130の撮影画像を取得するには時間がかかる。そのため、はじめにサンプルとして数台のデジタルカメラ130からのみ撮影画像の受信を開始する(S130)。このようにすることにより、多数のデジタルカメラ130を備える映像システム装置100であっても、迅速に3Dモデルデータを作成するための撮影画像を決定することが出来る。
ホストPC110は、各々のデジタルカメラ130から撮影画像を取得する際、各々のデジタルカメラ130の位置情報に基づいたファイル名を生成し、そのファイル名を対応する撮影画像に付与して撮影画像を保存する(S140)。
撮影回数が複数の場合は、初回の撮影タイミングでの撮影画像で3Dモデルデータを作成してもよいか否かを確認する。(S150)。別の撮影タイミングでの撮影画像が好ましい場合、再度サンプルとして数台のデジタルカメラ130のみから別の撮影タイミング(例えば2回目の撮影タイミング)での撮影画像を取得する(S150でYes)。
ステップS150で、別の撮影タイミングの撮影画像を取得する必要はないと判断した場合(ステップS150でNo)、どのタイミングの撮影画像を用いるかが決定される(S160)。そして、サンプル以外の他のすべてのデジタルカメラ130から、決定されたタイミングの撮影画像を取得する(S170)。
ホストPC110は、各々のデジタルカメラ130から撮影画像を取得する際、各々のデジタルカメラ130の位置情報に基づいたファイル名を生成し、そのファイル名を対応する撮影画像に付与して撮影画像を保存する(S180)。
すべてのデジタルカメラ130から撮影画像を取得し終えた後、異常なデジタルカメラ130があるか否かを特定する(S190)。
次に、ステップS190で異常なデジタルカメラ130が特定されたか否かを確認する(S200)。
ステップS190で異常なデジタルカメラ130が特定された場合(S200でYes)は、オペレータ170に対してどのデジタルカメラ130で異常が発生しているかを報知する(S210)。例えば実施の形態1では、異常なデジタルカメラ130の近傍にあるランプ140を点灯させることにより、オペレータ170に報知する。
ステップS190で異常なデジタルカメラ130が特定されなかった場合(S200でNo)は、そのまま終了する。
図10は、実施の形態1におけるファイル名を生成する動作を説明するためのフローチャートである。ファイル名の生成処理について、図10を参照して詳細説明する。図10は、図9のファイル名の生成処理(S140、S180)の詳細な処理フローを示すフローチャートである。
ホストPC110は、ホストPC110にUSB接続された全デバイスを1つずつ探索する(S300)。
そしてホストPC110は、図6に示すようにデジタルカメラ130が接続されているUSBハブ120の階層情報を取得する(S310)。
取得した階層情報に基づいてUSBハブ120のポート番号を取得して保持する(S320)。
次に接続されているデジタルカメラであるか否かを確認する(S330)。デバイスがデジタルカメラ130でない場合は(S330でNo)、ステップ(S300)に戻る。
デバイスがデジタルカメラ130である場合は(S330でYes)、取得したUSBハブ120の階層情報及びポート番号情報に基づいてファイル名を生成する(S340)。例えば生成されるファイル名に番号「12200」が含まれる場合、上2桁の番号「12」は、デジタルカメラ130が、ホストPC110のUSBコネクタ220に接続され、4ポートUSBハブのHUB1の2番目のコネクタを介して10ポートUSBハブのHUB12に接続されていることを示す。また下3桁の番号「200」は、デジタルカメラ130が、ポート番号「200」のコネクタ(図6参照)に接続されていることを示す。
ホストPC110は、すべてのデバイスの探索が完了しているか否かを判定し(S350)、完了していない場合(S350でNo)はステップS300に戻る。完了している場合(S350でYes)は終了する。
図11は、実施の形態1における動作異常カメラを特定する動作を説明するためのフローチャートである。異常なデジタルカメラ130の特定処理について、図11を参照して詳細説明する。図11は、図9の異常カメラの特定(S190)の詳細な処理フローを示すフローチャートである。
ホストPC110は、取得した撮像画像のファイル名と全てのデジタルカメラ130の位置情報とを照合する(S400)。そして受信できていない撮影画像があるか否かを確認する(S410)。つまり、ホストPC110は、保存しているどの撮影画像のファイル名にも特定のデジタルカメラ130の位置情報に基づくファイル名が無い場合、特定のデジタルカメラ130から撮影画像を受信できていないと判断する取得できていないデジタルカメラ130からの画像ファイルがあるか否かを確認する(S410でYes)。
取得できていない撮影画像がある場合(S410でYes)は、その撮影画像がどのデジタルカメラ130の撮影画像であるかを特定する。つまりどのデジタルカメラ130において異常が発生しているかを特定する(S420)。そして特定したデジタルカメラ130の物理的な位置を、特定したデジタルカメラ130のアドレス情報に基づいて識別し、記録する(S430)。取得できていない撮影画像がない場合(S410でNo)は、異常なデジタルカメラ130がないことを記録しそのまま終了する。
[1−3.効果等]
以上のように、実施の形態1の映像システム装置100は、互いに異なる方向から特定の被写体200を撮影する複数のデジタルカメラ130と複数のデジタルカメラ130が撮影するタイミングを制御する撮影信号を複数のデジタルカメラ130に与える撮影信号送信部(タブレット端末190)と、複数のデジタルカメラ130のそれぞれの物理的な位置を示す位置情報を取得し、複数のデジタルカメラ130のそれぞれから映像を受信した場合に、対応する位置情報に基づくファイル名で映像を保存するホストPC110と、を備える。
つまりホストPC110は、複数のデジタルカメラ130で撮影した画像を取得する際、各々のデジタルカメラ130の位置情報に基づいたファイル名で保存する。そのため、撮影画像とデジタルカメラ130の対応関係を容易に特定可能なため、どのデジタルカメラ130において不具合が発生しているのか特定することが容易になる。
また実施の形態1では、複数のデジタルカメラ130により、映像システム装置100の鉛直方向に円弧状に配置された複数の映像ユニットが構成され、複数の映像ユニットには、それぞれ複数のデジタルカメラ130が鉛直方向に配置されている。
これにより各デジタルカメラ130の物理的な位置と各デジタルカメラ130のアドレス情報とを容易に対応付けることができる。また各デジタルカメラがマトリックス状に配置され、被写体200を多方向から撮影できる。
また実施の形態1では、複数のデジタルカメラ130にそれぞれ接続された複数の接続ポートをさらに備え、位置情報は、上記複数の接続ポートのそれぞれのアドレス情報と対応する。
これによりホストPC110は、複数のデジタルカメラ130で撮影した画像を取得する際、各々のデジタルカメラ130の位置情報に基づいて、位置情報に対応するアドレス情報を示すファイル名を生成し、画像に付与できる。
また実施の形態1では、報知部としてランプ140を備える。ランプ140は、複数のデジタルカメラ130のそれぞれの物理的な位置をオペレータに報知可能である。ランプ140は、ホストPC110が保存しているどの映像のファイル名にも複数のデジタルカメラ130のうちの特定のデジタルカメラ130の位置情報に基づくファイル名が無い場合、特定のデジタルカメラ130の物理的な位置を報知する。
これによりオペレータ170は、異常なデジタルカメラ130を容易に特定できる。
(実施の形態2)
以下、図12を用いて、実施の形態2を説明する。
[2−1.構成]
図12は、実施の形態2における映像システム装置100の構成を示す模式図である。実施の形態2では、同一水平面上のデジタルカメラ130を一つの映像ユニットとしてグループ化する。実施の形態2の映像システム装置は、3つの映像ユニットで構成されている。各映像ユニットは、それぞれ10ポートUSBハブであるHUB31〜HUB33に一つずつ接続されている。
[2−2.動作]
実施の形態1と同様に、実施の形態2の映像システム装置100では、デジタルカメラ130の位置情報に基づいてデジタルカメラ130の撮影画像のファイル名が生成される。つまりファイル名は、その撮影画像を撮影したデジタルカメラ130のアドレス情報(階層情報とポート番号情報)を示す。ホストPC110は、取得した撮影画像のファイル名とデジタルカメラの位置情報(アドレス情報)とを照合する。そしてホストPC110は、取得できない撮影画像があると判断すれば、そのファイル名から対応するデジタルカメラ130を特定する。特定したデジタルカメラ130に異常があると判断すれば報知する。
[2−3.効果等]
以上のように、実施の形態2の映像システム装置100も、実施の形態1と同様に、複数のデジタルカメラ130と撮影信号送信部となるタブレット端末(190)と、デジタルカメラ130の位置情報を取得し、位置情報に基づくファイル名で撮影画像を保存するホストPC110と、を備える。
これにより、撮影画像とデジタルカメラ130の対応関係を容易に特定可能なため、どのデジタルカメラ130において不具合が発生しているのか特定することが容易になる。
また実施の形態2では、複数のデジタルカメラ130は、同一水平面上に存在する一部のデジタルカメラ130毎にグループ化されている。したがって、撮影画像とデジタルカメラ130の対応関係を容易に特定可能になり、どのデジタルカメラ130において不具合が発生しているのか特定することが容易になる。
尚、図12では、1台のホストPC110のUSBコネクタ220、230を使用して2階層構造でデジタルカメラ130を接続したがそれに限るものではなく、複数のホストPC110を用いてもよい。
(他の実施の形態)
上記実施の形態では、デジタルカメラ130の物理的な位置を示す位置情報を、USBハブのアドレス情報(階層情報及びポート番号情報)と対応させたが、例えば位置情報を、GPS(Global Positioning System)情報と対応させてもよい。つまり各々のデジタルカメラ130はGPS受信機を備え、撮影画像のデータにGPS情報を付与する。ホストPC110は、予め各々のデジタルカメラ130の位置情報を取得し、位置情報とGPS情報とを紐付けできる。したがって、デジタルカメラ130から撮影画像を取得する際に、撮影画像に含まれるGPS情報からデジタルカメラ130の物理的な位置を特定できる。これにより、さらにデジタルカメラ130の特定が容易になる。またホストPC110は、GPS情報を示すファイル名を生成し、撮影画像に付与して保存してもよい。これにより、画像を送信できていないデジタルカメラ130がある場合、容易に特定できる。
また上記実施の形態では異常なデジタルカメラ130があった場合、ランプ140によりオペレータ170に報知を行う例を挙げたが、この報知の前にUSBハブ120のリセット動作を行い、デジタルカメラ130と再接続を行っても良い。
また上記実施の形態では、ランプ140を報知部として用いたが、報知部はランプ140に限られない。例えば報知部はレーザポインタなどの一つの光源であってもよい。この光源は、対象となるデジタルカメラ130に光線を照射することで、オペレータ170に報知する。またホストPC110やタブレット端末190自体が報知部として機能し、ホストPC110あるいはタブレット端末190に備わる表示モニタに、対象となるデジタルカメラ130を報知できるように表示してもよい。さらに報知部はスピーカであり、デジタルカメラの物理的な位置を音声で報知してもよい。報知部としてのスピーカは、図1Aに示すスピーカ180と共通であってもよく、別個に設けられてもよい。
また上記実施の形態では、タブレット端末190の通信部が撮影信号送信部として機能し、複数のデジタルカメラ130が撮影するタイミングを制御する撮影信号(シャッター操作信号)を出力する構成を説明したが、撮影信号送信部はタブレット端末190の通信部に限られない。撮影信号送信部をホストPC110の通信部や、ホストPC110あるいはデジタルカメラ130と接続可能な他の端末の通信部とし、他の端末やホストPC110の通信部から撮影信号を出力して各デジタルカメラ130の撮影タイミングを操作してもよい。あるいは撮影信号送信部を各デジタルカメラ130に外付けされたシャッター装置としてもよい。つまりオペレータ170が直接、各デジタルカメラ130のシャッター装置を操作して、各デジタルカメラ130の撮影タイミングを操作してもよい。
また上記実施の形態では、ホストとしてホストPC110を用いたが、ホスト自体が携帯可能なタブレット端末であってもよい。
また上記実施の形態では、オペレータ170はタブレット端末190を用いてホストPC110を操作したが、ホストPC110を直接オペレータ170が操作できるようにしてもよい。
また上記実施の形態では、タブレット端末190として携帯型の板状コンピュータを想定して説明したが、いわゆるノートPCでも代用できる。
また上記実施の形態では、撮像部としてデジタルカメラを例に挙げたが、デジタルカメラに限定されるものではない。撮像部としては、撮像機能を有していれば、カメラ付きのスマートフォンやタブレット端末などのカメラ機能以外を有する撮影装置も含む。
以上のように、本出願において開示する技術の例示として、実施の形態1および実施の形態2を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施の形態にも適用できる。また、上記実施の形態1〜実施の形態2で説明した構成要素を組み合わせて、新たな実施の形態とすることも可能である。
なお、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、デジタルカメラを複数用いて特定の被写体を撮影する装置に適用可能である。具体的には、デジタルカメラを複数用いて3Dモデリングに有用なデータを生成するシステムなどに、本開示は適用可能である。
100 映像システム装置
110 ホストPC(ホスト)
120 USBハブ
130 デジタルカメラ(撮像部)
140 ランプ
150 フレーム
160 ストロボ
170 オペレータ
180 スピーカ
190 タブレット端末
191 操作部
192 通信部(撮影信号送信部)
193 コントローラ
194 表示モニタ
200 被写体
210 無線ルーター
220,230 USBコネクタ
本開示は、複数の撮像部で特定の被写体を多方面から撮影する映像システム装置に関する。
特許文献1は、同一機器を異なる階層に接続することで異なる役割を与える機器制御システムを開示する。この機器制御システムは、ルートハブに対して複数のハブをカスケード接続することで、階層分けされた複数のポートを形成する。この機器制御システムは、各階層に1つの機器のみ接続するため、階層の違いによってポートを区別して認識することができる。これにより、各ポートに接続された機器ごとに異なる役割を与えることが可能となる。
特開2002−7307号公報
本開示の映像システム装置は、互いに異なる方向から特定の被写体を撮影する複数の撮像部と、前記複数の撮像部が撮影するタイミングを制御する撮影信号を前記複数の撮像部に与える撮影信号送信部と、前記複数の撮像部のそれぞれの物理的な位置を示す位置情報を取得し、前記複数の撮像部のそれぞれから映像を受信した場合に、対応する前記位置情報に基づくファイル名で前記映像を保存するホストと、を備える。
本開示における映像システム装置は、撮影画像とデジタルカメラの対応関係を容易に特定可能である。
図1Aは実施の形態1における映像システム装置の構成を示す模式図である。 図1Bは実施の形態1におけるタブレット端末の構成を示すブロック図である。 図2は実施の形態1におけるホストPCとUSBハブの接続構成を示す模式図である。 図3は実施の形態1における映像システム装置で取得可能な撮影画像の一例を示す図である。 図4は実施の形態1におけるデジタルカメラの構成を示すブロック図である。 図5は実施の形態1における映像システム装置の構成を示す上面俯瞰図である。 図6は実施の形態1におけるデジタルカメラがどのUSBハブに取り付けられているかを示す図である。 図7は実施の形態1における各々のデジタルカメラが撮影する映像のファイル名を説明するための図である。 図8は実施の形態1におけるデジタルカメラの物理的な位置と取得した撮影画像の一覧を示す模式図である。 図9は実施の形態1における映像システム装置の動作を説明するためのフローチャートである。 図10は実施の形態1におけるファイル名を生成する動作を説明するためのフローチャートである。 図11は実施の形態1における動作異常カメラを特定する動作を説明するためのフローチャートである。 図12は実施の形態2における映像システム装置の構成を示す模式図である。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(実施の形態1)
以下、図1A〜図11を用いて、実施の形態1を説明する。
[1−1.構成]
[1−1−1.映像システム装置の構成]
図1Aは、実施の形態1における映像システム装置100の構成を示す模式図である。システムを制御するためのホストとしてのホストPC(Personal Computer)110と、ホストPC110に接続されたUSB(Universal Serial Bus)ハブ120及び無線ルーター210と、USBハブ120に接続された複数のデジタルカメラ130と、複数のデジタルカメラ130の近傍にそれぞれ位置する複数のランプ140で構成される。また、複数のデジタルカメラ130及び複数のランプ140を支持する複数のフレーム150と、フレーム150の上面の梁に設置されたストロボ160と、オペレータ170等からの音声を伝えるスピーカ180と、オペレータ170により操作されるタブレット端末190も備える。さらに映像システム装置100の中央に被写体200が配置され、複数のデジタルカメラ130で撮影する。
ホストPC110はWebサーバとして機能する。オペレータ170は、タブレット端末190を使用し、タブレット端末190のWebブラウザからホストPC110にアクセス出来る。これによりオペレータ170は、タブレット端末190を介して映像システム装置100を制御することが可能である。実施の形態1では、ホストPC110は、位置情報取得部として機能し、各々のデジタルカメラ130の位置情報を、各々のデジタルカメラ130が接続されたUSBハブ120のアドレス情報と対応付けて取得する。位置情報とは、各々のデジタルカメラ130の物理的な位置を示す情報であり、実施の形態1では、各々のデジタルカメラ130の識別情報と、各々のデジタルカメラ130の物理的な位置とを対応付けた情報とする。アドレス情報とは、各々のデジタルカメラ130とUSBハブ120との電子的な接続情報(USBハブ120の階層情報と、ポート番号情報)であり、階層構造で表現される。ホストPC110は、各々のデジタルカメラ130から、その撮影画像(映像)を各々のデジタルカメラ130の識別情報とともに取得する。ホストPC110は、撮影画像に紐付いたデジタルカメラ130の識別情報から、あるいは取得した経路のアドレス情報から、撮影画像を撮影したデジタルカメラ130の位置情報を特定する。そしてホストPC110は、特定した位置情報に基づいたファイル名を撮影画像に付与して撮影画像を保存する。ホストPC110は、複数のデジタルカメラ130からそれぞれ撮影画像を受信した後、それらの撮影画像から被写体200の3Dモデルデータを作成する。
USBハブ120は、ホストPC110と複数のデジタルカメラ130とを接続するハブとして機能する(詳細は後述する)。
無線ルーター210は、ホストPC110と外付接続され、ホストPC110から信号を受信して無線にて接続されているタブレット端末190に信号を伝達する。
デジタルカメラ130は、フレーム150に沿って鉛直方向に並ぶように固定される。各々のフレーム150には1つずつUSBハブ120が配置される。またデジタルカメラ130とUSBハブ120のポートとは、一対一で対応付けられる。つまり各々のデジタルカメラ130は自身が取り付けられたフレーム150に配置されたUSBハブ120のポートに一つずつ接続される。一つのフレーム150に固定された複数のデジタルカメラ130を一つの映像ユニットとする。映像システム装置100は、複数の映像ユニットを備える。複数の映像ユニットは、映像システム装置100の鉛直方向(図1Aの紙面上における上下方向)の軸を中心に円弧状に配置される。
各々のランプ140は、フレーム150によって支持され、対応するデジタルカメラ130の近傍に配置される。ランプ140が点灯することにより、オペレータ170等にどのデジタルカメラ130を指し示すかを報知する。つまりランプは、それぞれのデジタルカメラ130の物理的な位置をオペレータ170に報知可能な報知部として機能する。
フレーム150は、鉛直方向に平行な直線的に形成される。各フレーム150の鉛直方向における一端どうし(図1Aでは上端どうし)を結ぶように水平部材が配置され、各フレーム150は支持される。水平部材は、水平方向に平行な面上に配置される。水平部材の中央には十字の梁が架けられている。
ストロボ160は、フレーム150の上方に形成される十字の梁の中央部に配置される。ストロボ160は、上側(天井側)へ照射するように設置される。被写体200は、天井から反射した光によって照らされる。
スピーカ180は、フレーム150が設置されている部屋の上部に設置される。そのスピーカ180からは、オペレータ170の音声を聞くことができ、被写体200である人物に指示を出すことができる。
タブレット端末190は、図1Bに示すように、操作部191と、通信部192と、コントローラ193と、表示モニタ194と、を備える。
操作部191はオペレータ170による操作を受け付ける。操作部191は、機械的な操作釦であってもよく、表示モニタ194と一体化したタッチパネルであってもよい。
通信部192はホストPC110と双方向に通信する。通信部192は、赤外線通信あるいはWi−Fi規格やBluetooth(登録商標)規格などに準拠した無線通信が可能な通信装置である。場合によっては、通信部192はLAN(Local Area Network)ケーブルによってルータに接続され、ホストPC110と通信可能な有線通信の通信装置であってもよい。また通信部192は、無線通信あるいは有線通信を用いて直接デジタルカメラ130と通信可能な通信装置であってもよい。
コントローラ193は、各種信号を生成したり、通信部192による通信を制御したりする。各種信号には、デジタルカメラ130の撮影タイミングを制御する撮影信号であるシャッター操作信号が含まれる。コントローラ401は、マイクロコントローラ、Central Processing Unit(CPU)、Micro Processing Unit(MPU)、Digital Signal Processor(DSP)、Application Specific Integrated Circuit(ASIC)、Field‐Programmable Gate Array(FPGA)などで実現できる。
表示モニタ194は、例えば液晶モニタ、有機EL(Electro Luminescence)モニタなどの表示装置である。
オペレータ170がタブレット端末190の操作部191に撮影の指示を入力すると、タブレット端末190の通信部192は、操作部で受け付けた撮影の指示に基づいて、デジタルカメラ130のシャッター操作信号を、ホストPC110を介してデジタルカメラ130に送信する。つまりタブレット端末190の通信部192は、撮影信号送信部として機能する。またタブレット端末190の通信部192は、ホストPC110が受信したデジタルカメラ130からの映像を取得する。オペレータ170は、タブレット端末190の通信部192が受信した映像を、タブレット端末190の表示モニタ194で確認できる。
被写体200は、人物あるいは物体であり、3D(3次元)モデルデータを作成する対象である。
オペレータ170は、タブレット端末190を使用して、被写体200を撮影する。被写体200がシステム中央に配置されていることを確認し、任意のタイミングですべてのデジタルカメラ130のシャッターを同時に切ることができる。
尚、無線ルーター210は、図1AにおいてホストPC110に対して外付接続されていると説明したが、ホストPC110に内蔵されていても構わない。
図2は、実施の形態1におけるホストPC110とUSBハブ120の接続構成を示す模式図である。ホストPC110のUSBコネクタ220及びUSBコネクタ230にUSBハブ1(HUB1)及びUSBハブ2(HUB2)が接続される。以下、USBハブをHUBと記す場合がある。HUB1及びHUB2はそれぞれ4つのポートを有する。さらにHUB1及びHUB2は、HUB11〜HUB14及びHUB21〜HUB24をカスケード接続する。HUB11〜HUB14、HUB21〜HUB24はそれぞれ10個のポートを有する。尚、図2は、例えば4ポートUSBハブであるHUB1は、ホストPC110のUSBコネクタ220に接続され、4ポートUSBハブであるHUB2は、ホストPC110のUSBコネクタ230に接続されていることを示している。複数のデジタルカメラ130が、10ポートUSBハブのHUB11〜HUB14及びHUB21〜HUB24にそれぞれ接続される場合、これらのデジタルカメラ130のアドレス情報は、USBハブ120の階層情報およびポート番号情報に基づいて個別に識別される。階層情報とは、たとえば1階層目がHUB1及びHUB2のいずれであるかと、2階層目がHUB11〜HUB14およびHUB21〜HUB24のいずれであるかを示す情報である。尚、デジタルカメラ130の接続台数やUSBハブ120の接続構成は、USBの規格で制限されるものであって、本実施において制限されるものではない。
尚、図2では、1台のホストPC110のUSBコネクタ220、230を使用して2階層構造でデジタルカメラ130を接続したがそれに限るものではなく、複数のホストPC110を用いて1階層構造でデジタルカメラ130を接続してもよい。さらに複数のホストPC110を用いることで、デジタルカメラ130の接続台数を増加させてもよい。
図3は、実施の形態1における映像システム装置100で取得可能な撮影画像の一例を示す図である。写真Aは、被写体200の正面かつフレーム150の中間位置にあるデジタルカメラ130(デジタルカメラ130Aと称す)によって撮影された映像である。写真Bは、デジタルカメラ130Aと正対するデジタルカメラ130(デジタルカメラ130Bと称す)によって撮影された映像である。また、写真Cは、デジタルカメラ130Aの上方に位置するデジタルカメラ130(デジタルカメラ130Cと称す)によって撮影された映像である。写真Dは、デジタルカメラ130Aの下方に位置するデジタルカメラ130(デジタルカメラ130Dと称す)によって撮影された映像である。複数のデジタルカメラ130は、被写体200の周囲にそれぞれ配置されているため、被写体200を様々な角度から撮影することが可能である。そのため、これらの複数の撮影画像を用いることで3Dモデルデータを作成することができる。
以下、図面を用いて本開示に係る撮像部の実施の形態を説明する。
[1−1−2.デジタルカメラ130の構成]
図4は、実施の形態1におけるデジタルカメラ130の構成を示すブロック図である。実施の形態1に係るデジタルカメラ130の電気的構成について図4を用いて説明する。デジタルカメラ130は、1又は複数のレンズからなる光学系240により形成された被写体200の像をCCD(Charge Coupled Device)250で撮像する撮像装置である。CCD250で生成された画像データは、画像処理部260で各種処理が施され、メモリカード270に格納される。以下、デジタルカメラ130の構成を詳細に説明する。
光学系240は、ズームレンズ280やフォーカスレンズ290を含む。ズームレンズ280を光軸に沿って移動させることにより、被写体200の像の拡大又は縮小をすることができる。また、フォーカスレンズ290を光軸に沿って移動させることにより、被写体200の像のピント(合焦状態)を調整することができる。
レンズ駆動部300は、光学系240に含まれる各レンズ(例えばズームレンズ280及びフォーカスレンズ290)を駆動させる。レンズ駆動部300は、例えばズームレンズ280を駆動するズームモータや、フォーカスレンズ290を駆動するフォーカスモータを含む。
絞り部310は、ユーザの設定に応じて又は自動で開口部の大きさを調整し、開口部を透過する光の量を調整する。
シャッタ部320は、CCD250に透過させる光を遮光するための手段である。シャッタ部320は、光学系240及び絞り部310とともに、被写体200の像を示す光学情報を制御する光学系部を構成する。また、光学系240及び絞り部310はレンズ鏡筒内に収納される。
CCD250は、光学系240で形成された被写体200の像を撮像して、画像データを生成する。CCD250は、カラーフィルタと、受光素子と、AGC(Auto Gain Controller)とを含む。受光素子は、光学系240によって集光された光学的信号を電気信号に変換し、画像情報を生成する。AGCは、受光素子から出力された電気信号を増幅する。
ADC(A/Dコンバータ:アナログ−デジタル変換器)330は、CCD250で生成されたアナログ画像データをデジタル画像データに変換する。
画像処理部260は、CCD250で生成され、変換されたデジタル画像データに対して、コントローラ340の制御を受け、各種処理を施す。画像処理部260は、表示モニタ350に表示するための画像データを生成したり、メモリカード270に格納するための画像データを生成したりする。例えば、画像処理部260は、CCD250で生成された画像データに対して、ガンマ補正、ホワイトバランス補正、傷補正などの各種処理を行う。また、画像処理部260は、CCD250で生成された画像データを、H.264規格やMPEG2規格に準拠した圧縮形式等により圧縮する。また、画像処理部260は、CCD250で生成された画像データに基づいて、例えば、画素数4000×2000前後の動画の画像データ(4K動画データ)を生成することができる。画像処理部260は、生成した4K動画データに対して後述する種々の処理を行うことができる。
コントローラ340は、デジタルカメラ130の全体を制御する制御手段である。コントローラ340は、半導体素子などで実現可能である。
画像処理部260やコントローラ340は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。コントローラ340は、マイクロコントローラ、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field‐Programmable Gate Array)などで実現できる。
バッファ360は、画像処理部260及びコントローラ340のワークメモリとして機能する。バッファ360は、例えば、DRAM(Dynamic Random Access Memory)、強誘電体メモリなどで実現できる。
カードスロット370は、メモリカード270をデジタルカメラ130に装着するための手段である。カードスロット370は、機械的及び電気的にメモリカード270とデジタルカメラ130を接続可能である。
メモリカード270は、フラッシュメモリや強誘電体メモリなどを内部に含み、画像処理部260で生成された画像ファイル等のデータを格納可能である。
内蔵メモリ380は、フラッシュメモリや強誘電体メモリなどで構成される。内蔵メモリ380は、デジタルカメラ130全体を制御するための制御プログラムやデータ等を記憶している。
操作部材390は、ユーザからの操作を受け付けるユーザーインターフェースの総称である。操作部材390は、ユーザからの操作を受け付けるボタン、レバー、ダイヤル、タッチパネル、スイッチ等を含む。また、操作部材390は、レンズ鏡筒の外周に設けられたフォーカスリングを含む。フォーカスリングは、フォーカスレンズ290を移動させるためにユーザにより回転操作される部材である。
表示モニタ350は、CCD250で生成した画像データが示す画像(スルー画像)や、メモリカード270から読み出した画像データが示す画像を表示可能である。また、表示モニタ350は、デジタルカメラ130の各種設定を行うための各種メニュー画面等も表示可能である。表示モニタ350は、液晶表示デバイスや有機EL(Electro Luminescence)表示デバイスで構成される。
[1−2.動作]
以上のように構成された映像システム装置100について、その動作を以下説明する。映像システム装置100は、デジタルカメラ130の位置情報の取得、撮影画像の取得およびデジタルカメラ130の位置情報に基づく撮影画像ファイル名の生成の各動作を行う。以下、それぞれの動作について詳細に説明する。
[1−2−1.デジタルカメラ130位置情報の取得]
図5は、実施の形態1における映像システム装置100の構成を示す上面俯瞰図である。HUB11、HUB12、HUB13は同一の4ポートUSBハブであるHUB1に接続され、HUB21、HUB22、HUB23は同一の4ポートUSBハブであるHUB2に接続される。HUB11〜HUB13及びHUB21〜HUB23は、上面から見た場合に、同心円状に等間隔に配置される。フレーム150が設置される空間の正面扉400は、開閉する際にHUB11とHUB23に邪魔にならないように配置される。
図6は、実施の形態1におけるデジタルカメラ130がどのUSBハブ120に取り付けられているかを示す図である。図6に示すように、デジタルカメラ130の物理的な位置とアドレス情報(USBハブ120の階層情報及びポート番号情報)とを対応させることで、デジタルカメラ130の位置情報をマトリックスとして表すことができる。なお、図1Aでは、10ポートUSBハブであるHUB11〜HUB13及びHUB21〜HUB23にそれぞれデジタルカメラ130を3台ずつ設置させたが、図6では、10ポートUSBハブであるHUB11〜HUB13及びHUB21〜HUB23にそれぞれデジタルカメラ130を6台ずつ設置させた際の各デジタルカメラ130の位置とアドレス情報との関係を表す。図6の横軸は、デジタルカメラ130がHUB11〜HUB13及びHUB21〜HUB23のどのハブに取り付けられているかを示している。たとえば図6の横軸の「1−1」はHUB11に対応し、「1−2」はHUB12、「1−3」はHUB13に対応する。横軸の「2−1」、「2−2」、「2−3」はそれぞれHUB21、HUB22、HUB23に対応する。図6の縦軸は、デジタルカメラ130がHUB11〜HUB13及びHUB21〜HUB23のどのポートに取り付けられているかを示している。尚、HUB11〜HUB13及びHUB21〜HUB23のポートには、それぞれ200、300、100、420、430、410・・・の10個の番号が振られている。
図7は、実施の形態1における各々のデジタルカメラ130が撮影する映像(撮影画像)のファイル名を説明するための図である。尚、図7は、図6と同様にHUB11〜HUB13及びHUB21〜HUB23にそれぞれデジタルカメラ130を6台ずつ設置した際の、各デジタルカメラ130の撮影画像のファイル名に含まれる数字を示している。図7に示す数字から、各デジタルカメラ130が接続されているUSBハブ120の階層情報およびポート番号情報が特定できる。たとえば撮影画像のファイル名に「11200」が含まれる場合、10ポートUSBハブであるHUB11のポート「200」に接続されたデジタルカメラ130の撮影画像であることが特定できる。つまり各々のデジタルカメラ130から送信される撮影画像に、USBハブ120のアドレス情報を示すファイル名を付与しホストPC110に保存する。これによりオペレータ170は、ホストPC110に保存された撮影画像がどのデジタルカメラ130から送信された撮影画像かがわかる。
図8は、実施の形態1におけるデジタルカメラ130の物理的な位置と取得した撮影画像の一覧を示す模式図である。ホストPC110は、デジタルカメラ130から撮影画像を取得する際、USBハブ120のアドレス情報を示すファイル名に基づいてデジタルカメラ130の物理的な位置を特定し、図8に示すような、各撮影画像がタイル上に配置された画像(以下タイル画像という)を新たに生成する。なお、各タイルは、デジタルカメラ130の物理的な位置に対応して配置されている。オペレータ170は、タブレット端末190のWebブラウザを通じて、生成したタイル画像を確認することが出来る。仮に特定のデジタルカメラ130が撮影或いは画像取得に失敗した場合、対応するデジタルカメラ130の撮影画像の欄を×印の画像へ差し替え、さらに対応するファイル名のテキストファイルを作成する。そのため、オペレータ170は生成されたタイル画像を確認するか、もしくは取得した撮影画像が保存されているWebサーバ内のフォルダを確認するだけで、どのデジタルカメラ130の画像が取得できていないか容易に特定することができる。また、そのテキストファイルには、デジタルカメラ130のエラーログが記載されている。つまり、テキストエディタ等でテキストファイルを開くと、デジタルカメラ130においてどのようなエラーが発生しているかを確認することが出来る。
図9は、実施の形態1における映像システム装置100の動作を説明するためのフローチャートである。
オペレータ170は、被写体200が映像システム装置100の中央に位置しているか否かを確認する(S100)。
被写体200が中央に位置していない場合(S100でNo)、被写体200が中央に位置するように調整を行い、再度確認を行う。たとえばオペレータ170は、被写体200に対し、スピーカ180を介して中央に位置するように指示をしてもよい。
被写体200が中央に位置している場合(S100でYes)、タブレット端末190は、オペレータ170がタブレット端末190を操作して撮影実施の指示をホストPC110に対して行ったか否かを確認する(S110)。
タブレット端末190は、オペレータ170がタブレット端末190を操作して、撮影実施の指示をホストPC110に対して行っていないと判断した場合(S110でNo)、撮影指示があるまで待機する。
タブレット端末190は、オペレータ170がタブレット端末190を操作して、撮影実施の指示をホストPC110に対して行っていると判断した場合(S110でYes)、撮影実施の指示に基づき、すべてのデジタルカメラ130にシャッター操作信号を送信する。シャッター操作信号を受信したすべてのデジタルカメラ130は、一斉に被写体200を同時に撮影する(S120)。撮影は続けて複数回実施されることも可能である。
ホストPC110に接続されたデジタルカメラ130の数が多い場合、すべてのデジタルカメラ130の撮影画像を取得するには時間がかかる。そのため、はじめにサンプルとして数台のデジタルカメラ130からのみ撮影画像の受信を開始する(S130)。このようにすることにより、多数のデジタルカメラ130を備える映像システム装置100であっても、迅速に3Dモデルデータを作成するための撮影画像を決定することが出来る。
ホストPC110は、各々のデジタルカメラ130から撮影画像を取得する際、各々のデジタルカメラ130の位置情報に基づいたファイル名を生成し、そのファイル名を対応する撮影画像に付与して撮影画像を保存する(S140)。
撮影回数が複数の場合は、初回の撮影タイミングでの撮影画像で3Dモデルデータを作成してもよいか否かを確認する。(S150)。別の撮影タイミングでの撮影画像が好ましい場合、再度サンプルとして数台のデジタルカメラ130のみから別の撮影タイミング(例えば2回目の撮影タイミング)での撮影画像を取得する(S150でYes)。
ステップS150で、別の撮影タイミングの撮影画像を取得する必要はないと判断した場合(ステップS150でNo)、どのタイミングの撮影画像を用いるかが決定される(S160)。そして、サンプル以外の他のすべてのデジタルカメラ130から、決定されたタイミングの撮影画像を取得する(S170)。
ホストPC110は、各々のデジタルカメラ130から撮影画像を取得する際、各々のデジタルカメラ130の位置情報に基づいたファイル名を生成し、そのファイル名を対応する撮影画像に付与して撮影画像を保存する(S180)。
すべてのデジタルカメラ130から撮影画像を取得し終えた後、異常なデジタルカメラ130があるか否かを特定する(S190)。
次に、ステップS190で異常なデジタルカメラ130が特定されたか否かを確認する(S200)。
ステップS190で異常なデジタルカメラ130が特定された場合(S200でYes)は、オペレータ170に対してどのデジタルカメラ130で異常が発生しているかを報知する(S210)。例えば実施の形態1では、異常なデジタルカメラ130の近傍にあるランプ140を点灯させることにより、オペレータ170に報知する。
ステップS190で異常なデジタルカメラ130が特定されなかった場合(S200でNo)は、そのまま終了する。
図10は、実施の形態1におけるファイル名を生成する動作を説明するためのフローチャートである。ファイル名の生成処理について、図10を参照して詳細説明する。図10は、図9のファイル名の生成処理(S140、S180)の詳細な処理フローを示すフローチャートである。
ホストPC110は、ホストPC110にUSB接続された全デバイスを1つずつ探索する(S300)。
そしてホストPC110は、図6に示すようにデジタルカメラ130が接続されているUSBハブ120の階層情報を取得する(S310)。
取得した階層情報に基づいてUSBハブ120のポート番号を取得して保持する(S320)。
次に接続されているデジタルカメラであるか否かを確認する(S330)。デバイスがデジタルカメラ130でない場合は(S330でNo)、ステップS300に戻る。
デバイスがデジタルカメラ130である場合は(S330でYes)、取得したUSBハブ120の階層情報及びポート番号情報に基づいてファイル名を生成する(S340)。例えば生成されるファイル名に番号「12200」が含まれる場合、上2桁の番号「12」は、デジタルカメラ130が、ホストPC110のUSBコネクタ220に接続され、4ポートUSBハブのHUB1の2番目のコネクタを介して10ポートUSBハブのHUB12に接続されていることを示す。また下3桁の番号「200」は、デジタルカメラ130が、ポート番号「200」のコネクタ(図6参照)に接続されていることを示す。
ホストPC110は、すべてのデバイスの探索が完了しているか否かを判定し(S350)、完了していない場合(S350でNo)はステップS300に戻る。完了している場合(S350でYes)は終了する。
図11は、実施の形態1における動作異常カメラを特定する動作を説明するためのフローチャートである。異常なデジタルカメラ130の特定処理について、図11を参照して詳細説明する。図11は、図9の異常カメラの特定(S190)の詳細な処理フローを示すフローチャートである。
ホストPC110は、取得した撮像画像のファイル名と全てのデジタルカメラ130の位置情報とを照合する(S400)。そして受信できていない撮影画像があるか否かを確認する(S410)。つまり、ホストPC110は、保存しているどの撮影画像のファイル名にも特定のデジタルカメラ130の位置情報に基づくファイル名が無い場合、特定のデジタルカメラ130から撮影画像を受信できていないと判断し、取得できていないデジタルカメラ130からの画像ファイルがあるか否かを確認する(S410でYes)。
取得できていない撮影画像がある場合(S410でYes)は、その撮影画像がどのデジタルカメラ130の撮影画像であるかを特定する。つまりどのデジタルカメラ130において異常が発生しているかを特定する(S420)。そして特定したデジタルカメラ130の物理的な位置を、特定したデジタルカメラ130のアドレス情報に基づいて識別し、記録する(S430)。取得できていない撮影画像がない場合(S410でNo)は、異常なデジタルカメラ130がないことを記録しそのまま終了する。
[1−3.効果等]
以上のように、実施の形態1の映像システム装置100は、互いに異なる方向から特定の被写体200を撮影する複数のデジタルカメラ130と複数のデジタルカメラ130が撮影するタイミングを制御する撮影信号を複数のデジタルカメラ130に与える撮影信号送信部(タブレット端末190)と、複数のデジタルカメラ130のそれぞれの物理的な位置を示す位置情報を取得し、複数のデジタルカメラ130のそれぞれから映像を受信した場合に、対応する位置情報に基づくファイル名で映像を保存するホストPC110と、を備える。
つまりホストPC110は、複数のデジタルカメラ130で撮影した画像を取得する際、各々のデジタルカメラ130の位置情報に基づいたファイル名で保存する。そのため、撮影画像とデジタルカメラ130の対応関係を容易に特定可能なため、どのデジタルカメラ130において不具合が発生しているのか特定することが容易になる。
また実施の形態1では、複数のデジタルカメラ130により、映像システム装置100の鉛直方向の軸を中心に円弧状に配置された複数の映像ユニットが構成され、複数の映像ユニットには、それぞれ複数のデジタルカメラ130が鉛直方向に配置されている。
これにより各デジタルカメラ130の物理的な位置と各デジタルカメラ130のアドレス情報とを容易に対応付けることができる。また各デジタルカメラがマトリックス状に配置され、被写体200を多方向から撮影できる。
また実施の形態1では、複数のデジタルカメラ130にそれぞれ接続された複数の接続ポートをさらに備え、位置情報は、上記複数の接続ポートのそれぞれのアドレス情報と対応する。
これによりホストPC110は、複数のデジタルカメラ130で撮影した画像を取得する際、各々のデジタルカメラ130の位置情報に基づいて、位置情報に対応するアドレス情報を示すファイル名を生成し、画像に付与できる。
また実施の形態1では、報知部としてランプ140を備える。ランプ140は、複数のデジタルカメラ130のそれぞれの物理的な位置をオペレータに報知可能である。ランプ140は、ホストPC110が保存しているどの映像のファイル名にも複数のデジタルカメラ130のうちの特定のデジタルカメラ130の位置情報に基づくファイル名が無い場合、特定のデジタルカメラ130の物理的な位置を報知する。
これによりオペレータ170は、異常なデジタルカメラ130を容易に特定できる。
(実施の形態2)
以下、図12を用いて、実施の形態2を説明する。
[2−1.構成]
図12は、実施の形態2における映像システム装置100の構成を示す模式図である。実施の形態2では、同一水平面上のデジタルカメラ130を一つの映像ユニットとしてグループ化する。実施の形態2の映像システム装置は、3つの映像ユニットで構成されている。各映像ユニットは、それぞれ10ポートUSBハブであるHUB31〜HUB33に一つずつ接続されている。
[2−2.動作]
実施の形態1と同様に、実施の形態2の映像システム装置100では、デジタルカメラ130の位置情報に基づいてデジタルカメラ130の撮影画像のファイル名が生成される。つまりファイル名は、その撮影画像を撮影したデジタルカメラ130のアドレス情報(階層情報とポート番号情報)を示す。ホストPC110は、取得した撮影画像のファイル名とデジタルカメラの位置情報(アドレス情報)とを照合する。そしてホストPC110は、取得できない撮影画像があると判断すれば、そのファイル名から対応するデジタルカメラ130を特定する。特定したデジタルカメラ130に異常があると判断すれば報知する。
[2−3.効果等]
以上のように、実施の形態2の映像システム装置100も、実施の形態1と同様に、複数のデジタルカメラ130と撮影信号送信部となるタブレット端末190と、デジタルカメラ130の位置情報を取得し、位置情報に基づくファイル名で撮影画像を保存するホストPC110と、を備える。
これにより、撮影画像とデジタルカメラ130の対応関係を容易に特定可能なため、どのデジタルカメラ130において不具合が発生しているのか特定することが容易になる。
また実施の形態2では、複数のデジタルカメラ130は、同一水平面上に存在する一部のデジタルカメラ130毎にグループ化されている。したがって、撮影画像とデジタルカメラ130の対応関係を容易に特定可能になり、どのデジタルカメラ130において不具合が発生しているのか特定することが容易になる。
尚、図12では、1台のホストPC110のUSBコネクタ220、230を使用して2階層構造でデジタルカメラ130を接続したがそれに限るものではなく、複数のホストPC110を用いてもよい。
(他の実施の形態)
上記実施の形態では、デジタルカメラ130の物理的な位置を示す位置情報を、USBハブのアドレス情報(階層情報及びポート番号情報)と対応させたが、例えば位置情報を、GPS(Global Positioning System)情報と対応させてもよい。つまり各々のデジタルカメラ130はGPS受信機を備え、撮影画像のデータにGPS情報を付与する。ホストPC110は、予め各々のデジタルカメラ130の位置情報を取得し、位置情報とGPS情報とを紐付けできる。したがって、デジタルカメラ130から撮影画像を取得する際に、撮影画像に含まれるGPS情報からデジタルカメラ130の物理的な位置を特定できる。これにより、さらにデジタルカメラ130の特定が容易になる。またホストPC110は、GPS情報を示すファイル名を生成し、撮影画像に付与して保存してもよい。これにより、画像を送信できていないデジタルカメラ130がある場合、容易に特定できる。
また上記実施の形態では異常なデジタルカメラ130があった場合、ランプ140によりオペレータ170に報知を行う例を挙げたが、この報知の前にUSBハブ120のリセット動作を行い、デジタルカメラ130と再接続を行っても良い。
また上記実施の形態では、ランプ140を報知部として用いたが、報知部はランプ140に限られない。例えば報知部はレーザポインタなどの一つの光源であってもよい。この光源は、対象となるデジタルカメラ130に光線を照射することで、オペレータ170に報知する。またホストPC110やタブレット端末190自体が報知部として機能し、ホストPC110あるいはタブレット端末190に備わる表示モニタに、対象となるデジタルカメラ130を報知できるように表示してもよい。さらに報知部はスピーカであり、デジタルカメラの物理的な位置を音声で報知してもよい。報知部としてのスピーカは、図1Aに示すスピーカ180と共通であってもよく、別個に設けられてもよい。
また上記実施の形態では、タブレット端末190の通信部が撮影信号送信部として機能し、複数のデジタルカメラ130が撮影するタイミングを制御する撮影信号(シャッター操作信号)を出力する構成を説明したが、撮影信号送信部はタブレット端末190の通信部に限られない。撮影信号送信部をホストPC110の通信部や、ホストPC110あるいはデジタルカメラ130と接続可能な他の端末の通信部とし、他の端末やホストPC110の通信部から撮影信号を出力して各デジタルカメラ130の撮影タイミングを操作してもよい。あるいは撮影信号送信部を各デジタルカメラ130に外付けされたシャッター装置としてもよい。つまりオペレータ170が直接、各デジタルカメラ130のシャッター装置を操作して、各デジタルカメラ130の撮影タイミングを操作してもよい。
また上記実施の形態では、ホストとしてホストPC110を用いたが、ホスト自体が携帯可能なタブレット端末であってもよい。
また上記実施の形態では、オペレータ170はタブレット端末190を用いてホストPC110を操作したが、ホストPC110を直接オペレータ170が操作できるようにしてもよい。
また上記実施の形態では、タブレット端末190として携帯型の板状コンピュータを想定して説明したが、いわゆるノートPCでも代用できる。
また上記実施の形態では、撮像部としてデジタルカメラを例に挙げたが、デジタルカメラに限定されるものではない。撮像部としては、撮像機能を有していれば、カメラ付きのスマートフォンやタブレット端末などのカメラ機能以外を有する撮影装置も含む。
以上のように、本出願において開示する技術の例示として、実施の形態1および実施の形態2を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施の形態にも適用できる。また、上記実施の形態1〜実施の形態2で説明した構成要素を組み合わせて、新たな実施の形態とすることも可能である。
なお、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、デジタルカメラを複数用いて特定の被写体を撮影する装置に適用可能である。具体的には、デジタルカメラを複数用いて3Dモデリングに有用なデータを生成するシステムなどに、本開示は適用可能である。
100 映像システム装置
110 ホストPC(ホスト)
120 USBハブ
130 デジタルカメラ(撮像部)
140 ランプ
150 フレーム
160 ストロボ
170 オペレータ
180 スピーカ
190 タブレット端末
191 操作部
192 通信部(撮影信号送信部)
193 コントローラ
194 表示モニタ
200 被写体
210 無線ルーター
220,230 USBコネクタ

Claims (4)

  1. 互いに異なる方向から特定の被写体を撮影する複数の撮像部と、
    前記複数の撮像部が撮影するタイミングを制御する撮影信号を前記複数の撮像部に与える撮影信号送信部と、
    前記複数の撮像部のそれぞれの物理的な位置を示す位置情報を取得し、前記複数の撮像部のそれぞれから映像を受信した場合に、対応する前記位置情報に基づくファイル名で前記映像を保存するホストと、
    を備える映像システム装置。
  2. 前記複数の撮像部により、前記映像システム装置の鉛直方向に円弧状に配置された複数の映像ユニットが構成され、
    前記複数の映像ユニットには、それぞれ前記複数の撮像部が一部ずつ前記軸に平行に配置されている、請求項1に記載の映像システム装置。
  3. 前記複数の撮像部にそれぞれ接続された複数の接続ポートをさらに備え、
    前記位置情報は、前記複数の接続ポートのそれぞれのアドレス情報と対応する、請求項2に記載の映像システム装置。
  4. 前記複数の撮像部のそれぞれの前記位置をオペレータに報知可能であり、前記ホストが保存しているどの前記映像の前記ファイル名にも前記複数の撮像部のうちの特定の撮像部の前記位置情報に基づく前記ファイル名が無い場合、前記特定の撮像部の前記位置を報知する報知部をさらに備える、請求項3に記載の映像システム装置。
JP2017560621A 2016-07-28 2017-05-09 映像システム装置 Pending JPWO2018020769A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016148143 2016-07-28
JP2016148143 2016-07-28
PCT/JP2017/017446 WO2018020769A1 (ja) 2016-07-28 2017-05-09 映像システム装置

Publications (1)

Publication Number Publication Date
JPWO2018020769A1 true JPWO2018020769A1 (ja) 2019-05-09

Family

ID=61015926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017560621A Pending JPWO2018020769A1 (ja) 2016-07-28 2017-05-09 映像システム装置

Country Status (3)

Country Link
US (1) US10264172B2 (ja)
JP (1) JPWO2018020769A1 (ja)
WO (1) WO2018020769A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3706411A1 (en) * 2019-03-05 2020-09-09 Carrier Corporation Early video equipment failure detection system
JP7483394B2 (ja) 2020-02-03 2024-05-15 キヤノン株式会社 通信装置、通信装置の制御方法、及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002007307A (ja) 2000-06-23 2002-01-11 Fuji Photo Film Co Ltd 機器制御装置及び方法
JP4225040B2 (ja) * 2002-11-22 2009-02-18 ソニー株式会社 モニタリングシステムおよび方法並びにプログラムおよび記録媒体
US7823058B2 (en) * 2002-12-30 2010-10-26 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus for interactive point-of-view authoring of digital video content
JP5571944B2 (ja) * 2009-01-16 2014-08-13 キヤノン株式会社 撮影装置およびその制御方法、並びにプログラム
US8825598B2 (en) * 2010-06-16 2014-09-02 Apple Inc. Media file synchronization
JP6146108B2 (ja) * 2013-04-24 2017-06-14 株式会社バッファロー 情報処理装置、画像表示システム、画像表示方法及びプログラム
JP2015179377A (ja) * 2014-03-19 2015-10-08 大日本印刷株式会社 撮影画像編集装置、撮影画像編集方法、プログラム、および撮影画像編集システム
JP6349839B2 (ja) * 2014-03-25 2018-07-04 大日本印刷株式会社 画像印刷装置、画像印刷方法、プログラム、および画像印刷システム
US20150306824A1 (en) * 2014-04-25 2015-10-29 Rememborines Inc. System, apparatus and method, for producing a three dimensional printed figurine
JP6372696B2 (ja) * 2014-10-14 2018-08-15 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム

Also Published As

Publication number Publication date
US20180131857A1 (en) 2018-05-10
US10264172B2 (en) 2019-04-16
WO2018020769A1 (ja) 2018-02-01

Similar Documents

Publication Publication Date Title
US9426379B2 (en) Photographing unit, cooperative photographing method, and recording medium having recorded program
TWI530182B (zh) 超廣角影像之處理系統與方法
JP6942940B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2015186021A (ja) 撮影機器、撮像観察機器、画像比較表示方法、画像比較表示プログラム及び画像比較表示システム
JP2013013063A (ja) 撮像装置及び撮像システム
JP2015115839A5 (ja)
JP2013013062A (ja) 撮像装置及び撮像システム
WO2020107320A1 (zh) 相机标定方法、装置、设备及存储介质
TWI589983B (zh) 行動裝置內的多個透鏡
JP2010258669A (ja) 全方位撮像装置
US10264172B2 (en) Image system device
US10084956B2 (en) Imaging apparatus, and imaging system
Yu et al. Development of a Dundee Ground Truth imaging protocol for recording indoor crime scenes to facilitate virtual reality reconstruction
CN116781874A (zh) 显示方法、显示系统和记录有程序的记录介质
JP5427114B2 (ja) プロジェクタ装置
JP2011041133A (ja) 撮影装置及び撮影方法
JP6394958B2 (ja) 通信装置及び通信方法
JP2015159460A (ja) 投影システム、投影装置、撮影装置、ガイド枠生成方法及びプログラム
JP2015115778A (ja) 撮像装置、制御方法、およびプログラム
JP2013258527A (ja) 撮像装置、その制御方法およびプログラム
JP2010062834A (ja) 撮影システム並びに当該撮影システムを構成する撮影装置及び操作装置
WO2014035053A1 (ko) 초광각 카메라를 이용한 카메라 시스템
JP7416231B2 (ja) 設置支援装置、設置支援方法、およびプログラム
WO2022050159A1 (ja) 立体撮影モデル生成システムおよび立体撮影モデル生成方法
JP2022030485A (ja) カメラ装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171120

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190123