JP2021125789A - Image processing device, image processing system, image processing method, and computer program - Google Patents
Image processing device, image processing system, image processing method, and computer program Download PDFInfo
- Publication number
- JP2021125789A JP2021125789A JP2020017776A JP2020017776A JP2021125789A JP 2021125789 A JP2021125789 A JP 2021125789A JP 2020017776 A JP2020017776 A JP 2020017776A JP 2020017776 A JP2020017776 A JP 2020017776A JP 2021125789 A JP2021125789 A JP 2021125789A
- Authority
- JP
- Japan
- Prior art keywords
- target person
- image
- video
- orientation
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本開示は、映像処理装置、映像処理システム、映像処理方法、及びコンピュータプログラムに関する。 The present disclosure relates to a video processing apparatus, a video processing system, a video processing method, and a computer program.
従来、手ぶらでテレビ電話をすることのできるハンズフリービデオフォンが提案されている(例えば、非特許文献1参照)。 Conventionally, a hands-free video phone capable of making a videophone call by hand has been proposed (see, for example, Non-Patent Document 1).
非特許文献1に記載のハンズフリービデオフォンでは、眼鏡型ウェアラブル端末装置を利用してテレビ電話を行う。当該端末装置には、顔に向かって5つの超広角カメラが配置されており、それらのカメラで撮影した顔の部分画像を合成することにより顔画像を生成し、相手側の端末装置に送信している。
The hands-free videophone described in Non-Patent
しかしながら、従来の眼鏡型ウェアラブル端末装置はユーザの顔を撮影可能な位置に固定される。このため、当該端末装置を装着したユーザの顔以外の映像を相手側の端末装置に送信することができない。 However, the conventional eyeglass-type wearable terminal device is fixed at a position where the user's face can be photographed. Therefore, it is not possible to transmit an image other than the face of the user wearing the terminal device to the terminal device on the other side.
また、複数のカメラが装着された端末装置をユーザが装着することは、その重量等よりユーザに負担となり現実的ではない。また、複数の映像を撮影する必要があるため、長時間のバッテリー駆動が困難であり、発熱も懸念される。 Further, it is not realistic for the user to wear a terminal device equipped with a plurality of cameras because the weight and the like impose a burden on the user. In addition, since it is necessary to shoot a plurality of images, it is difficult to drive the battery for a long time, and there is a concern about heat generation.
本開示はこのような事情に鑑みてなされたものであり、ユーザに過度な負担を強いることなく、ユーザに関連する映像を生成することのできる映像処理装置、映像処理システム、映像処理方法、及びコンピュータプログラムを提供することを目的とする。 The present disclosure has been made in view of such circumstances, and is a video processing device, a video processing system, a video processing method, and a video processing method capable of generating a video related to the user without imposing an excessive burden on the user. The purpose is to provide computer programs.
本開示の一態様に係る映像処理装置は、複数のカメラで撮影された複数の映像を取得する取得部と、取得された前記複数の映像のうち、少なくとも1つの映像に基づいて対象者の向きを検出する向き検出部と、前記対象者の位置を特定する位置特定部と、検出された前記対象者の向き及び特定された前記対象者の位置に基づいて、前記複数の映像から前記対象者に関連する映像を生成する映像生成部とを備える。 The video processing device according to one aspect of the present disclosure is an orientation of a target person based on an acquisition unit that acquires a plurality of images captured by a plurality of cameras and at least one of the acquired plurality of images. Based on the orientation detection unit for detecting the target person, the position specifying unit for specifying the position of the target person, the detected orientation of the target person, and the identified position of the target person, the target person is selected from the plurality of images. It is provided with a video generation unit that generates video related to.
本開示の他の実施態様に係る映像処理システムは、複数のカメラと、前記複数のカメラで撮影された複数の映像に基づいて映像を生成する、上述の映像処理装置とを備える。 The image processing system according to another embodiment of the present disclosure includes a plurality of cameras and the above-mentioned image processing device that generates an image based on a plurality of images taken by the plurality of cameras.
本開示の他の実施態様に係る映像処理方法は、複数のカメラで撮影された複数の映像を取得するステップと、取得された前記複数の映像のうち、少なくとも1つの映像に基づいて対象者の向きを検出するステップと、前記対象者の位置を特定するステップと、検出された前記対象者の向き及び特定された前記対象者の位置に基づいて、前記複数の映像から前記対象者に関連する映像を生成するステップとを含む。 The image processing method according to another embodiment of the present disclosure is based on a step of acquiring a plurality of images captured by a plurality of cameras and at least one of the acquired images of the subject. Based on the step of detecting the orientation, the step of specifying the position of the target person, the detected orientation of the target person, and the identified position of the target person, the plurality of images are related to the target person. Includes steps to generate video.
本開示の他の実施態様に係るコンピュータプログラムは、コンピュータを、複数のカメラで撮影された複数の映像を取得する取得部と、取得された前記複数の映像のうち、少なくとも1つの映像に基づいて対象者の向きを検出する向き検出部と、前記対象者の位置を特定する位置特定部と、検出された前記対象者の向き及び特定された前記対象者の位置に基づいて、前記複数の映像から前記対象者に関連する映像を生成する映像生成部として機能させる。 A computer program according to another embodiment of the present disclosure is based on a computer based on an acquisition unit that acquires a plurality of images captured by a plurality of cameras, and at least one of the acquired plurality of images. The plurality of images are based on a direction detecting unit that detects the orientation of the target person, a position specifying unit that specifies the position of the target person, the detected orientation of the target person, and the identified position of the target person. To function as an image generation unit that generates an image related to the target person.
なお、上記コンピュータプログラムを、CD−ROM(Compact Disc−Read Only Memory)等のコンピュータ読取可能な非一時的な記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。また、本開示は、映像処理装置の一部又は全部を実現する半導体集積回路として実現することもできる。 Needless to say, the computer program can be distributed via a computer-readable non-temporary recording medium such as a CD-ROM (Compact Disc-Read Only Memory) or a communication network such as the Internet. Further, the present disclosure can also be realized as a semiconductor integrated circuit that realizes a part or all of the video processing apparatus.
本開示によると、ユーザに過度な負担を強いることなく、ユーザに関連する映像を生成することができる。 According to the present disclosure, it is possible to generate a video related to a user without imposing an excessive burden on the user.
[本開示の実施形態の概要]
最初に本開示の実施形態の概要を列記して説明する。
[Summary of Embodiments of the present disclosure]
First, the outlines of the embodiments of the present disclosure will be listed and described.
(1)本開示の一実施形態に係る映像処理装置は、複数のカメラで撮影された複数の映像を取得する取得部と、対象者の向きを検出する向き検出部と、前記対象者の位置を特定する位置特定部と、検出された前記対象者の向き及び特定された前記対象者の位置に基づいて、前記複数の映像から前記対象者に関連する映像を生成する映像生成部とを備える。 (1) The image processing apparatus according to the embodiment of the present disclosure includes an acquisition unit that acquires a plurality of images taken by a plurality of cameras, an orientation detection unit that detects the orientation of the target person, and a position of the target person. A position specifying unit for specifying the target person, and an image generating unit for generating an image related to the target person from the plurality of images based on the detected orientation of the target person and the identified position of the target person. ..
この構成によると、例えば、ネットワークを介して複数のカメラから取得された複数の映像から、対象者の向き及び位置に基づいて、対象者に関連する映像を生成することができる。このため、対象者がカメラが配置された専用端末装置を装着せずとも、対象者に関連する映像を生成することができる。これにより、ユーザに過度な負担を強いることなく、ユーザに関連する映像を生成することができる。 According to this configuration, for example, from a plurality of images acquired from a plurality of cameras via a network, images related to the target person can be generated based on the orientation and position of the target person. Therefore, it is possible to generate an image related to the target person without the target person wearing a dedicated terminal device on which the camera is arranged. As a result, it is possible to generate a video related to the user without imposing an excessive burden on the user.
(2)好ましくは、前記複数のカメラは、屋外に設置されたカメラ、屋内に設置されたカメラ、及び車載カメラの少なくとも1つを含む。 (2) Preferably, the plurality of cameras include at least one of an outdoor-installed camera, an indoor-installed camera, and an in-vehicle camera.
この構成によると、専用のカメラを用いなくても、対象者の周囲に存在するカメラを用いて、対象者に関連する映像を生成することができる。つまり、対象者がカメラのバッテリー残量や発熱等を気にする必要なく、対象者に関連する映像を生成することができる。 According to this configuration, it is possible to generate an image related to the target person by using a camera existing around the target person without using a dedicated camera. That is, the target person can generate an image related to the target person without having to worry about the remaining battery level of the camera, heat generation, and the like.
(3)さらに好ましくは、前記向き検出部は、取得された前記複数の映像のうち、少なくとも1つの映像に基づいて前記対象者の向きを検出する。 (3) More preferably, the orientation detection unit detects the orientation of the target person based on at least one of the acquired plurality of images.
この構成によると、映像に基づいて対象者の向きを検出することができる。このため、対象者は、対象者の向きを検出するための装置を持ち歩く必要がない。 According to this configuration, the orientation of the target person can be detected based on the image. Therefore, the subject does not need to carry a device for detecting the orientation of the subject.
(4)さらに好ましくは、前記映像生成部は、前記対象者に関連する映像として、前記対象者に対向する位置から前記対象者の向きに前記対象者を撮影した映像を生成する。 (4) More preferably, the image generation unit generates an image obtained by shooting the target person in the direction of the target person from a position facing the target person as an image related to the target person.
この構成によると、対象者に対向する位置から対象者を撮影した、いわゆる自撮り映像を生成することができる。 According to this configuration, it is possible to generate a so-called self-portrait image in which the target person is photographed from a position facing the target person.
(5)また、前記映像生成部は、前記複数の映像から、前記対象者の向きと最も近い向きから撮影した映像を、前記対象者に関連する映像として抽出してもよい。 (5) Further, the image generation unit may extract an image taken from the direction closest to the direction of the target person from the plurality of images as an image related to the target person.
この構成によると、複数の映像の中から、対象者の向きに最も近い向きから対象者を撮影した映像を、いわゆる自撮り映像として生成することができる。このため、高速に自撮り映像を生成することができる。 According to this configuration, it is possible to generate a so-called self-portrait image from a plurality of images in which the target person is photographed from the direction closest to the target person's direction. Therefore, it is possible to generate a self-portrait image at high speed.
(6)また、前記映像生成部は、前記複数の映像から、前記対象者の像を含む映像を検出し、検出された前記対象者の像を含む映像を合成することにより、前記対象者に対向する位置から前記対象者の向きに前記対象者を撮影した映像を生成してもよい。 (6) Further, the image generation unit detects an image including the image of the target person from the plurality of images, and synthesizes the detected image including the image of the target person to make the target person. An image obtained by photographing the target person in the direction of the target person from the opposite position may be generated.
この構成によると、対象者の像を含む映像を合成することにより、いわゆる自撮り映像を生成することができる。このため、対象者の向きに対象者を撮影した映像がカメラから得られない場合であっても、当該向きに対象を撮影した映像を生成することができる。 According to this configuration, a so-called self-portrait image can be generated by synthesizing an image including an image of a target person. Therefore, even if the image obtained by shooting the target person in the direction of the target person cannot be obtained from the camera, it is possible to generate the image obtained by shooting the target person in the direction.
(7)また、前記映像生成部は、前記対象者に関連する映像として、前記対象者の位置から前記対象者の向きに前記対象者の周囲を見た映像を生成してもよい。 (7) Further, the image generation unit may generate an image of the surroundings of the target person in the direction of the target person from the position of the target person as an image related to the target person.
この構成によると、例えば、対象者の視線の先にある対象の映像、つまり、対象者が見ているのと同じ対象の映像を生成することができる。 According to this configuration, for example, it is possible to generate an image of an object in front of the line of sight of the object, that is, an image of the same object as the object is seeing.
(8)また、前記映像生成部は、前記複数の映像から、前記対象者の位置から前記対象者の向きに前記対象者の周囲を見た映像を選択してもよい。 (8) Further, the image generation unit may select an image of the surroundings of the target person from the position of the target person in the direction of the target person from the plurality of images.
この構成によると、複数の映像から、例えば、対象者の視線の先にある対象の映像を選択することができる。このため、対象者から周囲を見た映像を高速に生成することができる。 According to this configuration, it is possible to select, for example, a target image in front of the target person's line of sight from a plurality of images. Therefore, it is possible to generate an image of the surroundings from the target person at high speed.
(9)また、前記映像生成部は、前記複数の映像を合成することにより、前記対象者の位置から前記対象者の向きに前記対象者の周囲を見た映像を生成してもよい。 (9) Further, the image generation unit may generate an image in which the surroundings of the target person are viewed from the position of the target person in the direction of the target person by synthesizing the plurality of images.
この構成によると、複数の映像を合成することにより、例えば、対象者の視線の先にある対象の映像を生成することができる。このため、1つの映像からではこのような映像を生成することができない場合であっても、対象者が見ているのと同じ対象の映像を生成することができる。 According to this configuration, by synthesizing a plurality of images, for example, it is possible to generate an image of an object in front of the line of sight of the object. Therefore, even if it is not possible to generate such an image from one image, it is possible to generate the same image of the target as the subject is viewing.
(10)また、前記対象者の向きは、前記対象者の視線の向き、前記対象者の顔の向き、及び前記対象者の体の向きの少なくとも1つを含んでいてもよい。 (10) Further, the orientation of the subject may include at least one of the orientation of the subject's line of sight, the orientation of the subject's face, and the orientation of the subject's body.
この構成によると、対象者の視線の向き、顔の向き又は体の向きから対象者を見た映像、又は対象者の位置から当該向きに周囲を見た映像を生成することができる。 According to this configuration, it is possible to generate an image of the target person viewed from the direction of the target person's line of sight, face or body, or an image of the surroundings viewed from the position of the target person in that direction.
(11)また、前記映像生成部は、さらに、前記対象者に関連する映像に含まれる前記対象者以外の人物の像に対してプライバシー保護処理を施してもよい。 (11) Further, the video generation unit may further perform privacy protection processing on an image of a person other than the target person included in the video related to the target person.
この構成によると、対象者以外の人物のプライバシーを保護した映像を生成することができる。 According to this configuration, it is possible to generate an image in which the privacy of a person other than the target person is protected.
(12)また、上述の映像処理装置は、さらに、前記映像生成部が生成した前記対象者に関連する映像を端末装置に送信する映像送信部を備えてもよい。 (12) Further, the above-mentioned video processing device may further include a video transmission unit that transmits the video generated by the video generation unit and related to the target person to the terminal device.
この構成によると、生成した映像を端末装置に送信することができる。このため、対象者はカメラを意識することなく、端末装置を利用する対話者とビデオ通話をしたり、テレビ会議をしたりすることができる。 According to this configuration, the generated video can be transmitted to the terminal device. Therefore, the subject can make a video call or have a video conference with an interlocutor who uses the terminal device without being aware of the camera.
(13)本開示の他の実施形態に係る映像処理システムは、複数のカメラと、前記複数のカメラで撮影された複数の映像に基づいて映像を生成する、上述の映像処理装置とを備える。 (13) The image processing system according to another embodiment of the present disclosure includes a plurality of cameras and the above-mentioned image processing device that generates an image based on a plurality of images taken by the plurality of cameras.
この構成は、上述の映像処理装置と同様の構成を有する。このため、この構成によると、上述の映像処理装置と同様の作用及び効果を奏することができる。 This configuration has the same configuration as the above-mentioned video processing apparatus. Therefore, according to this configuration, it is possible to obtain the same operations and effects as those of the above-mentioned video processing apparatus.
(14)本開示の他の実施形態に係る映像処理方法は、複数のカメラで撮影された複数の映像を取得するステップと、対象者の向きを検出するステップと、前記対象者の位置を特定するステップと、検出された前記対象者の向き及び特定された前記対象者の位置に基づいて、前記複数の映像から前記対象者に関連する映像を生成するステップとを含む。 (14) The image processing method according to another embodiment of the present disclosure specifies a step of acquiring a plurality of images taken by a plurality of cameras, a step of detecting the orientation of the target person, and a position of the target person. A step of generating an image related to the object from the plurality of images based on the detected orientation of the object and the identified position of the object.
この構成は、上述の映像処理装置が備える特徴的な処理部に対応するステップを含む。このため、この構成によると、上述の映像処理装置と同様の作用及び効果を奏することができる。 This configuration includes a step corresponding to a characteristic processing unit included in the above-mentioned video processing apparatus. Therefore, according to this configuration, it is possible to obtain the same operations and effects as those of the above-mentioned video processing apparatus.
(15)本開示の他の実施形態に係るコンピュータプログラムは、コンピュータを、複数のカメラで撮影された複数の映像を取得する取得部と、対象者の向きを検出する向き検出部と、前記対象者の位置を特定する位置特定部と、検出された前記対象者の向き及び特定された前記対象者の位置に基づいて、前記複数の映像から前記対象者に関連する映像を生成する映像生成部として機能させる。 (15) A computer program according to another embodiment of the present disclosure includes a computer, an acquisition unit that acquires a plurality of images taken by a plurality of cameras, an orientation detection unit that detects the orientation of a target person, and the target. A position specifying unit that specifies the position of a person, and an image generation unit that generates an image related to the target person from the plurality of images based on the detected orientation of the target person and the identified position of the target person. To function as.
この構成によると、コンピュータを、上述の映像処理装置として機能させることができる。このため、上述の映像処理装置と同様の作用及び効果を奏することができる。 According to this configuration, the computer can function as the above-mentioned video processing device. Therefore, the same operations and effects as those of the above-mentioned video processing apparatus can be obtained.
[本開示の実施形態の詳細]
以下、本開示の実施形態について、図面を参照しながら説明する。なお、以下で説明する実施形態は、いずれも本開示の一具体例を示すものである。以下の実施形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定するものではない。また、以下の実施形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意に付加可能な構成要素である。また、各図は、模式図であり、必ずしも厳密に図示されたものではない。
[Details of Embodiments of the present disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. It should be noted that all of the embodiments described below show a specific example of the present disclosure. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, step order, and the like shown in the following embodiments are examples, and do not limit the present disclosure. Further, among the components in the following embodiments, the components not described in the independent claims are components that can be arbitrarily added. Further, each figure is a schematic view and is not necessarily exactly illustrated.
また、同一の構成要素には同一の符号を付す。それらの機能及び名称も同様であるため、それらの説明は適宜省略する。 Further, the same components are designated by the same reference numerals. Since their functions and names are the same, their description will be omitted as appropriate.
<実施形態1>
〔映像処理システムの全体構成〕
図1は、本開示の実施形態1に係る映像処理システムの構成を示す図である。
<
[Overall configuration of video processing system]
FIG. 1 is a diagram showing a configuration of a video processing system according to the first embodiment of the present disclosure.
映像処理システム100は、対象者3の映像又は対象者3が見ているであろう映像を、対象者3以外のユーザ4に送信するシステムである。ユーザ4は、例えば、対象者3と通話を行う対話者である。
The
映像処理システム100は、複数のカメラ2と、映像処理装置1と、端末装置5とを備える。
The
カメラ2は、例えば、街中又は建物の内外に設置された監視カメラ、室内に設置されたカメラ、車両に設置された車載カメラなどである。カメラ2は、インターネット又は5G(第5世代移動通信システム)通信網等のネットワーク7に直接的又は間接的に有線又は無線により接続されている。
The
映像処理装置1は、ネットワーク7に接続され、複数のカメラ2から映像を取得し、取得した映像に基づいて、対象者3の映像又は対象者3が見ているであろう映像を生成する。映像処理装置1は、生成した映像を、ネットワーク7を介してユーザ4の利用するスマートフォンなどの端末装置5に送信する。
The
対象者3は、例えば、ハンズフリーフォン6を装着しており、端末装置5を所持するユーザ4との間で会話を行っているものとする。ユーザ4は、端末装置5の画面越しに対象者3の映像又は対象者3が見ているであろう映像を見ながら、対象者3と会話を行うことができる。
It is assumed that the
〔映像処理装置1の構成〕
図2は、映像処理装置1の機能的な構成を示すブロック図である。映像処理装置1は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、通信インタフェース、入出力インタフェース等を備えるコンピュータにより構成することができる。
[Configuration of video processing device 1]
FIG. 2 is a block diagram showing a functional configuration of the
映像処理装置1は、映像取得部10と、対象者情報取得部20と、モード受付部30と、映像処理部40と、映像送信部50とを備える。例えば、コンピュータのHDDに記憶されたコンピュータプログラムをRAM上に展開し、コンピュータプログラムをCPU上で実行することにより、処理部10から処理部50の機能が実現される。
The
映像取得部10は、取得部として機能し、ネットワーク7を介してカメラ2から、カメラ2が撮影した映像データ(以下、「映像」という)を受信し、当該映像を映像処理部40に出力する。なお、映像には、カメラ2の識別子、カメラ2の位置及びカメラ2の光軸の向きを示す情報が付加されているものとする。ただし、これらの情報がHDD等の記憶装置に記憶されていてもよい。この場合、映像にはカメラ2の識別子の情報が付加されていれば、この情報からカメラ2の位置及びカメラ2の光軸の向きを特定することができる。
The
対象者情報取得部20は、映像の生成対象とされる対象者3の情報である対象者情報を取得する。対象者情報とは、対象者3の像を特定するために必要な情報であり、例えば、対象者3の顔画像である。対象者3は、ユーザ4との会話を始めるにあたり、対象者3の所持するスマートフォン等の端末装置を用いて自身の顔画像を撮影(自撮り)し、映像処理装置1に送信し、映像処理装置1は、対象者3の顔画像を対象者情報として受信する。対象者情報取得部20は、受信した対象者3の顔画像を映像処理部40に出力する。
The target person
なお、対象者3の所持する端末装置は、自撮りされた顔画像からSIFT(Scale−Invariant Feature Transform)又はSURF(Speeded−Up Robust Features)などの画像特徴量を抽出してもよい。端末装置は、抽出した画像特徴量を対象者情報として映像処理装置1に送信し、映像処理装置1は、画像特徴量を対象者情報として受信する。対象者情報取得部20は、受信した画像特徴量を映像処理部40に出力する。
The terminal device possessed by the subject 3 may extract an image feature amount such as SIFT (Scale-Invariant Features Transfer) or SURF (Speeded-Up Robust Features) from the self-portrait face image. The terminal device transmits the extracted image feature amount to the
なお、対象者3の識別子と、対象者3の顔画像又は画像特徴量とが、予め映像処理装置1のHDD等の記憶装置に記憶されていてもよい。この場合、対象者情報取得部20は、対象者3の所持する端末装置から対象者3の識別子を取得し、識別子に基づいて、対象者3の顔画像又は画像特徴量を記憶装置から取得する。この場合、対象者3の識別子を、例えば、対象者3の電話番号とすることも可能である。映像処理装置1は、対象者3の通話開始時に電話番号を取得し、取得した電話番号に基づいて、対象者3の顔画像又は画像特徴量を取得する。
The identifier of the
モード受付部30は、生成対象とする映像のモードを受け付ける。モードは、自撮りモードと、視点共有モードとを含む。
The
自撮りモードとは、対象者3の映像を生成するモードのことである。より詳細には、自撮りモードとは、対象者3に対向する位置から対象者3の向きに対象者3を撮影した映像を生成するモードのことである。ここで、対象者3の向きとは、例えば、対象者3の視線の向き、対象者3の顔の向き、及び対象者3の体の向きの少なくとも1つを含む。
The self-portrait mode is a mode for generating an image of the
視点共有モードとは、対象者3が見ているであろう映像を生成するモードのことである。より詳細には、視点共有モードとは、対象者3の位置から対象者3の向きに対象者3の周囲を見た映像を生成するモードのことである。対象者3の向きは、自撮りモードの場合と同様である。
The viewpoint sharing mode is a mode for generating an image that the subject 3 will be watching. More specifically, the viewpoint sharing mode is a mode for generating an image of the surroundings of the
対象者3は、ユーザ4との会話を始めるにあたり、対象者3の所持するスマートフォン等の端末装置を用いてモードを選択し、選択したモードをモード受付部30に送信する。モード受付部30は、端末装置からモードを受信し、受信したモードを映像処理部40に出力する。
When starting a conversation with the user 4, the
映像処理部40は、映像取得部10から複数のカメラ2で撮影された映像と、対象者情報取得部20から対象者3の対象者情報と、モード受付部30からモードとを受け付ける。映像処理部40は、複数の映像と対象者3の対象者情報とに基づいて、モードに応じた映像を生成する。つまり、映像処理部40は、モードが自撮りモードの場合には対象者3の映像を生成し、モードが視点共有モードの場合には対象者3が見ているであろう映像を生成する。映像処理部40は、生成した映像を映像送信部50に出力する。なお、映像処理部40の詳細については後述する。
The
映像送信部50は、映像処理部40から映像を受け、当該映像を対象者3の通話相手であるユーザ4の利用する端末装置5に送信する。
The
〔映像処理部40の構成〕
図3は、図2に示した映像処理装置1が備える映像処理部40の詳細な構成を示すブロック図である。
[Structure of video processing unit 40]
FIG. 3 is a block diagram showing a detailed configuration of the
映像処理部40は、対象者映像検出部41と、対象者向き検出部42と、対象者映像選択部43と、プライバシー保護処理部44と、対象者位置特定部45と、周囲映像検出部46と、周囲映像選択部47とを備える。
The
対象者映像検出部41は、対象者情報取得部20から受けた対象者情報に基づいて、映像取得部10から受けた複数の映像の内、対象者3が映っている映像(以下、「対象者映像」という)を検出する。
The target person
具体的には、対象者映像検出部41は、映像取得部10から受けた各映像からSIFT又はSURFなどの画像特徴量を抽出する。また、対象者映像検出部41は、対象者情報取得部20から受けた対象者情報が対象者3の顔画像である場合には、当該顔画像から対象者3の画像特徴量を抽出する。なお、対象者映像検出部41は、対象者情報取得部20から受けた対象者情報が対象者3の画像特徴量である場合には、当該画像特徴量に対する処理は行わない。
Specifically, the target person
対象者映像検出部41は、複数の映像の中から、対象者3の画像特徴量に類似する画像特徴量を有する領域を探索し、当該領域を有する映像を、対象者映像として検出する。つまり、対象者映像検出部41は、複数の映像の中から、対象者3の画像特徴量と類似度が所定閾値以上の画像特徴量の領域を有する映像を、対象者映像として検出する。対象者映像検出部41は、検出した対象者映像を対象者向き検出部42、対象者映像選択部43、及び対象者位置特定部45に出力する。また、対象者映像検出部41は、類似度が所定閾値以上の画像特徴量を有する領域の位置を、対象者映像中での対象者3の位置としてプライバシー保護処理部44及び対象者位置特定部45に出力する。
The target person
対象者向き検出部42は、向き検出部として機能し、対象者映像検出部41から対象者映像を受け、当該対象者映像に基づいて、対象者3の向きを検出する処理部である。対象者3の向きの検出には公知の技術を用いることができる。例えば、対象者3の向きを、対象者3の視線の向きとした場合には、対象者向き検出部42は、対象者映像から目の動かない部分(基準点)と動く部分(動点)とを検出する。ここで、基準点を対象者3の目頭、動点を対象者3の虹彩とする。対象者向き検出部42は、基準点に対する動点の位置に基づいて、カメラ2の光軸の向きを基準とした場合の対象者3の視線の向きを検出する(例えば、非特許文献2参照)。
The target person orientation detection unit 42 functions as an orientation detection unit, receives a target person image from the target person
対象者向き検出部42は、対象者映像に付加されたカメラ2の位置及びカメラ2の光軸の向きを示す情報と、検出した対象者3の向きとに基づいて、3次元空間中での対象者3の向きを検出する。つまり、カメラ2の位置及びカメラ2の光軸の向きが分かっており、カメラ2の光軸の向きを基準としたときの対象者3の視線の向きが分かっているため、対象者向き検出部42は、これらから、3次元空間中での対象者3の向きを計算する。対象者向き検出部42は、対象者3の向きの情報を対象者映像選択部43及び周囲映像選択部47に出力する。
The target person orientation detection unit 42 in the three-dimensional space based on the information indicating the position of the
対象者映像選択部43は、対象者映像検出部41から対象者映像を受け、対象者向き検出部42から対象者3の向きの情報を受ける。対象者映像選択部43は、映像生成部として機能し、モードが自撮りモードの場合に、対象者映像の中から、対象者3の向きと最も近い向きから対象者3を撮影した映像を、対象者3に関連する映像として選択する。つまり、対象者映像選択部43は、対象者映像ごとに3次元空間中でのカメラ2の光軸の向きと対象者3の向きとの差分を算出する。対象者映像選択部43は、差分が最小の対象者映像を対象者3に関連する映像として選択する。対象者映像選択部43は、選択した対象者3に関連する映像をプライバシー保護処理部44に出力する。
The target person
図4は、対象者映像選択部43による対象者映像の選択処理の一例を説明するための図である。図4の(A)〜(C)は、対象者映像検出部41から受けた対象者映像を示している。ここで、対象者3の向きを、例えば、対象者3の顔の向きとした場合には、図4の(B)に示す対象者映像が示す対象者3の顔の向きが、対象者映像を撮影したカメラ2の光軸の向きと最も近い。つまり、上記差分が最も小さい。このため、対象者映像選択部43は、図4の(B)に示す対象者映像を、対象者3に関連する映像として選択する。図4の(D)に対象者3に関連する映像を示している。
FIG. 4 is a diagram for explaining an example of the target person image selection process by the target person
対象者位置特定部45は、対象者映像検出部41から対象者映像及び対象者3の位置の情報を受ける。対象者位置特定部45は、位置特定部として機能し、対象者映像に付加されたカメラ2の位置及びカメラ2の光軸の向きを示す情報と、対象者映像中の対象者3の位置とから、3次元空間中での対象者3の位置を特定する。対象者位置特定部45は、対象者映像に付加されたカメラ2の位置及びカメラ2の光軸の向きを示す情報から、カメラ2の3次元空間中での光軸方向を特定することができる。また、対象者映像中の対象者3の位置が分かっているため、対象者位置特定部45は、3次元空間中でカメラ2の位置を基準として対象者3がどの方向に存在しているのかを計算により求めることができる。対象者位置特定部45は、対象者映像が複数ある場合には、各対象者映像から算出された対象者3の方向の交点を算出することにより、3次元空間中での対象者3の位置を特定することができる。
The target person
なお、対象者位置特定部45は、対象者映像が1枚であっても、カメラ2から対象者3までの距離をあらかじめ定めた所定距離とみなすことにより、3次元空間中での対象者3の位置を特定することができる。
The target person
対象者位置特定部45は、特定した3次元空間中での対象者3の位置の情報を周囲映像検出部46に出力する。
The target person
周囲映像検出部46は、映像取得部10から複数のカメラ2で撮影された映像を受け、対象者位置特定部45から3次元空間中での対象者3の位置の情報を受ける。周囲映像検出部46は、3次元空間中での対象者3の位置に基づいて、複数の映像の中から対象者3の周囲を撮影した映像(以下、「周囲映像」という)を検出する。例えば、周囲映像検出部46は、対象者3の位置とカメラ2の位置とに基づいて、対象者3までの距離が所定の距離閾値以下のカメラ2によって撮影された映像を周囲映像として検出する。周囲映像検出部46は、検出した周囲映像を周囲映像選択部47に出力する。
The surrounding
周囲映像選択部47は、周囲映像検出部46から周囲映像を受け、対象者向き検出部42から対象者3の向きの情報を受ける。周囲映像選択部47は、映像生成部として機能し、モードが視点共有モードの場合に、周囲映像の中から、対象者3の位置から対象者3の向きに対象者3の周囲を見た映像を、対象者3に関連する映像として選択する。つまり、周囲映像選択部47は、周囲映像ごとに3次元空間中でのカメラ2の光軸の向きと対象者3の向きとの差分を算出する。周囲映像選択部47は、差分が最小の対象者映像を対象者3に関連する映像として選択する。周囲映像選択部47は、選択した対象者3に関連する映像をプライバシー保護処理部44に出力する。
The peripheral
図5から図7は、周囲映像選択部47による周囲映像の選択処理の一例を説明するための図である。
5 to 7 are diagrams for explaining an example of the ambient image selection process by the ambient
図5は、3次元空間中に位置する対象物を示す図である。例えば、3次元空間中に円錐81及び球82が配置されているものとする。矢印70は、対象者3の向きを示しており、対象者3は、矢印70の方向に円錐81及び球82を見ているものとする。また、矢印71から矢印73は、周囲映像を撮影する3台のカメラ2の光軸の向きを示しており、3台のカメラ2は、矢印71から矢印73のいずれかの方向に円錐81及び球82を撮影しているものとする。
FIG. 5 is a diagram showing an object located in a three-dimensional space. For example, it is assumed that the
図6は、対象者3が見ている映像の一例を示す図である。対象者3は、左側に配置された円錐81と、円錐81との間に空間を開けて右側に配置された球82とを見ている。
FIG. 6 is a diagram showing an example of a video viewed by the
図7の(A)は、光軸の向きが矢印71のカメラ2により撮影された映像を示しており、当該映像において球82は円錐81の背面に位置している。図7の(B)は、光軸の向きが矢印72のカメラ2により撮影された映像を示しており、当該映像において、円錐81と球82とが空間を開けて配置されている。図7の(C)は、光軸の向きが矢印73のカメラ2により撮影された映像を示しており、当該映像において円錐81は球82の背面に位置している。
FIG. 7A shows an image taken by the
図5に示すように対象者3の向き(矢印70)に最も近い光軸の向きは、矢印72である。このため、周囲映像選択部47は、図7の(B)に示す周囲映像を、対象者3に関連する映像として選択する。図7の(D)に対象者3に関連する映像を示している。
As shown in FIG. 5, the direction of the optical axis closest to the direction of the subject 3 (arrow 70) is
プライバシー保護処理部44は、映像生成部として機能する。プライバシー保護処理部44は、対象者映像検出部41から対象者映像中での対象者3の位置の情報を受け、対象者映像選択部43から対象者3に関連する映像として対象者映像を受け、周囲映像選択部47から対象者3に関連する映像として周囲映像を受ける。
The privacy
プライバシー保護処理部44は、モードが自撮りモードの場合には、対象者映像選択部43から受けた対象者映像の中から、人物の像を検出する。人物の像の検出には、例えば、映像から顔画像を検出する顔画像検出技術を用いることができる。
When the mode is the self-portrait mode, the privacy
プライバシー保護処理部44は、対象者3の位置に存在する人物の像、つまり対象者3の像は残し、それ以外の人物の像に対してモザイクを掛けるモザイク処理や、所定の映像で当該像をマスクするマスク処理等のプライバシー保護処理を施す。これにより、対象者3以外の人物を特定しにくくする。
The privacy
プライバシー保護処理部44は、モードが視点共有モードの場合には、周囲映像選択部47から受けた周囲映像の中から、人物の像を検出する。プライバシー保護処理部44は、検出した人物の像に対してプライバシー保護処理を施す。これにより、対象者3以外の人物を特定しにくくする。
When the mode is the viewpoint sharing mode, the privacy
プライバシー保護処理部44は、プライバシー保護処理が施された対象者3に関連する映像を映像送信部50に出力する。
The privacy
映像送信部50は、プライバシー保護処理部44から対象者3に関連する映像を受け、当該映像を端末装置5に送信する。
The
〔映像処理装置1の処理手順〕
図8は、映像処理装置1の処理手順の一例を示すフローチャートである。
[Processing procedure of video processing device 1]
FIG. 8 is a flowchart showing an example of the processing procedure of the
対象者情報取得部20は、対象者3の所持する端末装置から、対象者情報として対象者3の顔画像を取得する(ステップS1)。
The target person
モード受付部30は、対象者3の所持する端末装置から対象者3が選択したモードを受け付ける(ステップS2)。
The
映像処理部40は、受け付けたモードが自撮りモードの場合には(ステップS3においてYES)、自撮りモード映像処理を実行する(ステップS4)。自撮りモード映像処理(ステップS4)の詳細については後述する。
When the received mode is the self-shooting mode (YES in step S3), the
映像処理部40は、受け付けたモードが視点共有モードの場合には(ステップS3においてNO、ステップS5においてYES)、視点共有モード映像処理を実行する(ステップS6)。視点共有モード映像処理(ステップS6)については後述する。
When the received mode is the viewpoint sharing mode (NO in step S3, YES in step S5), the
自撮りモード及び視点共有モード以外の誤ったモードを受け付けた場合、又は、モードを受け付けていない場合には(ステップS3においてNO、ステップS5においてNO)、映像処理装置1は、処理を終了する。
If an erroneous mode other than the self-shooting mode and the viewpoint sharing mode is accepted, or if the mode is not accepted (NO in step S3, NO in step S5), the
〔自撮りモード映像処理について〕
図9は、自撮りモード映像処理(図8のステップS4)の詳細を示すフローチャートである。
[Selfie mode video processing]
FIG. 9 is a flowchart showing details of the self-shooting mode video processing (step S4 of FIG. 8).
映像取得部10は、複数のカメラ2から、当該カメラ2で撮影された映像を取得する(ステップS11)。
The
対象者映像検出部41は、対象者情報取得処理(図8のステップS1)で取得された対象者情報としての対象者3の顔画像に基づいて、ステップS11で取得された複数の映像の中から、対象者3が映っている対象者映像を検出する(ステップS12)。
The target person
映像処理部40は、ステップS12において検出された対象者映像の数を判定する(ステップS13)。
The
対象者映像の数が0の場合には(ステップS13において0)、ステップS14以降の処理は実行されない。 When the number of target person images is 0 (0 in step S13), the processing after step S14 is not executed.
対象者映像の数が2以上の場合には(ステップS13において2以上)、対象者向き検出部42は、ステップS12において検出された対象者映像ごとに、対象者3の向きを検出する(ステップS14)。
When the number of target person images is 2 or more (2 or more in step S13), the target person orientation detection unit 42 detects the orientation of the
対象者映像選択部43は、ステップS14において検出された対象者3の向きごとに、対象者3の向きとカメラ2の光軸の向きとの差分を算出する(ステップS15)。
The target person
対象者映像選択部43は、ステップS12において検出された対象者映像の内、ステップS15において算出された差分が最小となる対象者映像を選択する(ステップS16)。
The target person
プライバシー保護処理部44は、ステップS16において選択された対象者映像に対し、対象者3以外の人物の像にプライバシー保護処理を施す(ステップS17)。
The privacy
映像送信部50は、ステップS17においてプライバシー保護処理が施された対象者映像を、ユーザ4の利用する端末装置5に送信する(ステップS18)。
The
ステップS12において検出された対象者映像の数が1の場合には(ステップS13において2以上)、当該対象者映像に対してプライバシー保護処理(ステップS17)及び映像送信処理(ステップS18)が行われる。 When the number of target person videos detected in step S12 is 1 (2 or more in step S13), privacy protection processing (step S17) and video transmission processing (step S18) are performed on the target person video. ..
映像処理部40は、ステップS11からステップS18までの処理を対象者3とユーザ4との間の通話が終了するまで繰り返し実行する。
The
〔視点共有モード映像処理について〕
図10は、視点共有モード映像処理(図8のステップS6)の詳細を示すフローチャートである。
[Viewpoint sharing mode video processing]
FIG. 10 is a flowchart showing details of the viewpoint sharing mode video processing (step S6 of FIG. 8).
映像取得部10は、複数のカメラ2から、当該カメラ2で撮影された映像を取得する(ステップS21)。
The
対象者映像検出部41は、対象者情報取得処理(図8のステップS1)で取得された対象者情報としての対象者3の顔画像に基づいて、ステップS21で取得された複数の映像の中から、対象者3が映っている対象者映像と、対象者映像中の対象者3の位置とを検出する(ステップS22)。
The target person
映像処理部40は、ステップS22において対象者映像が検出されたか否かを判定する(ステップS23)。
The
対象者映像が検出されなかった場合には(ステップS23においてNO)、ステップS24以降の処理は実行されない。 If the subject image is not detected (NO in step S23), the processing after step S24 is not executed.
対象者映像が検出された場合には(ステップS23においてYES)、対象者向き検出部42は、ステップS22において検出された対象者映像ごとに、対象者3の向きを検出する(ステップS24)。
When the target person image is detected (YES in step S23), the target person orientation detection unit 42 detects the orientation of the
対象者位置特定部45は、ステップS22において検出された対象者映像及び対象者3の位置の情報に基づいて、3次元空間中での対象者3の位置を特定する(ステップS25)。
The target person
周囲映像検出部46は、ステップS25において特定された3次元空間中での対象者3の位置に基づいて、ステップS21において取得された映像の中から、対象者3の周囲を撮影した周囲映像を検出する(ステップS26)。
The surrounding
映像処理部40は、ステップS26において検出された周囲映像の数を判定する(ステップS27)。
The
周囲映像の数が0の場合には(ステップS27において0)、ステップS28以降の処理は実行されない。 When the number of surrounding images is 0 (0 in step S27), the processing after step S28 is not executed.
周囲映像の数が2以上の場合には(ステップS27において2以上)、周囲映像選択部47は、ステップS26において検出された周囲映像ごとに、3次元空間中でのカメラ2の光軸の向きと対象者3の向きとの差分を算出する(ステップS28)。
When the number of ambient images is 2 or more (2 or more in step S27), the ambient
周囲映像選択部47は、ステップS26において検出された周囲映像の内、ステップS28において算出された差分が最小となる周囲映像を選択する(ステップS29)。
The ambient
プライバシー保護処理部44は、ステップS29において選択された周囲映像に対し、人物の像にプライバシー保護処理を施す(ステップS30)。
The privacy
映像送信部50は、ステップS30においてプライバシー保護処理が施された周囲映像を、ユーザ4の利用する端末装置5に送信する(ステップS31)。
The
ステップS26において検出された周囲映像の数が1の場合には(ステップS27において1)、当該周囲映像に対してプライバシー保護処理(ステップS30)及び映像送信処理(ステップS31)が行われる。 When the number of ambient images detected in step S26 is 1 (1 in step S27), privacy protection processing (step S30) and video transmission processing (step S31) are performed on the ambient video.
映像処理部40は、ステップS21からステップS31までの処理を対象者3とユーザ4との間の通話が終了するまで繰り返し実行する。
The
〔実施形態1の効果〕
以上説明したように、本開示の実施形態1によると、映像処理装置1は、ネットワーク7を介して複数のカメラ2から取得された複数の映像から、対象者3の向き及び位置に基づいて、対象者3に関連する映像を生成することができる。このため、対象者3がカメラ2が配置された専用端末装置を装着せずとも、対象者3に関連する映像を生成することができる。これにより、対象者3に過度な負担を強いることなく、対象者3に関連する映像を生成することができる。
[Effect of Embodiment 1]
As described above, according to the first embodiment of the present disclosure, the
また、映像処理装置1は、専用のカメラ2を用いなくても、対象者3の周囲に存在するカメラ2を用いて、対象者3に関連する映像を生成することができる。つまり、対象者3がカメラ2のバッテリー残量や発熱等を気にする必要なく、対象者3に関連する映像を生成することができる。
Further, the
また、モードが自撮りモードの場合には、対象者3に対向する位置から対象者3を撮影した、いわゆる自撮り映像を生成することができる。
Further, when the mode is the self-shooting mode, it is possible to generate a so-called self-shooting image in which the
また、対象者3の像を含む映像の中から、対象者3の向きに最も近い向きから対象者3を撮影した映像を、いわゆる自撮り映像として生成することができる。このため、高速に自撮り映像を生成することができる。
Further, from the images including the image of the
また、モードが視点共有モードの場合には、例えば、対象者3の視線の先にある対象の映像、つまり、対象者3が見ているのと同じ対象の映像を生成することができる。
Further, when the mode is the viewpoint sharing mode, for example, it is possible to generate an image of the target in front of the line of sight of the
また、複数の映像から、例えば、対象者3の視線の先にある対象の映像を選択することができる。このため、対象者3から周囲を見た映像を高速に生成することができる。
Further, from a plurality of images, for example, an image of the target located in front of the line of sight of the
また、対象者3の向きは、対象者3の視線の向き、対象者3の顔の向き、及び対象者3の体の向きの少なくとも1つを含む。このため、対象者3の視線の向き、顔の向き又は体の向きから対象者3を見た映像、又は対象者3の位置から当該向きに周囲を見た映像を生成することができる。
The orientation of the subject 3 includes at least one of the orientation of the subject 3's line of sight, the orientation of the subject 3's face, and the orientation of the subject 3's body. Therefore, it is possible to generate an image of the
また、対象者3以外の人物の像にプライバシー保護処理が施される。このため、当該人物のプライバシーを保護した映像を生成することができる。
In addition, privacy protection processing is applied to the image of a person other than the
また、映像処理装置1は、生成した映像を端末装置5に送信することができる。このため、対象者3はカメラ2を意識することなく、端末装置5を利用するユーザ4とビデオ通話をしたり、テレビ会議をしたりすることができる。
Further, the
<実施形態2>
実施形態1では、カメラ2により撮影された映像の中から1つの映像を選択することにより、対象者3に関連する映像を生成した。実施形態2では、カメラ2により撮影された複数の映像を合成することにより、対象者3に関連する映像を生成する例について説明する。
<
In the first embodiment, an image related to the
本開示の実施形態2に係る映像処理システムの全体構成は、図1に示したものと同様である。 The overall configuration of the video processing system according to the second embodiment of the present disclosure is the same as that shown in FIG.
また、本開示の実施形態2に係る映像処理装置1の機能的な構成は、図2に示したものと同様である。ただし、映像処理部40の詳細な構成が実施形態1とは異なる。
Further, the functional configuration of the
〔映像処理部40の構成〕
図11は、図2に示した映像処理装置1が備える映像処理部40の詳細な構成を示すブロック図である。
[Structure of video processing unit 40]
FIG. 11 is a block diagram showing a detailed configuration of the
映像処理部40は、対象者映像検出部41と、対象者向き検出部42と、自撮り映像生成部48と、プライバシー保護処理部44と、対象者位置特定部45と、周囲映像検出部46と、対象者視点映像生成部49とを備える。
The
対象者映像検出部41、対象者向き検出部42、対象者位置特定部45及び周囲映像検出部46の実行する処理は実施形態1と同様である。
The processes executed by the target person
ただし、対象者映像検出部41は、検出した対象者映像を自撮り映像生成部48に出力する。また、対象者向き検出部42は、対象者3の向きの情報を自撮り映像生成部48及び対象者視点映像生成部49に出力する。また、周囲映像検出部46は、検出した周囲映像を対象者視点映像生成部49に出力する。
However, the target person
自撮り映像生成部48は、対象者映像検出部41から対象者映像を受け、対象者向き検出部42から対象者3の向きの情報を受ける。自撮り映像生成部48は、映像生成部として機能し、モードが自撮りモードの場合に、対象者映像を合成することにより、対象者3と対向する位置から対象者3の向きに対象者3を撮影した映像を生成する。当該映像は、いわゆる自撮り映像と呼ばれるものである。つまり、自撮り映像生成部48は、複数の対象者映像に基づいて視点変換処理を行うことにより、自撮り映像を内挿補間により合成する。視点変換処理については、例えば、非特許文献3に開示されている。自撮り映像生成部48は、生成した自撮り映像を、対象者3に関連する映像としてプライバシー保護処理部44に出力する。
The self-portrait
図12は、自撮り映像生成部48による自撮り映像の生成処理の一例を説明するための図である。図12の(A)〜(C)は、対象者映像検出部41から受けた対象者映像を示している。ここで、対象者3の向きを、例えば、対象者3の顔の向きとした場合には、自撮り映像生成部48は、図12の(A)〜(C)に示す3枚の対象者映像から、対象者3を正面から撮影した映像を内挿補間により合成することにより、自撮り映像を生成する。図12の(D)は、生成された自撮り映像を示している。
FIG. 12 is a diagram for explaining an example of a self-portrait image generation process by the self-portrait
対象者視点映像生成部49は、周囲映像検出部46から周囲映像を受け、対象者向き検出部42から対象者3の向きの情報を受ける。対象者視点映像生成部49は、映像生成部として機能し、モードが視点共有モードの場合に、周囲映像を合成することにより、対象者3の位置から対象者3の向きに対象者3の周囲を見た映像(以下、「対象者視点映像」という)を生成する。つまり、対象者視点映像生成部49は、複数の周囲映像に基づいて視点変換処理を行うことにより、対象者視点映像を内挿補間により合成する。視点変換処理については、例えば、非特許文献3に開示されている。対象者視点映像生成部49は、生成した対象者視点映像を、対象者3に関連する映像としてプライバシー保護処理部44に出力する。
The target person viewpoint
図13は、対象者視点映像生成部49による対象者視点映像の生成処理の一例を説明するための図である。図13の(A)〜(C)は、図7の(A)〜(C)に示したのと同じ周囲映像をそれぞれ示している。つまり、図5を参照して、図13の(A)は、光軸の向きが矢印71のカメラ2により撮影された周囲映像を示しており、図13の(B)は、光軸の向きが矢印72のカメラ2により撮影された周囲映像を示しており、図13の(C)は、光軸の向きが矢印73のカメラ2により撮影された周囲映像を示している。自撮り映像生成部48は、図13の(A)〜(C)に示す3枚の周囲映像から、対象者視点映像を内挿補間により合成する。図13の(D)は、生成された対象者視点映像を示している。対象者視点映像は、図6に示した対象者3が見ている映像と同様の映像である。
FIG. 13 is a diagram for explaining an example of the generation process of the target person's viewpoint image by the target person's viewpoint
プライバシー保護処理部44は、対象者映像検出部41から対象者映像中での対象者3の位置の情報を受け、自撮り映像生成部48から対象者3に関連する映像として自撮り映像を受け、対象者視点映像生成部49から対象者3に関連する映像として対象者視点映像を受ける。
The privacy
プライバシー保護処理部44は、モードが自撮りモードの場合には、自撮り映像生成部48から受けた自撮り映像の中から、人物の像を検出する。プライバシー保護処理部44は、対象者3の位置に存在する人物の像、つまり対象者3の像は残し、それ以外の人物の像に対してプライバシー保護処理を施す。これにより、対象者3以外の人物を特定しにくくする。
When the mode is the self-portrait mode, the privacy
プライバシー保護処理部44は、モードが視点共有モードの場合には、対象者視点映像生成部49から受けた対象者視点映像の中から、人物の像を検出する。プライバシー保護処理部44は、検出した人物の像に対してプライバシー保護処理を施す。これにより、対象者3以外の人物を特定しにくくする。
When the mode is the viewpoint sharing mode, the privacy
プライバシー保護処理部44は、プライバシー保護処理が施された対象者3に関連する映像を映像送信部50に出力する。
The privacy
〔映像処理装置1の処理手順〕
映像処理装置1の処理手順は、図8に示した実施形態1に係る映像処理装置1の処理手順と同様である。ただし、自撮りモード映像処理(S4)及び視点共有モード映像処理(S6)の詳細が実施形態1とは異なる。
[Processing procedure of video processing device 1]
The processing procedure of the
〔自撮りモード映像処理について〕
図14は、自撮りモード映像処理(図8のステップS4)の詳細を示すフローチャートである。
[Selfie mode video processing]
FIG. 14 is a flowchart showing details of the self-shooting mode video processing (step S4 of FIG. 8).
ステップS11からステップS14、ステップS17及びステップS18の処理は、図9に示したものと同様である。 The processes from step S11 to step S14, step S17 and step S18 are the same as those shown in FIG.
実施形態2では、図9に示したステップS15及びステップS16の処理の代わりに、ステップS101の処理が実行される。 In the second embodiment, the process of step S101 is executed instead of the processes of steps S15 and S16 shown in FIG.
つまり、自撮り映像生成部48は、対象者映像を合成することにより、対象者3と対向する位置から対象者3の向きに対象者3を撮影した自撮り映像を生成する(ステップS101)。
That is, the self-portrait
なお、プライバシー保護処理(ステップS17)においては、自撮り映像に対するプライバシー保護処理が行われ、映像送信処理(ステップS18)においては、プライバシー保護処理が施された自撮り映像が端末装置5に送信される。 In the privacy protection process (step S17), the privacy protection process for the self-portrait video is performed, and in the video transmission process (step S18), the self-portrait video with the privacy protection process is transmitted to the terminal device 5. NS.
〔視点共有モード映像処理について〕
図15は、視点共有モード映像処理(図8のステップS6)の詳細を示すフローチャートである。
[Viewpoint sharing mode video processing]
FIG. 15 is a flowchart showing details of the viewpoint sharing mode video processing (step S6 of FIG. 8).
ステップS21からステップS27、ステップS30及びステップS31の処理は、図10に示したものと同様である。 The processes from step S21 to step S27, step S30 and step S31 are the same as those shown in FIG.
実施形態2では、図10に示したステップS28及びステップS29の処理の代わりに、ステップS102の処理が実行される。 In the second embodiment, the process of step S102 is executed instead of the processes of steps S28 and S29 shown in FIG.
つまり、対象者視点映像生成部49は、周囲映像を合成することにより、対象者視点映像を生成する(ステップS102)。
That is, the target person viewpoint
なお、プライバシー保護処理(ステップS30)においては、対象者視点映像に対するプライバシー保護処理が行われ、映像送信処理(ステップS31)においては、プライバシー保護処理が施された対象者視点映像が端末装置5に送信される。 In the privacy protection process (step S30), the privacy protection process for the target person's viewpoint video is performed, and in the video transmission process (step S31), the target person's viewpoint video to which the privacy protection process is applied is sent to the terminal device 5. Will be sent.
〔実施形態2の効果〕
以上説明したように、本開示の実施形態2によると、対象者3の像を含む映像を合成することにより、いわゆる自撮り映像を生成することができる。このため、対象者3の向きに対象者3を撮影した映像がカメラ2から得られない場合であっても、当該向きに対象を撮影した映像を生成することができる。
[Effect of Embodiment 2]
As described above, according to the second embodiment of the present disclosure, a so-called self-portrait video can be generated by synthesizing a video including an image of the
また、複数の周囲映像を合成することにより、例えば、対象者3の視線の先にある対象の映像を生成することができる。このため、1つの周囲映像からではこのような映像を生成することができない場合であっても、対象者3が見ているのと同じ対象の映像を生成することができる。
Further, by synthesizing a plurality of surrounding images, for example, it is possible to generate an image of an object in front of the line of sight of the
[付記]
以上、本開示の実施形態に係る映像処理装置1について説明したが、本開示は、この実施形態に限定されるものではない。
[Additional Notes]
Although the
例えば、上述の実施形態では、対象者3に関連する映像をユーザ4の利用する端末装置5に送信することとしたが、映像処理装置1は、ユーザ4に関連する映像を、対象者3に関連する映像と同様に生成し、対象者3の利用する端末装置に送信してもよい。これにより、対象者3とユーザ4との間で双方向のテレビ電話を実現することができる。
For example, in the above-described embodiment, the video related to the
また、映像処理装置1の適用対象はテレビ電話に限定されるものではない。例えば、映像処理装置1をテレビ会議に適用することも可能である。例えば、第1地点の第1会議室に設置された複数のカメラ2(以下、「第1カメラ」という)で第1会議室内を撮影し、第2地点の第2会議室に設置された複数のカメラ2(以下、「第2カメラ」という)で第2会議室内を撮影することとする。映像処理装置1は、複数の第1カメラで撮影された映像から第1会議室にいるユーザに関連する映像を生成し、第2会議室に設置されたテレビ会議用の第2端末装置に送信する。第2端末装置は、映像を受信し、表示装置に表示することにより、第1会議室にいるユーザに関連する映像を、第2会議室にいるユーザに見せることができる。同様に、映像処理装置1は、複数の第2カメラで撮影された映像から第2会議室にいるユーザに関連する映像を生成し、第1会議室に設置されたテレビ会議用の第1端末装置に送信する。第1端末装置は、映像を受信し、表示装置に表示することにより、第2会議室にいるユーザに関連する映像を、第1会議室にいるユーザに見せることができる。
Further, the application target of the
また、映像処理部40の対象者位置特定部45は、カメラ2の位置情報及び映像中の対象者3の位置等から対象者3の3次元空間中での位置を特定することとしたが、対象者3の位置がそれ以外の方法でわかる場合には、その位置情報を利用してもよい。例えば、対象者3が所持する端末装置にGPS(Global Positioning System)センサの機能が備えられている場合には、対象者位置特定部45は、端末装置で捕捉された対象者3の位置情報を端末装置から受信して、対象者3の3次元空間中での位置情報としてもよい。
Further, the target person
また、映像処理部40の対象者向き検出部42は、対象者映像に基づいて対象者3の向きを検出することとしたが、対象者3の向きがそれ以外の方法でわかる場合には、その向き情報を利用してもよい。例えば、地磁気センサ(電子コンパス)、又は地磁気センサとジャイロセンサの組を備えるスマートフォンなどの端末装置を対象者3が衣服のポケット等に入れて身に着けている場合には、対象者向き検出部42は、センサ出力に基づいて対象者の向きを検出し、検出結果を対象者の向き情報としてもよい。なお、端末装置は、対象者3に装着可能な、上記した地磁気センサ等の向きを検出するための専用のセンサであってもよい。また、端末装置は、上記した地磁気センサ等を備えるウェアラブルデバイス(例えば、スマートグラス)であってもよい。
Further, the target person orientation detection unit 42 of the
また、映像処理装置1を構成する構成要素の一部又は全部は、1又は複数のシステムLSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)などの半導体装置から構成されていてもよい。
In addition, some or all of the components constituting the
また、上記したコンピュータプログラムを、コンピュータ読取可能な非一時的な記録媒体、例えば、HDD、CD−ROM、半導体メモリなどに記録して流通させてもよい。 Further, the above-mentioned computer program may be recorded and distributed on a computer-readable non-temporary recording medium such as an HDD, a CD-ROM, or a semiconductor memory.
また、映像処理装置1は、複数のコンピュータにより実現されてもよい。
Further, the
また、映像処理装置1の一部又は全部の機能がクラウドコンピューティングによって提供されてもよい。つまり、映像処理装置1の一部又は全部の機能がクラウドサーバにより実現されていてもよい。
Further, a part or all of the functions of the
さらに、上記実施形態の少なくとも一部を任意に組み合わせてもよい。 Further, at least a part of the above embodiments may be arbitrarily combined.
今回開示された実施形態はすべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered to be exemplary in all respects and not restrictive. The scope of the present disclosure is indicated by the scope of claims, not the above-mentioned meaning, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.
1 映像処理装置
2 カメラ
3 対象者
4 ユーザ
5 端末装置
6 ハンズフリーフォン
7 ネットワーク
10 映像取得部
20 対象者情報取得部
30 モード受付部
40 映像処理部
41 対象者映像検出部
42 対象者向き検出部
43 対象者映像選択部
44 プライバシー保護処理部
45 対象者位置特定部
46 周囲映像検出部
47 周囲映像選択部
48 自撮り映像生成部
49 対象者視点映像生成部
50 映像送信部
70 矢印
71 矢印
72 矢印
73 矢印
81 円錐
82 球
100 映像処理システム
1
Claims (15)
対象者の向きを検出する向き検出部と、
前記対象者の位置を特定する位置特定部と、
検出された前記対象者の向き及び特定された前記対象者の位置に基づいて、前記複数の映像から前記対象者に関連する映像を生成する映像生成部とを備える、映像処理装置。 An acquisition unit that acquires multiple images taken by multiple cameras,
A direction detection unit that detects the direction of the target person,
The position specifying unit that specifies the position of the target person and
An image processing device including an image generation unit that generates an image related to the object from the plurality of images based on the detected orientation of the object and the identified position of the object.
前記複数の映像から、前記対象者の向きと最も近い向きから撮影した映像を、前記対象者に関連する映像として抽出する、請求項4に記載の映像処理装置。 The video generator
The image processing apparatus according to claim 4, wherein an image taken from the direction closest to the direction of the target person is extracted from the plurality of images as an image related to the target person.
前記複数の映像から、前記対象者の像を含む映像を検出し、
検出された前記対象者の像を含む映像を合成することにより、前記対象者に対向する位置から前記対象者の向きに前記対象者を撮影した映像を生成する、請求項4に記載の映像処理装置。 The video generator
An image including an image of the target person is detected from the plurality of images, and the image is detected.
The video processing according to claim 4, wherein a video including the detected image of the target person is synthesized to generate a video of the target person taken in the direction of the target person from a position facing the target person. Device.
前記映像生成部が生成した前記対象者に関連する映像を端末装置に送信する映像送信部を備える、請求項1から請求項11のいずれか1項に記載の映像処理装置。 Moreover,
The video processing device according to any one of claims 1 to 11, further comprising a video transmission unit that transmits a video related to the target person generated by the video generation unit to a terminal device.
前記複数のカメラで撮影された複数の映像に基づいて映像を生成する、請求項1から請求項12のいずれか1項に記載の映像処理装置とを備える、映像処理システム。 With multiple cameras
An image processing system including the image processing apparatus according to any one of claims 1 to 12, which generates an image based on a plurality of images taken by the plurality of cameras.
対象者の向きを検出するステップと、
前記対象者の位置を特定するステップと、
検出された前記対象者の向き及び特定された前記対象者の位置に基づいて、前記複数の映像から前記対象者に関連する映像を生成するステップとを含む、映像処理方法。 Steps to acquire multiple images taken by multiple cameras,
Steps to detect the orientation of the subject and
The step of identifying the position of the target person and
An image processing method including a step of generating an image related to the object from the plurality of images based on the detected orientation of the object and the identified position of the object.
複数のカメラで撮影された複数の映像を取得する取得部と、
対象者の向きを検出する向き検出部と、
前記対象者の位置を特定する位置特定部と、
検出された前記対象者の向き及び特定された前記対象者の位置に基づいて、前記複数の映像から前記対象者に関連する映像を生成する映像生成部として機能させるための、コンピュータプログラム。 Computer,
An acquisition unit that acquires multiple images taken by multiple cameras,
A direction detection unit that detects the direction of the target person,
The position specifying unit that specifies the position of the target person and
A computer program for functioning as an image generation unit that generates an image related to the object from the plurality of images based on the detected orientation of the object and the identified position of the object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020017776A JP2021125789A (en) | 2020-02-05 | 2020-02-05 | Image processing device, image processing system, image processing method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020017776A JP2021125789A (en) | 2020-02-05 | 2020-02-05 | Image processing device, image processing system, image processing method, and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021125789A true JP2021125789A (en) | 2021-08-30 |
Family
ID=77460227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020017776A Pending JP2021125789A (en) | 2020-02-05 | 2020-02-05 | Image processing device, image processing system, image processing method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021125789A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023008555A1 (en) | 2021-07-30 | 2023-02-02 | 徹 宮崎 | Therapeutic agent for ischemic disease |
-
2020
- 2020-02-05 JP JP2020017776A patent/JP2021125789A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023008555A1 (en) | 2021-07-30 | 2023-02-02 | 徹 宮崎 | Therapeutic agent for ischemic disease |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106937039B (en) | Imaging method based on double cameras, mobile terminal and storage medium | |
US9159169B2 (en) | Image display apparatus, imaging apparatus, image display method, control method for imaging apparatus, and program | |
US11089266B2 (en) | Communication processing method, terminal, and storage medium | |
US9332208B2 (en) | Imaging apparatus having a projector with automatic photography activation based on superimposition | |
JP5567235B2 (en) | Image processing apparatus, photographing apparatus, program, and image processing method | |
WO2019033411A1 (en) | Panoramic shooting method and device | |
CN110418064B (en) | Focusing method and device, electronic equipment and storage medium | |
CN107948505B (en) | Panoramic shooting method and mobile terminal | |
CN110636276B (en) | Video shooting method and device, storage medium and electronic equipment | |
JP6096654B2 (en) | Image recording method, electronic device, and computer program | |
WO2021147921A1 (en) | Image processing method, electronic device and computer-readable storage medium | |
JP7205386B2 (en) | IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM | |
CN109120858B (en) | Image shooting method, device, equipment and storage medium | |
US9167166B2 (en) | Image display device, imaging apparatus mounted with image display device as finder device, and image display method | |
KR101784095B1 (en) | Head-mounted display apparatus using a plurality of data and system for transmitting and receiving the plurality of data | |
CN112184722B (en) | Image processing method, terminal and computer storage medium | |
JP2021125789A (en) | Image processing device, image processing system, image processing method, and computer program | |
CN111385481A (en) | Image processing method and device, electronic device and storage medium | |
WO2021200184A1 (en) | Information processing device, information processing method, and program | |
CN114390206A (en) | Shooting method and device and electronic equipment | |
JP2017153092A (en) | Photographing system and program | |
CN107426522B (en) | Video method and system based on virtual reality equipment | |
JP2017152931A (en) | Photographing system and program | |
JP2020177490A (en) | Ar space image projection system, ar space image projection method, and user terminal | |
CN112184610B (en) | Image processing method and device, storage medium and electronic equipment |