JP2013153256A - Terminal device, photographing system, terminal position detection method, and program - Google Patents

Terminal device, photographing system, terminal position detection method, and program Download PDF

Info

Publication number
JP2013153256A
JP2013153256A JP2012011868A JP2012011868A JP2013153256A JP 2013153256 A JP2013153256 A JP 2013153256A JP 2012011868 A JP2012011868 A JP 2012011868A JP 2012011868 A JP2012011868 A JP 2012011868A JP 2013153256 A JP2013153256 A JP 2013153256A
Authority
JP
Japan
Prior art keywords
subject
terminal device
image data
photographing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012011868A
Other languages
Japanese (ja)
Inventor
Hideki Mori
秀樹 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2012011868A priority Critical patent/JP2013153256A/en
Publication of JP2013153256A publication Critical patent/JP2013153256A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a terminal device capable of accurately detect an arrangement state of the terminal device and other terminal devices without making the device extensive.SOLUTION: A terminal device includes: a photographing unit 8 that photographs a subject; a communication unit 4 that receives image data obtained by photographing the subject from at least one other terminal device; and a CPU 1 that detects an arrangement state of the terminal device and the other terminal device with respect to the subject on the basis of the image data of the subject photographed by the photographing unit 8 and the image data of the subject received by the communication unit 4.

Description

本発明は、携帯電話機やスマートフォンなどの携帯電話端末、タブレット端末、ノート型パーソナルコンピュータなどに代表される端末装置の技術に関し、特に、複数の端末装置を並べて配置した場合の各端末装置の位置関係を検出する技術に関する。   The present invention relates to a technology of a terminal device represented by a mobile phone terminal such as a mobile phone or a smartphone, a tablet terminal, a notebook personal computer, and the like, and in particular, a positional relationship between each terminal device when a plurality of terminal devices are arranged side by side. It is related with the technology to detect.

携帯電話機やスマートフォンなどの表示部を備えた端末装置の利用方法として、複数台の端末装置を隣接して並べてマルチ画面として利用する方法がある。   As a method for using a terminal device including a display unit such as a mobile phone or a smartphone, there is a method in which a plurality of terminal devices are arranged side by side and used as a multi-screen.

例えば、2台の携帯電話機を横方向に並べ、2ページ分のデータを左右の表示部に表示する。この形態によれば、見開き本のような使用が可能である。   For example, two mobile phones are arranged in the horizontal direction, and two pages of data are displayed on the left and right display units. According to this form, it can be used like a spread book.

また、2台の携帯電話機を縦方向に並べ、下側の表示部にソフトキーボード(タッチ式キーボード)を表示し、上側の表示部に、ソフトキーボードからの入力情報を表示する。この形態によれば、パーソナルコンピュータのような使用が可能である。   Two mobile phones are arranged in the vertical direction, a soft keyboard (touch keyboard) is displayed on the lower display unit, and input information from the soft keyboard is displayed on the upper display unit. According to this form, it can be used like a personal computer.

さらに、4台の携帯電話機を2行×2列のマトリクス状に並べ、1つの画像を左上、右上、左下、右下の4つの部分画像に分割して、それぞれの部分画像を対応する位置の表示部にて表示する。この形態によれば、大きな画面で画像を観察することができる。   Furthermore, four mobile phones are arranged in a matrix of 2 rows × 2 columns, and one image is divided into four partial images in the upper left, upper right, lower left, and lower right, and each partial image is assigned to the corresponding position. Display on the display. According to this form, an image can be observed on a large screen.

上記のマルチ画面化が可能な端末装置として、特許文献1に記載の携帯端末がある。   There exists a portable terminal of patent document 1 as a terminal device in which said multi-screen conversion is possible.

特許文献1に記載の携帯端末は、キー入力部と、画像情報を受信する受信手段と、画像情報を表示する表示手段と、他の携帯端末と通信を行う通信手段と、自端末と他の携帯端末とが所定の配置とされているか否かを判定する判定手段と、自端末と他の携帯端末とが所定の配置とされている場合に、所定の配置に応じた自端末の表示すべき画面部分を決定し、受信した画像情報のうちの、決定した画面部分に対応する画像を表示手段に表示させる制御手段と、を有する。   The portable terminal described in Patent Literature 1 includes a key input unit, a receiving unit that receives image information, a display unit that displays image information, a communication unit that communicates with another portable terminal, The determination means for determining whether or not the mobile terminal is in a predetermined arrangement, and when the own terminal and another mobile terminal are in the predetermined arrangement, the display of the own terminal corresponding to the predetermined arrangement is displayed. Control means for determining a screen portion to be displayed and causing the display means to display an image corresponding to the determined screen portion of the received image information.

判定手段は、画面の左上側および右下側にそれぞれ配置された第1および第2の磁気センサと、画面の右上側および左下側にそれぞれ配置された第1および第2の磁石とを有する。   The determination means includes first and second magnetic sensors arranged on the upper left side and lower right side of the screen, and first and second magnets arranged on the upper right side and lower left side of the screen, respectively.

第1の磁気センサが他の携帯端末の第2の磁石を検出した場合は、判定手段は、所定の配置であると判定するとともに、画面を見た場合に、自端末が他の携帯端末の右側に位置していると判定する。一方、第2の磁気センサが他の携帯端末の第1の磁石を検出した場合は、判定手段は、所定の配置であると判定するとともに、画面を見た場合に、自端末が他の携帯端末の左側に位置していると判定する。   When the first magnetic sensor detects the second magnet of another mobile terminal, the determination unit determines that the predetermined arrangement is in place, and when the screen is viewed, It is determined that it is located on the right side. On the other hand, when the second magnetic sensor detects the first magnet of another mobile terminal, the determination means determines that the arrangement is a predetermined arrangement, and when the mobile terminal sees the screen, It is determined that it is located on the left side of the terminal.

また、特許文献2に記載の画像表示システムもある。   There is also an image display system described in Patent Document 2.

特許文献2に記載された画像表示システムは、それぞれが自装置を識別するための識別情報を表示する、マトリクス状に配置された複数の表示装置からなるマルチディスプレイと、各表示装置が識別情報を表示した状態でマルチディスプレイ全体を撮像する撮像装置と、撮像装置にて撮像された画像中の各表示装置の識別情報とその位置関係に基づいて、マトリクス状の配置における各表示装置の相対的な位置関係を検出し、その検出結果を各表示装置に通知する制御装置と、を有する。   An image display system described in Patent Document 2 displays a plurality of display devices arranged in a matrix, each displaying identification information for identifying the device itself, and each display device receives identification information. Based on the imaging device that captures the entire multi-display in the displayed state, the identification information of each display device in the image captured by the imaging device, and the positional relationship thereof, the relative relationship of each display device in the matrix arrangement And a control device that detects a positional relationship and notifies each display device of the detection result.

各表示装置はそれぞれ、制御装置から通知された相対的な位置関係に基づいて、マトリクス状の配置における自装置の位置を特定し、その特定した位置に応じた画像情報を表示する。   Each display device specifies the position of its own device in the matrix arrangement based on the relative positional relationship notified from the control device, and displays image information corresponding to the specified position.

特開2011−114352号公報JP 2011-114352 A 特開2009−109671号公報JP 2009-109671 A

特許文献1に記載の携帯端末においては、以下のような問題が生じる。   In the portable terminal described in Patent Document 1, the following problems occur.

2台の携帯端末を並べてマルチ画面として使用する場合、例えば、使用者から見て、各携帯端末の画面が左右に隣接する状態でマルチ画面を観察する形態と、各携帯端末の画面が上下に隣接する状態でマルチ画面を観察する形態とがある。特許文献1に記載の携帯端末は、それら形態のうちの一方の形態で観察することを前提とするものであり、3台以上の携帯端末を組み合わせた場合や、各携帯端末が隣接しておらず離れている場合等、自由な配置で、自端末と他の携帯端末の位置関係を正しく検出することは困難である。   When two mobile terminals are used side by side as a multi-screen, for example, when viewed from the user, the form of observing the multi-screen with the screen of each mobile terminal adjacent to the left and right, and the screen of each mobile terminal up and down There is a form in which multiple screens are observed in an adjacent state. The portable terminal described in Patent Document 1 is premised on observation in one of these forms. When three or more portable terminals are combined, or each portable terminal is not adjacent. It is difficult to correctly detect the positional relationship between the own terminal and other portable terminals with a free arrangement, such as when they are far away.

このように、特許文献1に記載の携帯端末には、使用者に対する自端末と他の携帯端末の配置状態を正確に検出することができないという問題がある。   As described above, the portable terminal described in Patent Document 1 has a problem in that it is impossible to accurately detect the arrangement state of the own terminal and another portable terminal with respect to the user.

特許文献2に記載のものにおいては、マルチディスプレイを構成する表示装置(これは、端末装置に対応する)とは別に、マルチディスプレイ全体を撮影する撮像装置や、表示装置の相対的位置関係を検出する制御装置が必要であるので、装置が大がかりになるという問題がある。   In the device described in Patent Literature 2, an imaging device that captures the entire multi-display and a relative positional relationship between the display devices are detected separately from the display device that constitutes the multi-display (this corresponds to the terminal device). Therefore, there is a problem that the apparatus becomes large.

本発明の目的は、装置が大がかりになることがなく、自端末装置と他の端末装置の配置状態を正確に検出することができる、端末装置、撮像システム、端末位置検出方法、およびプログラムを提供することにある。   An object of the present invention is to provide a terminal device, an imaging system, a terminal position detection method, and a program capable of accurately detecting the arrangement state of the own terminal device and another terminal device without the device becoming large-scale There is to do.

上記目的を達成するため、本発明の一態様によれば、
被写体を撮影する撮影手段と、
少なくとも1つの他の端末装置から前記被写体を撮影した画像データを受信する受信手段と、
前記撮影手段で撮影した前記被写体の画像データと前記受信手段で受信した前記被写体の画像データとに基づいて、前記被写体に対する自端末装置と前記他の端末装置の配置状態を検出する検出手段と、を有する端末装置が提供される。
In order to achieve the above object, according to one aspect of the present invention,
Photographing means for photographing the subject;
Receiving means for receiving image data obtained by photographing the subject from at least one other terminal device;
Detecting means for detecting an arrangement state of the terminal device and the other terminal device with respect to the subject based on the image data of the subject photographed by the photographing means and the image data of the subject received by the receiving means; A terminal device is provided.

本発明の別の態様によれば、
少なくとも1つの第1の処理装置と、
前記第1の処理装置と通信可能な第2の処理装置と、有し、
前記第1の処理装置は、
被写体を撮影する第1の撮影手段と、
前記第1の撮影手段で撮影した第1の画像データを送信する送信手段と、を含み、
前記第2の処理装置は、
前記被写体を撮影する第2の撮影手段と、
前記第1の画像データを受信する受信手段と、
前記第1の画像データと前記第2の撮影手段で撮影した第2の画像データとに基づいて、前記被写体に対する自端末装置と前記第1の端末装置の配置状態を検出する検出手段と、を含む、撮影システムが提供される。
According to another aspect of the invention,
At least one first processing device;
A second processing device capable of communicating with the first processing device;
The first processing device includes:
A first photographing means for photographing a subject;
Transmitting means for transmitting the first image data photographed by the first photographing means,
The second processing device includes:
A second photographing means for photographing the subject;
Receiving means for receiving the first image data;
Detecting means for detecting an arrangement state of the terminal device with respect to the subject and the first terminal device based on the first image data and the second image data photographed by the second photographing device; An imaging system is provided.

本発明のさらに別の態様によれば、
撮影手段で被写体を撮影し、
少なくとも1つの他の端末装置から前記被写体を撮影した画像データを受信し、
前記撮影手段で撮影した前記被写体の画像データと受信した前記被写体の画像データとに基づいて、前記被写体に対する自端末装置と前記他の端末装置の配置状態を検出する、端末位置検出方法が提供される。
According to yet another aspect of the invention,
Take a picture of the subject with the shooting means,
Receiving image data of the subject from at least one other terminal device;
Provided is a terminal position detection method for detecting an arrangement state of the terminal device and the other terminal device with respect to the subject based on the subject image data photographed by the photographing means and the received subject image data. The

本発明の他の態様によれば、
撮影手段で被写体を撮影する処理と、
少なくとも1つの他の端末装置から前記被写体を撮影した画像データを受信する処理と、
前記撮影手段で撮影した前記被写体の画像データと受信した前記被写体の画像データとに基づいて、前記被写体に対する自端末装置と前記他の端末装置の配置状態を検出する処理と、をコンピュータに実行させるプログラムが提供される。
According to another aspect of the invention,
A process of shooting a subject with a shooting means;
Processing for receiving image data obtained by photographing the subject from at least one other terminal device;
Based on the image data of the subject photographed by the photographing means and the received image data of the subject, the computer executes processing for detecting the arrangement state of the terminal device and the other terminal device with respect to the subject. A program is provided.

本発明によれば、被写体に対する自端末装置と他の端末装置の配置状態を正確に検出することができる。   ADVANTAGE OF THE INVENTION According to this invention, the arrangement | positioning state of the own terminal device and another terminal device with respect to a to-be-photographed object can be detected correctly.

外部に制御装置や撮影装置を設ける必要がないので、装置が大がかりになることがない。   Since there is no need to provide an external control device or photographing device, the device does not become large.

本発明の一実施形態である端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of the terminal device which is one Embodiment of this invention. 図1に示した端末装置にて行われる装置位置検出処理の一手順を示す。One procedure of the apparatus position detection process performed in the terminal device shown in FIG. 1 is shown. 図1に示した端末装置を用いたマルチ画面の利用形態の一例を示す模式図である。It is a schematic diagram which shows an example of the utilization form of the multiscreen using the terminal device shown in FIG. 図3に示した利用形態における位置検出処理を説明するための模式図である。It is a schematic diagram for demonstrating the position detection process in the utilization form shown in FIG. 顔の向きの検出結果の一例を示す図である。It is a figure which shows an example of the detection result of the direction of a face. 2台の端末装置のx軸方向の差分およびy軸方向の差分を説明するための模式図である。It is a schematic diagram for demonstrating the difference of the x-axis direction of the two terminal devices, and the difference of the y-axis direction. 2台の端末装置のz軸方向の差分を説明するための模式図である。It is a schematic diagram for demonstrating the difference of the z-axis direction of two terminal devices. 2台の端末装置のz軸方向の差分を説明するための模式図である。It is a schematic diagram for demonstrating the difference of the z-axis direction of two terminal devices. 2台の端末装置のx軸、y軸、およびz軸のそれぞれの軸周り回転方向の差分を説明するための模式図である。It is a schematic diagram for demonstrating the difference of the rotation direction around each of the x-axis of the two terminal devices, y-axis, and z-axis.

次に、本発明の実施形態について図面を参照して説明する。   Next, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態である端末装置の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of a terminal device according to an embodiment of the present invention.

図1を参照すると、端末装置は、携帯電話機やスマートフォンなどに代表される端末装置であって、CPU(Central Processing Unit)1、記録用メモリ2、ワークメモリ3、通信部4、操作部5、表示制御部6、表示部7、および撮影部8を有する。   Referring to FIG. 1, the terminal device is a terminal device represented by a mobile phone, a smartphone, or the like, and includes a CPU (Central Processing Unit) 1, a recording memory 2, a work memory 3, a communication unit 4, an operation unit 5, A display control unit 6, a display unit 7, and a photographing unit 8 are included.

CPU1、主メモリ2、ワークメモリ3、通信部4、操作部5、表示制御部6、および撮影部8はそれぞれバス9に接続されている。CPU1は、バス9を介して各部の動作を制御する。   The CPU 1, main memory 2, work memory 3, communication unit 4, operation unit 5, display control unit 6, and photographing unit 8 are each connected to a bus 9. The CPU 1 controls the operation of each unit via the bus 9.

主メモリ2は、半導体メモリ等の主記憶装置であって、本端末装置を制御するための制御プログラムやその制御に必要なデータを保持する。制御プログラムは、画像処理、装置位置検出処理、マルチ画面処理などの種々の処理を実行するプログラムを含む。   The main memory 2 is a main storage device such as a semiconductor memory, and holds a control program for controlling the terminal device and data necessary for the control. The control program includes a program that executes various processes such as image processing, apparatus position detection processing, and multi-screen processing.

ワークメモリ3は、RAM(Random Access Memory)等であって、制御プログラムが実行された際のプログラムの一部や必要なデータを一時的に保持する。   The work memory 3 is a RAM (Random Access Memory) or the like, and temporarily holds a part of the program and necessary data when the control program is executed.

なお、端末装置のメモリ部は、上記の主メモリ2やワークメモリ3に限定されるものではなく、同じメモリが主メモリ2やワークメモリ3の両方を兼用するような構成であってもよい。例えば、主メモリ2やワークメモリ3を1つのフラッシュメモリで構成してもよい。この場合は、フラッシュメモリは、主メモリ2に対応する領域(またはブロック)と、ワークメモリ3に対応する領域(またはブロック)とを含む。   Note that the memory unit of the terminal device is not limited to the main memory 2 and the work memory 3 described above, and may be configured such that the same memory serves as both the main memory 2 and the work memory 3. For example, the main memory 2 and the work memory 3 may be configured by a single flash memory. In this case, the flash memory includes an area (or block) corresponding to the main memory 2 and an area (or block) corresponding to the work memory 3.

通信部4は、他の端末装置との間でデータを送受信する装置間通信手段を有する。装置間通信手段は、例えば、Bluetooth(登録商標)に代表される無線通信手段である。この他、装置間通信手段として赤外線通信を利用した通信手段を用いることも可能である。   The communication unit 4 includes an inter-device communication unit that transmits and receives data to and from other terminal devices. The inter-device communication means is a wireless communication means represented by, for example, Bluetooth (registered trademark). In addition, it is also possible to use communication means using infrared communication as inter-device communication means.

また、通信部4は、装置間通信手段の他に、インターネットに代表されるネットワークへの接続を行うための別の通信手段を有していてもよい。別の通信手段は、例えば、無線LAN(Local Area Network)を用いた通信手段であってもよい。この別の通信手段を介して必要なプログラムやデータをダウンロードしてもよい。   Moreover, the communication part 4 may have another communication means for connecting to the network represented by the internet other than the communication apparatus between apparatuses. Another communication means may be a communication means using a wireless local area network (LAN), for example. Necessary programs and data may be downloaded via the other communication means.

操作部5は、複数の操作キーやタッチパネル等の入力手段であって、使用者による入力操作に応じた操作信号をCPU1に供給する。   The operation unit 5 is input means such as a plurality of operation keys and a touch panel, and supplies an operation signal corresponding to an input operation by the user to the CPU 1.

表示部7は、LCD(Liquid Crystal Display)等の表示装置である。表示制御部6は、CPU1からの制御信号に従って表示部7を制御する。これら表示部7および表示制御部6が表示手段を構成する。   The display unit 7 is a display device such as an LCD (Liquid Crystal Display). The display control unit 6 controls the display unit 7 in accordance with a control signal from the CPU 1. The display unit 7 and the display control unit 6 constitute display means.

撮影部8は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサに代表されるイメージセンサを含み、CPU1からの制御信号に従って、イメージセンサを介して得られた画像信号をCPU1に供給する。   The imaging unit 8 includes an image sensor typified by a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and receives an image signal obtained via the image sensor in accordance with a control signal from the CPU 1. Supply to CPU1.

CPU1は、主メモリ2に保持されている制御プログラムを実行し、入力操作に応じた信号を操作部5から受信し、その受信した信号に応じて、本端末装置の各部の制御や必要な処理を実行する。   The CPU 1 executes a control program stored in the main memory 2, receives a signal corresponding to the input operation from the operation unit 5, and controls each part of the terminal device and necessary processing according to the received signal. Execute.

例えば、CPU1は、以下の画像処理(撮影/保存/再生)、装置位置検出処理、マルチ画面処理をそれぞれ実行する処理部(画像処理部、装置位置検出処理部、およびマルチ画面処理部)を有する。   For example, the CPU 1 includes processing units (image processing unit, device position detection processing unit, and multi-screen processing unit) that execute the following image processing (shooting / saving / playback), device position detection processing, and multi-screen processing, respectively. .

(1)画像処理(撮影/保存/再生):
操作部5は、撮影ボタン等を含む。使用者が操作部5にて、撮影ボタンを押下すると、撮影ボタンが押下されたことを示す信号が操作部5からCPU1に供給される。CPU1は、操作部5からの信号に応じて、撮影部8を制御して、被写体の撮影や、画像データの取り込みといった処理を実行する。
(1) Image processing (shooting / saving / playback):
The operation unit 5 includes a shooting button and the like. When the user presses the shooting button on the operation unit 5, a signal indicating that the shooting button has been pressed is supplied from the operation unit 5 to the CPU 1. The CPU 1 controls the photographing unit 8 in accordance with a signal from the operation unit 5 to execute processing such as photographing a subject and capturing image data.

被写体の撮影において、例えば、CPU1は、撮影部8からの画像データをワークメモリ3に一時的に保存し、その保存した画像データを表示用サイズにリサイズした上で表示部7にて表示させてもよい。   In photographing a subject, for example, the CPU 1 temporarily stores the image data from the photographing unit 8 in the work memory 3, resizes the stored image data to a display size, and causes the display unit 7 to display the image data. Also good.

使用者が操作部5にて撮影画像を保存するための入力操作を行うと、その入力操作に応じた信号が操作部5からCPU1に供給される。CPU1は、操作部5からの信号に応じて、撮影画像の画像データをワークメモリ3に一時的に保存し、その保存した画像データを圧縮して、JPEGファイル等の画像ファイルに変換して主メモリ2に格納する。画像ファイルには、ファイルを識別するための情報(撮影日付等)が付与される。   When the user performs an input operation for saving a captured image on the operation unit 5, a signal corresponding to the input operation is supplied from the operation unit 5 to the CPU 1. The CPU 1 temporarily stores the image data of the photographed image in the work memory 3 according to the signal from the operation unit 5, compresses the stored image data, and converts it into an image file such as a JPEG file. Store in memory 2. Information (such as a shooting date) for identifying the file is given to the image file.

使用者が操作部5にてJPEGファイルを再生するための入力操作を行うと、その入力操作に応じた信号が操作部5からCPU1に供給される。CPU1は、操作部5からの信号に応じて、主メモリ2に保持されているJPEGファイルのリストを表示部7にて表示させる。   When the user performs an input operation for reproducing a JPEG file on the operation unit 5, a signal corresponding to the input operation is supplied from the operation unit 5 to the CPU 1. The CPU 1 causes the display unit 7 to display a list of JPEG files held in the main memory 2 in response to a signal from the operation unit 5.

使用者が操作部5にてJPEGファイルのリストのうちの任意のJPEGファイルを選択するための入力操作を行うと、その入力操作に応じた信号が操作部5からCPU1に供給される。CPU1は、操作部5からの信号に応じて、選択されたJPEGファイルの画像データを表示用サイズにリサイズした上で表示部7にて表示させる。   When the user performs an input operation for selecting an arbitrary JPEG file from the list of JPEG files on the operation unit 5, a signal corresponding to the input operation is supplied from the operation unit 5 to the CPU 1. In response to a signal from the operation unit 5, the CPU 1 resizes the image data of the selected JPEG file to the display size and causes the display unit 7 to display it.

(2)装置位置検出処理:
装置位置検出処理は、自端末装置がメイン装置として動作する場合の第1の検出処理と、自端末装置がサブ装置として動作する場合の第2の検出処理とを含む。複数の端末装置のうちの1台の端末装置がメイン装置とされ、残りの端末装置がサブ装置とされる。
(2) Device position detection processing:
The apparatus position detection process includes a first detection process when the own terminal apparatus operates as a main apparatus, and a second detection process when the own terminal apparatus operates as a sub apparatus. One terminal device among the plurality of terminal devices is a main device, and the remaining terminal devices are sub devices.

使用者が操作部5にて装置位置関係を検出するための入力操作を行うと、その入力操作に応じた信号が操作部5からCPU1に供給される。CPU1は、操作部5からの信号に応じて、他の端末装置との間で装置位置検出処理を実行する。   When the user performs an input operation for detecting the apparatus positional relationship using the operation unit 5, a signal corresponding to the input operation is supplied from the operation unit 5 to the CPU 1. In response to a signal from the operation unit 5, the CPU 1 executes device position detection processing with another terminal device.

図2に、2台の端末装置の間で行われる装置位置検出処理の一手順を示す。図2において、ステップM1〜M6はメイン装置における処理手順を示し、ステップS1〜S4はサブ装置における処理手順を示す。以下の説明において、メイン装置およびサブ装置はともに図1に示した構成を有する。   FIG. 2 shows a procedure of device position detection processing performed between two terminal devices. In FIG. 2, steps M1 to M6 indicate a processing procedure in the main apparatus, and steps S1 to S4 indicate a processing procedure in the sub apparatus. In the following description, both the main device and the sub device have the configuration shown in FIG.

以下、図1および図2を参照して装置位置検出処理を具体的に説明する。   The apparatus position detection process will be specifically described below with reference to FIGS. 1 and 2.

まず、CPU1は、通信部4を介して、自端末装置に隣接して配置された他の端末装置との間で通信を確立するとともに、自端末装置と他の端末装置との間で、メイン装置とサブ装置の関係を決定するための通信ネゴシエーションを行う(ステップM1)。通信ネゴシエーションにおいて、例えば、装置位置関係を検出するための入力操作が行われた端末装置がメイン装置とされ、他の端末装置がサブ装置とされる。   First, the CPU 1 establishes communication with another terminal device arranged adjacent to its own terminal device via the communication unit 4, and between the own terminal device and the other terminal device, Communication negotiation for determining the relationship between the device and the sub device is performed (step M1). In the communication negotiation, for example, a terminal device on which an input operation for detecting a device positional relationship is performed is a main device, and another terminal device is a sub device.

ステップM1において、CPU1は、装置位置関係を検出するための入力操作が行われた場合に、自端末装置をメイン装置とし、他の端末装置をサブ装置とする。   In step M1, when an input operation for detecting the device positional relationship is performed, the CPU 1 sets the terminal device as the main device and the other terminal devices as sub devices.

次に、CPU1は、撮影部8にてカメラ撮影を行わせるとともに、通信部4を介して撮影タイミング信号をサブ装置に送信する(ステップM2)。カメラ撮影において、CPU1は、上記の「(1)画像処理(撮影/保存/再生)」で説明した撮影と同じ処理を行い、任意の被写体の画像データをワークメモリ3に一時的に保存する。   Next, the CPU 1 causes the photographing unit 8 to perform camera photographing, and transmits a photographing timing signal to the sub apparatus via the communication unit 4 (step M2). In camera shooting, the CPU 1 performs the same processing as the shooting described in “(1) Image processing (shooting / saving / playback)” above, and temporarily stores image data of an arbitrary subject in the work memory 3.

次に、CPU1は、サブ装置から被写体を撮影して得られた画像データを受信し(ステップM3)、受信したサブ装置の画像データとワークメモリ3に保存した自端末装置の画像データのそれぞれについて、被写体の所定の部位の方向を検出する(ステップM4)。   Next, the CPU 1 receives the image data obtained by photographing the subject from the sub device (step M3), and receives each of the received image data of the sub device and the image data of the own terminal device stored in the work memory 3. Then, the direction of a predetermined part of the subject is detected (step M4).

被写体の所定の部位の方向の検出において、例えば、所定の部位上の複数の基準部を設定し、基準部毎に、基準となる方向における所定の部位上の位置を予め設定する。例えば、所定の部位が顔である場合は、複数の基準部は、目、口、鼻、耳、眉などの部位のうちの2つ以上の部位で与えられる。CPU1は、各画像データについて、所定の部位上の各基準部の位置を取得し、取得した位置と予め設定した位置との差に基づいて、基準となる方向に対する差を検出する。そして、CPU1は、検出した差に基づいて、所定の部位の方向を決定する。   In the detection of the direction of the predetermined part of the subject, for example, a plurality of reference parts on the predetermined part are set, and the position on the predetermined part in the reference direction is set in advance for each reference part. For example, when the predetermined part is a face, the plurality of reference parts are given by two or more parts among parts such as eyes, mouths, noses, ears, and eyebrows. The CPU 1 acquires the position of each reference portion on a predetermined part for each image data, and detects the difference with respect to the reference direction based on the difference between the acquired position and a preset position. And CPU1 determines the direction of a predetermined | prescribed site | part based on the detected difference.

次に、CPU1は、自端末装置の画像データから得られた被写体の所定の部位の向きとサブ装置の画像データから得られた被写体の所定の部位の向きとの差を求め、その差に基づいて、被写体に対する自端末装置(メイン装置)とサブ装置の配置状態(具体的には、相対的な位置関係)を検出するとともに、検出結果の情報をサブ装置に送信する(ステップM5)。   Next, the CPU 1 obtains a difference between the direction of the predetermined part of the subject obtained from the image data of the terminal device and the direction of the predetermined part of the subject obtained from the image data of the sub apparatus, and based on the difference. Then, the arrangement state (specifically, the relative positional relationship) of the own terminal device (main device) and the sub device with respect to the subject is detected, and information on the detection result is transmitted to the sub device (step M5).

最後に、CPU1は、ステップM5で検出した自端末装置(メイン装置)と他の端末装置(サブ装置)との配置状態(相対的な位置関係)に基づいて、画面表示等の設定を行う(ステップM6)。   Finally, the CPU 1 performs settings such as screen display based on the arrangement state (relative positional relationship) between the terminal device (main device) and the other terminal device (sub device) detected in step M5 ( Step M6).

一方、サブ装置のCPU1は、上述のステップM1〜M6の処理と連動してステップS1〜S4の処理を実行する。   On the other hand, the CPU 1 of the sub apparatus executes the processes of steps S1 to S4 in conjunction with the processes of steps M1 to M6 described above.

ステップS1で、CPU1は、通信ネゴシエーションを行う。ステップS2で、CPU1は、通信部4を介してメイン装置から撮影タイミングを受信し、受信した撮影タイミングで、撮影部8にて被写体を撮影させる。このカメラ撮影において、CPU1は、上記の「(1)画像処理(撮影/保存/再生)」で説明した撮影と同じ処理を行う。ここで、ステップS2のカメラ撮影の被写体は、ステップM2のカメラ撮影の被写体と同じである。   In step S1, the CPU 1 performs communication negotiation. In step S <b> 2, the CPU 1 receives the shooting timing from the main device via the communication unit 4, and causes the shooting unit 8 to shoot the subject at the received shooting timing. In this camera shooting, the CPU 1 performs the same processing as the shooting described in “(1) Image processing (shooting / saving / playback)”. Here, the camera shooting subject in step S2 is the same as the camera shooting subject in step M2.

ステップS3で、CPU1は、ステップS2で得られた被写体の画像データを、通信部4を介してメイン装置に送信する。   In step S3, the CPU 1 transmits the image data of the subject obtained in step S2 to the main apparatus via the communication unit 4.

最後に、ステップS4で、CPU1は、通信部4を介して、メイン装置から配置状態(相対位置)の検出結果を受信し、受信した検出結果に基づいて画面表示等の設定を行う。   Finally, in step S4, the CPU 1 receives the detection result of the arrangement state (relative position) from the main device via the communication unit 4, and sets the screen display and the like based on the received detection result.

上述の装置位置検出処理において、被写体は、人物であってよく、また、人物以外の物であってもよい。被写体が人物である場合、ステップM4における所定の部位として、顔、手、上半身などの部位のうち任意の部位を用いることができる。また、所定の部位に代えて、被写体の全身について方向を検出してもよい。   In the apparatus position detection process described above, the subject may be a person or may be something other than a person. When the subject is a person, any part of the face, hand, upper body, and the like can be used as the predetermined part in step M4. Further, instead of the predetermined part, the direction of the whole body of the subject may be detected.

以下、2台の携帯電話機が隣接して配置され、被写体が人物であり、所定の部位が顔である場合の装置位置検出処理について、具体的に説明する。   Hereinafter, apparatus position detection processing in the case where two mobile phones are arranged adjacent to each other, the subject is a person, and the predetermined part is a face will be specifically described.

図3に示すように、2台の携帯電話機10、11が隣接して配置される。携帯電話機10、11はともに、図1に示した構成を有する。   As shown in FIG. 3, two mobile phones 10 and 11 are arranged adjacent to each other. Both the mobile phones 10 and 11 have the configuration shown in FIG.

以下、図1〜図3を参照する。   In the following, reference is made to FIGS.

携帯電話機10は、表示面10aを有し、表示面10aが設けられた面に、撮影レンズ10bが設けられている。撮影レンズ10bは、図2に示した撮影部8のイメージセンサと対向して配置されており、イメージセンサは、撮影レンズ10bを介して被写体を撮影する。   The mobile phone 10 has a display surface 10a, and a photographing lens 10b is provided on the surface on which the display surface 10a is provided. The photographing lens 10b is disposed to face the image sensor of the photographing unit 8 shown in FIG. 2, and the image sensor photographs a subject through the photographing lens 10b.

携帯電話機11は、表示面11aを有し、表示面11aが設けられた面に、撮影レンズ11bが設けられている。撮影レンズ11bは、図2に示した撮影部8のイメージセンサと対向して配置されており、イメージセンサは、撮影レンズ11bを介して被写体を撮影する。   The mobile phone 11 has a display surface 11a, and a photographing lens 11b is provided on the surface on which the display surface 11a is provided. The photographing lens 11b is disposed to face the image sensor of the photographing unit 8 shown in FIG. 2, and the image sensor photographs a subject through the photographing lens 11b.

図3に示す例では、携帯電話機10、11は、表示面10a、11aが同じ側に位置するように配置されている。表示面10a、11a側から携帯電話機10、11を見た場合、携帯電話機10は左側に位置し、携帯電話機11は右側に位置する。   In the example shown in FIG. 3, the mobile phones 10 and 11 are arranged so that the display surfaces 10a and 11a are located on the same side. When the cellular phones 10 and 11 are viewed from the display surfaces 10a and 11a, the cellular phone 10 is located on the left side and the cellular phone 11 is located on the right side.

使用者が、携帯電話機10の操作部5にて装置位置関係を検出するための入力操作を行うと、携帯電話機10にて図2に示したステップM1〜M6の処理が行われるとともに、携帯電話機11にて図2に示したステップS1〜S4の処理が行われる。   When the user performs an input operation for detecting the positional relationship of the apparatus with the operation unit 5 of the mobile phone 10, the mobile phone 10 performs the processing of steps M1 to M6 shown in FIG. 11, the processing of steps S1 to S4 shown in FIG.

携帯電話機10では、ステップM2のカメラ撮影において、CPU1が、撮影部8にて被写体の顔を撮影させる。同様に、携帯電話機11では、ステップS2のカメラ撮影において、CPU1が、撮影部8にて被写体の顔を撮影させる。   In the mobile phone 10, the CPU 1 causes the photographing unit 8 to photograph the face of the subject in the camera photographing in step M <b> 2. Similarly, in the mobile phone 11, the CPU 1 causes the photographing unit 8 to photograph the face of the subject in the camera photographing in step S <b> 2.

携帯電話機10、11と被写体との距離がある程度短い場合は、図4に示すように、携帯電話機10では、被写体を左前方から撮影した顔画像データ10cが得られ、携帯電話機11では、被写体を右前方から撮影した顔画像データ11cが得られる。   When the distance between the mobile phones 10 and 11 and the subject is short to some extent, as shown in FIG. 4, the mobile phone 10 obtains face image data 10 c obtained by photographing the subject from the left front. Face image data 11c photographed from the right front is obtained.

携帯電話機10では、ステップM4において、CPU1が、顔画像データ10cの顔の向きを検出するとともに、顔画像データ11cの顔の向きを検出する。   In the mobile phone 10, in step M4, the CPU 1 detects the face direction of the face image data 10c and also detects the face direction of the face image data 11c.

図5に、顔画像データ10c、11cそれぞれの顔の向きの検出結果の一例を示す。図5に示す例では、顔画像データ10cについては、顔が右方向に15度、下方向に5度だけ傾いており、顔画像データ11cについては、顔が左方向に10度、下方向に5度だけ傾いている。CPU1は、それらの顔の傾き角度の差に基づいて、被写体側から携帯電話機10、11を見た場合に、携帯電話機10が左側に位置し、携帯電話機10が右側に位置すると判定する。   FIG. 5 shows an example of the detection results of the face orientations of the face image data 10c and 11c. In the example shown in FIG. 5, for the face image data 10c, the face is inclined 15 degrees to the right and 5 degrees downward, and for the face image data 11c, the face is 10 degrees to the left and downward. Tilt by 5 degrees. The CPU 1 determines that the cellular phone 10 is located on the left side and the cellular phone 10 is located on the right side when the cellular phones 10 and 11 are viewed from the subject side based on the difference between the tilt angles of the faces.

なお、顔画像データ10c、11cの一方の顔の向きが右方向、他方の顔の向きが左方向といったように、両画像データの顔の向きが左右方向に必ず異なっている必要はない。顔の角度が互いに異なっていれば、顔画像データ10c、11cの顔の向きが共に左方向(または右方向)であってもよい。いずれの場合も、顔画像データ10c、11cの顔の角度の違いにより、被写体に対して、一方を左側、他方を右側と判断することができる。   It should be noted that the face orientations of the two image data do not necessarily have to be different from each other in the left-right direction such that the orientation of one face of the face image data 10c, 11c is the right direction and the other face is the left direction. As long as the face angles are different from each other, the face orientations of the face image data 10c and 11c may both be in the left direction (or right direction). In any case, one can determine that one is the left side and the other is the right side with respect to the subject due to the difference in the face angles of the face image data 10c and 11c.

また、上下方向においては、顔画像データ10c、11cの顔の角度は共に5度であるので、CPU1は、被写体に対する携帯電話機10、11の上下方向における相対的な位置ずれはないと判断する。   In the vertical direction, since the face angles of the face image data 10c and 11c are both 5 degrees, the CPU 1 determines that there is no relative displacement in the vertical direction of the mobile phones 10 and 11 with respect to the subject.

なお、ステップM2またはステップS2のカメラ撮影で得られた顔画像データが複数の顔を含む場合は、CPU1は、次の処理(a)〜(c)のいずれか1つの処理、またはそれらの処理の2つ以上の処理を実行して対象となる顔を決定してもよい。
(a)画像の中心部に最も近い顔を比較対象の顔と決定する。
(b)画像上で最も大きな顔を比較対象の顔と決定する。
(c)複数の顔のうち、予め登録された顔の特徴データと一致する顔を比較対象の顔と決定する(個体顔認識機能)。
When the face image data obtained by the camera photographing in step M2 or step S2 includes a plurality of faces, the CPU 1 performs any one of the following processes (a) to (c) or those processes: The target face may be determined by executing two or more processes.
(A) The face closest to the center of the image is determined as the face to be compared.
(B) The largest face on the image is determined as the face to be compared.
(C) Of the plurality of faces, a face that matches the pre-registered face feature data is determined as a face to be compared (individual face recognition function).

(3)マルチ画面処理:
図1に示した端末装置において、上記の「(2)装置位置検出処理」におけるステップM6またはステップS4の画面表示等の設定が行われた後、メイン装置側のCPU1は、マルチ画面表示を行うか否かのメッセージを表示部7に表示させる。
(3) Multi-screen processing:
In the terminal device shown in FIG. 1, the CPU 1 on the main device side performs multi-screen display after the setting of screen display or the like in step M6 or step S4 in the above “(2) Device position detection process”. Is displayed on the display unit 7.

使用者が、操作部5にてマルチ画面表示を行うための入力操作を行うと、操作部5が、マルチ画面表示の操作信号をCPU1に供給する。CPU1は、操作部5からの操作信号に従って、マルチ画面表示処理を実行する。   When the user performs an input operation for performing multi-screen display on the operation unit 5, the operation unit 5 supplies an operation signal for multi-screen display to the CPU 1. The CPU 1 executes multi-screen display processing according to an operation signal from the operation unit 5.

マルチ画面表示処理では、メイン装置のCPU1は、自装置の表示部7とサブ装置の表示部7とに配置状態(位置関係)に応じた所定の画像を表示させる。例えば、メイン装置のCPU1は、配置状態に応じて、表示すべき画像をメイン装置とサブ装置のそれぞれに対応する複数の部分画像に分割し、メイン装置の表示部7とサブ装置の表示部7とにそれぞれ対応する部分画像を表示させる。   In the multi-screen display processing, the CPU 1 of the main device displays a predetermined image corresponding to the arrangement state (positional relationship) on the display unit 7 of the own device and the display unit 7 of the sub device. For example, the CPU 1 of the main device divides an image to be displayed into a plurality of partial images corresponding to the main device and the sub device according to the arrangement state, and displays the display unit 7 of the main device and the display unit 7 of the sub device. The corresponding partial images are displayed.

メイン装置とサブ装置それぞれが配置状態(位置関係)に応じた部分画像データを表示し、これら表示画面に基づいてマルチ画面が提供される。   Each of the main device and the sub device displays partial image data corresponding to the arrangement state (positional relationship), and a multi-screen is provided based on these display screens.

マルチ画面の表示において、複数の端末装置のうちの少なくとも1つが他の端末装置の表示画像とは異なる画像を表示してもよい。例えば、2台の端末装置を用いてマルチ画面表示を行う場合に、一方の端末装置が地図データを表示し、他方の端末装置が表示した地図データに関連するデータ(詳細地図データ等)を表示してもよい。   In multi-screen display, at least one of the plurality of terminal devices may display an image different from the display image of the other terminal device. For example, when performing multi-screen display using two terminal devices, one terminal device displays map data, and data related to the map data displayed by the other terminal device (detailed map data, etc.) is displayed. May be.

表示すべき画像は、主メモリ2に保存された画像データ(静止画、動画)または通信部4を介して外部装置(サーバ等)から取得した画像データ(静止画、動画)から使用者が任意に選択した画像データであってもよい。また、表示すべき画像は、ゲームやナビゲーションなどのアプリケーションに用いられる画像データであってもよい。   The image to be displayed is arbitrarily selected by the user from image data (still image, moving image) stored in the main memory 2 or image data (still image, moving image) acquired from an external device (server, etc.) via the communication unit 4 The selected image data may be used. Further, the image to be displayed may be image data used for an application such as a game or navigation.

本実施形態の端末装置によれば、被写体に対する各端末装置の配置状態(相対的な位置関係)を正確に検出することができる。したがって、例えばマルチ画面表示の際に、被写体から見た場合の各端末装置の表示を適切に行うことができる。   According to the terminal device of the present embodiment, it is possible to accurately detect the arrangement state (relative positional relationship) of each terminal device with respect to the subject. Therefore, for example, in multi-screen display, each terminal device can be appropriately displayed when viewed from the subject.

また、本実施形態の端末装置によれば、外部に制御装置や撮影装置を設ける必要がないので、マルチ画面表示を行う場合に、装置が大がかりになることがない。   Also, according to the terminal device of the present embodiment, there is no need to provide a control device or a photographing device outside, so that the device does not become large when performing multi-screen display.

さらに、最近の携帯電話機やスマートフォンなどの端末装置においては、カメラを備えたものが多い。本実施形態の端末装置によれば、そのようなカメラを備えた装置に適用することができる。これにより、新たにカメラを設ける必要がなくなり、低コスト化を実現できる。   Furthermore, many recent terminal devices such as mobile phones and smartphones are equipped with a camera. The terminal device according to the present embodiment can be applied to a device including such a camera. Thereby, it is not necessary to provide a new camera, and cost reduction can be realized.

また、本実施形態の端末装置においては、例えば、2台の端末装置を横方向に並べ、2ページ分のデータを左右の表示部に表示する形態(見開き本のような使用形態)、2台の端末装置を縦方向に並べ、下側の表示部にソフトキーボード(タッチ式キーボード)を表示し、上側の表示部に、ソフトキーボードからの入力情報を表示する形態、4台の端末装置を2行×2列のマトリクス状に並べ、1つの画像を左上、右上、左下、右下の4つの部分画像に分割して、それぞれの部分画像を対応する位置の表示部にて表示する形態など、種々のマルチ画面表示の形態をとることができる。   In the terminal device according to the present embodiment, for example, two terminal devices are arranged in the horizontal direction, and two pages of data are displayed on the left and right display units (usage form like a spread book). Are arranged in a vertical direction, a soft keyboard (touch type keyboard) is displayed on the lower display unit, and input information from the soft keyboard is displayed on the upper display unit. Arranging in a matrix of rows x 2 columns, dividing one image into four partial images in the upper left, upper right, lower left, lower right, and displaying each partial image on the display unit at the corresponding position, etc. It can take various forms of multi-screen display.

以上説明した本実施形態の端末装置は本発明の一例であり、その構成は適宜に変更することができる。   The terminal device of the present embodiment described above is an example of the present invention, and the configuration thereof can be changed as appropriate.

例えば、図2のステップM4において、CPU1は、両画像からメイン装置とサブ装置それぞれのイメージセンサの方向の差(位置や傾きの差)を検出してもよい。   For example, in step M4 in FIG. 2, the CPU 1 may detect the difference in the image sensor direction (position or inclination difference) between the main device and the sub device from both images.

イメージセンサの方向の差は、例えば、xyz軸で規定した3次元空間において、x軸方向、y軸方向、z軸方向、x軸周り回転方向、y軸周り回転方向、およびz軸周り回転方向の6つの方向成分の差で与えられる。   For example, in the three-dimensional space defined by the xyz axis, the difference in the direction of the image sensor is the x axis direction, the y axis direction, the z axis direction, the rotation direction around the x axis, the rotation direction around the y axis, and the rotation direction around the z axis Is given by the difference of the six directional components.

図6は、x軸方向の差分およびy軸方向の差分を説明するための模式図である。   FIG. 6 is a schematic diagram for explaining the difference in the x-axis direction and the difference in the y-axis direction.

図6を参照すると、イメージセンサ10dはメイン装置の撮影部(図1に示した撮影部8)を構成するものであり、イメージセンサ11dはサブ装置の撮影部(図1に示した撮影部8)を構成するものである。   Referring to FIG. 6, the image sensor 10d constitutes a photographing unit (the photographing unit 8 shown in FIG. 1) of the main device, and the image sensor 11d is a photographing unit (the photographing unit 8 shown in FIG. 1) of the sub device. ).

イメージセンサ10d、11dの各受光面は、顔と対向する平面(撮影平面)に平行である。撮影平面に垂直な方向から見た場合に、イメージセンサ10dの上端とイメージセンサ11dの上端との差がy方向差分であり、イメージセンサ10dの右側の端部とイメージセンサ11dの左側の端部との差がx方向差分である。   The light receiving surfaces of the image sensors 10d and 11d are parallel to a plane (photographing plane) facing the face. When viewed from the direction perpendicular to the photographing plane, the difference between the upper end of the image sensor 10d and the upper end of the image sensor 11d is a y-direction difference, and the right end of the image sensor 10d and the left end of the image sensor 11d. Is the difference in the x direction.

図7および図8は、z軸方向の差分を説明するための模式図である。   7 and 8 are schematic diagrams for explaining the difference in the z-axis direction.

図7および図8において、イメージセンサ10d、11dはそれぞれメイン装置、サブ装置の撮影部(図1に示した撮影部8)を構成するものである。   7 and 8, image sensors 10 d and 11 d constitute the imaging units (imaging unit 8 shown in FIG. 1) of the main device and the sub device, respectively.

イメージセンサ10d、11dの各受光面は顔と対向する平面に平行であり、この平面に垂直な方向がz軸方向である。イメージセンサ10dの受光面とイメージセンサ11dの受光面とのz軸方向における差がz方向差分である。   The light receiving surfaces of the image sensors 10d and 11d are parallel to a plane facing the face, and the direction perpendicular to the plane is the z-axis direction. The difference in the z-axis direction between the light receiving surface of the image sensor 10d and the light receiving surface of the image sensor 11d is a z-direction difference.

図9は、x軸、y軸、およびz軸のそれぞれの軸周り回転方向の差分を説明するための模式図である。   FIG. 9 is a schematic diagram for explaining the difference in the rotation direction around each of the x-axis, the y-axis, and the z-axis.

図9において、イメージセンサ10d、11dはそれぞれメイン装置、サブ装置の撮影部(図1に示した撮影部8)を構成するものである。垂直方向がy軸方向であり、水平方向がx軸方向であり、平面に垂直な方向がz軸方向である。   In FIG. 9, image sensors 10d and 11d constitute the imaging units (imaging unit 8 shown in FIG. 1) of the main device and the sub device, respectively. The vertical direction is the y-axis direction, the horizontal direction is the x-axis direction, and the direction perpendicular to the plane is the z-axis direction.

イメージセンサ10d、11dそれぞれの受光面が顔と対向する平面に平行であり、かつ、各受光面の上下端および左右端がそれぞれ水平、垂直とされた状態を基準状態とする。y軸周りの回転方向における基準状態との角度差がy軸周り回転方向の差である。x軸周りの回転方向における基準状態との角度差がx軸周り回転方向の差である。z軸周りの回転方向における基準状態との角度差がz軸周り回転方向の差である。   A state in which the light receiving surfaces of the image sensors 10d and 11d are parallel to a plane facing the face, and the upper and lower ends and the left and right ends of each light receiving surface are horizontal and vertical, respectively, is a reference state. The angle difference from the reference state in the rotation direction around the y axis is the difference in the rotation direction around the y axis. The angle difference from the reference state in the rotation direction around the x axis is the difference in the rotation direction around the x axis. The angle difference from the reference state in the rotation direction around the z axis is the difference in the rotation direction around the z axis.

被写体から見た場合のメイン装置とサブ装置の配置状態は、上記6つの方向成分のうちの少なくとも1つの方向成分に基づいて検出してもよい。   The arrangement state of the main device and the sub device when viewed from the subject may be detected based on at least one of the six direction components.

x軸方向およびy軸方向の差を用いることで、被写体に対するメイン装置とサブ装置の相対的な位置関係を特定することができる。この場合は、マルチ画面表示において、位置関係に基づいて、メイン装置とサブ装置のそれぞれの表示部に適切な画像を表示することができる。   By using the difference between the x-axis direction and the y-axis direction, the relative positional relationship between the main device and the sub device with respect to the subject can be specified. In this case, in multi-screen display, an appropriate image can be displayed on each display unit of the main device and the sub device based on the positional relationship.

z軸方向の差を用いることで、被写体から見た場合のメイン装置とサブ装置の前後の位置関係を特定することができる。この場合は、マルチ画面表示において、メイン装置のCPUが、メイン装置の表示画像に対するサブ装置の表示画像の倍率を前後の位置関係に応じて制御する。例えば、サブ装置がメイン装置よりも奥側に位置する場合は、サブ装置の表示画像を拡大またはメイン装置の表示画像を縮小する。反対に、サブ装置がメイン装置よりも手前側に位置する場合は、メイン装置の表示画像を拡大またはサブ装置の表示画像を縮小する。これにより、被写体から見た場合のメイン装置とサブ装置の表示画像の大きさをそろえることが可能となる。   By using the difference in the z-axis direction, the front-rear positional relationship between the main device and the sub device when viewed from the subject can be specified. In this case, in the multi-screen display, the CPU of the main device controls the magnification of the display image of the sub device with respect to the display image of the main device according to the front-rear positional relationship. For example, when the sub device is located behind the main device, the display image of the sub device is enlarged or the display image of the main device is reduced. On the other hand, when the sub device is positioned on the near side of the main device, the display image of the main device is enlarged or the display image of the sub device is reduced. This makes it possible to align the display images of the main device and the sub device when viewed from the subject.

x軸周りの回転方向の差を用いることで、被写体から見た場合のメイン装置とサブ装置の前後の傾きを検出することができる。メイン装置またはサブ装置が前傾または後傾した場合は、その傾斜角度に応じて画像を縦方向に拡大する、または、画像に台形補正を加える。ここで、台形補正は、被写体から見た場合の画像表示領域が矩形形状となるように、画像表示領域を台形形状とする補正であり、プロジェクタ等でよく知られた技術である。これにより、被写体から見た場合のメイン装置およびサブ装置それぞれの表示画像を適切な形状で観察することができる。   By using the difference in the rotation direction around the x axis, it is possible to detect the front / rear tilt of the main device and the sub device when viewed from the subject. When the main device or the sub device tilts forward or backward, the image is enlarged in the vertical direction according to the tilt angle, or trapezoidal correction is applied to the image. Here, the trapezoid correction is a technique well known in projectors and the like, which is a correction that makes the image display area trapezoidal so that the image display area when viewed from the subject has a rectangular shape. Thereby, it is possible to observe the display images of the main device and the sub device in an appropriate shape when viewed from the subject.

y軸周りの回転方向の差を用いることで、被写体から見た場合のメイン装置とサブ装置の左右の傾きを検出することができる。メイン装置またはサブ装置が左右に傾いた場合は、その傾斜角度に応じて画像を横方向に拡大する、または、画像に台形補正を加える。これにより、被写体から見た場合のメイン装置およびサブ装置それぞれの表示画像を適切な形状で観察することができる。   By using the difference in the rotation direction around the y-axis, it is possible to detect the left and right inclinations of the main device and the sub device when viewed from the subject. When the main device or the sub device is tilted to the left or right, the image is enlarged in the horizontal direction according to the tilt angle, or trapezoidal correction is applied to the image. Thereby, it is possible to observe the display images of the main device and the sub device in an appropriate shape when viewed from the subject.

z軸周りの回転方向の差を用いることで、被写体から見た場合のメイン装置とサブ装置の時計方向または反時計方向の回転角度を検出することができる。メイン装置またはサブ装置が時計方向または反時計方向に回転した場合は、その回転角度に応じて画像を時計方向または反時計方向に回転に回転する。これにより、被写体から見た場合のメイン装置およびサブ装置それぞれの表示画像の回転方向の補正を行うことができる。   By using the difference in the rotation direction around the z-axis, it is possible to detect the clockwise or counterclockwise rotation angle of the main device and the sub device when viewed from the subject. When the main device or the sub device rotates clockwise or counterclockwise, the image is rotated clockwise or counterclockwise according to the rotation angle. Accordingly, it is possible to correct the rotation direction of the display image of each of the main device and the sub device when viewed from the subject.

また、メイン装置において、図2のステップM1〜M6の処理を一定時間間隔で繰り返し実行してもよい。これにより、例えば、複数の人がマルチ画面を観察している場合で、撮影画像の中心位置に近い人(対象)に対するメイン装置およびサブ装置の配置状態に応じて表示設定が行われた場合において、対象の人が席を立った場合には、自動的に、残りの人のうちの中心位置に近い人に対するメイン装置およびサブ装置の配置状態が検出され、その配置状態に応じた表示設定が行われる。   Further, in the main apparatus, the processes of steps M1 to M6 in FIG. 2 may be repeatedly executed at regular time intervals. Thereby, for example, when a plurality of people are observing a multi-screen, and display setting is performed according to the arrangement state of the main device and the sub device with respect to the person (target) close to the center position of the captured image When the target person stands, the arrangement state of the main device and the sub device with respect to the person close to the center position among the remaining people is automatically detected, and the display setting according to the arrangement state is performed. Done.

また、装置位置検出処理において、以下のような統一条件を用いた手法で被写体に対する端末装置の配置状態を検出してもよい。   In the apparatus position detection process, the arrangement state of the terminal apparatus with respect to the subject may be detected by a method using the following unified condition.

各端末装置の撮影条件を予め統一する。具体的には、端末装置の撮影方向の地面に対するピッチ角(上下方向の傾き、すなわち、図9に示したx軸周りの回転角)を略0とし、撮影方向の軸周りの回転角(すなわち、図9に示したz軸周りの回転角)も略0とする。すなわち、端末装置を傾けずに、地面に水平な方向で撮影する、という条件で、統一する。   The shooting conditions of each terminal device are unified in advance. Specifically, the pitch angle of the terminal device with respect to the ground in the shooting direction (tilt in the vertical direction, that is, the rotation angle around the x-axis shown in FIG. 9) is substantially 0, and the rotation angle around the axis in the shooting direction (ie The rotation angle around the z-axis shown in FIG. That is, it unifies on the condition that it shoots in a direction horizontal to the ground without tilting the terminal device.

この統一条件によれば、撮影方向の角度成分として、撮影方向の地面に対するヨー角(左右方向の傾き、すなわち、図9に示したy軸周りの回転角)のみを考慮すればよい。   According to this unified condition, only the yaw angle (tilt in the left-right direction, that is, the rotation angle around the y-axis shown in FIG. 9) with respect to the ground in the shooting direction should be considered as the angle component in the shooting direction.

例えば、被写体が正方形の面(以下、正方形部位と称す。)を含み、端末装置が上記統一条件で正方形部位を撮影する場合は、正方形部位に対する端末装置の配置状態を以下のようにして算出することができる。なお、以下の説明において、端末装置と正方形部位とを予め指定した距離(所定の距離)で配置し、撮影方向の軸周りの回転角、ピッチ角、ヨー角をそれぞれ0とした状態で正方形部位を撮影した場合の、撮影画像上における正方形部位の寸法は、基準情報として予め与えられているものとする。   For example, when the subject includes a square surface (hereinafter, referred to as a square part) and the terminal device captures a square part under the above-described unified condition, the arrangement state of the terminal device with respect to the square part is calculated as follows. be able to. In the following description, the terminal device and the square part are arranged at a predetermined distance (predetermined distance), and the square part is set with the rotation angle, the pitch angle, and the yaw angle about the photographing direction axis set to 0, respectively. It is assumed that the size of the square part on the captured image is given in advance as reference information.

上記統一条件で端末装置が正方形部位を撮影した場合、撮影画像上での正方形部位の縦の辺の長さは、端末装置と正方形部位との距離に反比例する。端末装置と正方形部位とを所定の距離(撮影距離)で配置した場合の撮影画像上における正方形部位の縦の辺の長さは予め基準情報として与えられているので、その基準情報を用いて、端末装置と正方形部位の間の距離が不明な場合の撮影距離を算出することができる。具体的には、端末装置と正方形部位の間の距離が不明な場合、その撮影画像上の正方形部位の縦の辺の長さと、基準情報とに基づいて、端末装置と正方形部位の間の距離を算出することができる。   When the terminal device captures a square part under the uniform condition, the length of the vertical side of the square part on the captured image is inversely proportional to the distance between the terminal device and the square part. Since the length of the vertical side of the square part on the photographed image when the terminal device and the square part are arranged at a predetermined distance (imaging distance) is given in advance as reference information, using the reference information, The photographing distance when the distance between the terminal device and the square part is unknown can be calculated. Specifically, when the distance between the terminal device and the square part is unknown, the distance between the terminal device and the square part based on the length of the vertical side of the square part on the captured image and the reference information Can be calculated.

さらに、撮影画像上の正方形部位の横の辺の長さは、端末装置と正方形部位との距離に反比例し、かつ、撮影方向と正方形部位の面からの垂線とのなす角をθとした場合のcosθを乗じた値となる。ここで、角度θは、ヨー角に相当する。   Furthermore, the length of the horizontal side of the square part on the photographed image is inversely proportional to the distance between the terminal device and the square part, and the angle between the photographing direction and the perpendicular from the surface of the square part is θ. It is a value multiplied by cos θ. Here, the angle θ corresponds to the yaw angle.

撮影画像上の正方形部位の縦の辺の長さから端末装置と正方形部位の間の距離を算出することができるので、撮影画像上の正方形部位の横の辺の長さから、撮影方向と正方形部位の面とのなす角度θを算出することができる。   Since the distance between the terminal device and the square part can be calculated from the length of the vertical side of the square part on the photographed image, the photographing direction and the square can be calculated from the length of the horizontal side of the square part on the photographed image. The angle θ formed with the surface of the part can be calculated.

例えば、端末装置と正方形部位の間の距離がL1である場合の撮影画像上における正方形部位の横の辺の長さがa1であるとすると、撮影方向の地面に対するピッチ角θxが0度である場合に、端末装置と正方形部位の間の距離Lは、以下の式1で与えられる。なお、式1において、「撮影画像上の正方形部位の縦の辺の長さ」は、距離Lで撮影した撮影画像上の正方形部位の縦の辺の長さである。
(式1)
L=(a1÷(撮影画像上の正方形部位の縦の辺の長さ)÷cos0)×L1
=(a1÷(撮影画像上の正方形部位の縦の辺の長さ))×L1
また、撮影方向の地面に対するヨー角をθyとすると、端末装置と正方形部位の間の距離Lは、以下の式2で与えられる。なお、式2において、「撮影画像上の正方形部位の横の辺の長さ」は、距離Lで撮影した撮影画像上の正方形部位の横の辺の長さである。
(式2)
L=(a1÷(撮影画像上の正方形部位の横の辺の長さ)÷cosθy)×L1
上記の式1、2に基づいて、角度θy、すなわち、正方形部位に対する端末装置の配置状態(撮影画像上の正方形部位の向き)を算出することができる。
For example, assuming that the length of the side of the square part on the photographed image when the distance between the terminal device and the square part is L1, the pitch angle θx with respect to the ground in the photographing direction is 0 degree. In this case, the distance L between the terminal device and the square part is given by the following formula 1. In Expression 1, “the length of the vertical side of the square part on the photographed image” is the length of the vertical side of the square part on the photographed image photographed at the distance L.
(Formula 1)
L = (a1 ÷ (length of the vertical side of the square part on the photographed image) ÷ cos0) × L1
= (A1 ÷ (length of vertical side of square part on photographed image)) × L1
If the yaw angle with respect to the ground in the photographing direction is θy, the distance L between the terminal device and the square part is given by the following equation 2. In Equation 2, “the length of the side of the square part on the photographed image” is the length of the side of the square part on the photographed image photographed at the distance L.
(Formula 2)
L = (a1 ÷ (length of the side of the square part on the photographed image) ÷ cos θy) × L1
Based on the above formulas 1 and 2, the angle θy, that is, the arrangement state of the terminal device with respect to the square part (the direction of the square part on the captured image) can be calculated.

ここで、撮影した正方形部位の縦の辺の画像上での長さを、実際の長さに換算するのは、端末装置と正方形部位の間の距離が予め分かっている時に撮影した正方形部位の縦あるいは横の辺の撮影画像上での長さから換算することができる。   Here, the length on the image of the vertical side of the photographed square part is converted into the actual length because the square part photographed when the distance between the terminal device and the square part is known in advance. It can be converted from the length of the vertical or horizontal side on the photographed image.

メイン装置である端末装置において、CPUは、上記の統一条件を利用した手法を利用し、自端末装置で撮影した画像データとサブ装置で撮影した画像データとに基づいて、正方形部位に対する各端末装置の配置状態(撮影画像上の正方形部位の向き)を算出し、その算出結果に基づいて、正方形部位に対する、自端末装置およびサブ端末の配置状態(相対的位置関係)を決定する。なお、上記の式1および式2における「a1」および「L1」の値は基準情報として予め与えられており、それらの値は、自端末装置で撮影した画像データとサブ装置で撮影した画像データとの間で共通に用いることができる。   In the terminal device that is the main device, the CPU uses the above-described method using the unified condition, and based on the image data photographed by the own terminal device and the image data photographed by the sub device, each terminal device for the square portion Is calculated (the direction of the square part on the captured image), and based on the calculation result, the arrangement state (relative positional relationship) of the terminal device and the sub-terminal with respect to the square part is determined. Note that the values of “a1” and “L1” in the above formulas 1 and 2 are given in advance as reference information, and these values are the image data photographed by the terminal device and the image data photographed by the sub device. Can be used in common.

また、上記の統一条件において、未知のパラメータとして、ピッチ角θxをさらに加えることも可能である。この場合は、端末装置が被写体である正方形部位を撮影すると、撮影画像上の被写体の形状は、ピッチ角θxとヨー角θyがともに0でない場合に変形して平行四角形となる。この平行四辺形の被写体の隣接する第1および第2の辺(それぞれ、元の正方形の縦の辺と横の辺に相当する。)のそれぞれの長さと、これら第1および第2の辺のなす角とは、ピッチ角θxとヨー角θyに応じて変化する。   Further, it is possible to further add the pitch angle θx as an unknown parameter under the above unified condition. In this case, when the terminal device captures a square portion that is a subject, the shape of the subject on the captured image is deformed into a parallel square when both the pitch angle θx and the yaw angle θy are not zero. The lengths of the adjacent first and second sides of the parallelogram subject (which correspond to the vertical and horizontal sides of the original square, respectively), and the lengths of the first and second sides. The formed angle changes according to the pitch angle θx and the yaw angle θy.

端末装置と正方形部位とを所定の距離で配置し、撮影方向の軸周りの回転角、ピッチ角、ヨー角をそれぞれ0とした状態で正方形部位を撮影した場合の、撮影画像上における正方形部位の寸法(第1および第2の辺の長さ)は、基準情報として予め与えられているものとする。   When the terminal device and the square part are arranged at a predetermined distance and the square part is photographed with the rotation angle, the pitch angle, and the yaw angle about the photographing direction axis set to 0, the square part on the photographed image is displayed. The dimensions (lengths of the first and second sides) are assumed to be given in advance as reference information.

端末装置と正方形部位の間の距離L、ピッチ角θx、ヨー角θyはいずれも未知のパラメータである。基準情報と、撮影画像上の第1および第2の辺の長さおよびこれら第1および第2の辺のなす角とから、端末装置と正方形部位の間の距離L、ピッチ角θx、およびヨー角θyを求めることができる。そして、求めたピッチ角θxおよびヨー角θyに基づいて、正方形部位に対する端末装置の配置状態(例えば、相対的位置関係)を取得することができる。   The distance L between the terminal device and the square part, the pitch angle θx, and the yaw angle θy are all unknown parameters. From the reference information, the lengths of the first and second sides on the photographed image, and the angles formed by the first and second sides, the distance L between the terminal device and the square portion, the pitch angle θx, and the yaw The angle θy can be obtained. And the arrangement | positioning state (for example, relative positional relationship) of the terminal device with respect to a square site | part is acquirable based on the calculated pitch angle (theta) x and yaw angle (theta) y.

また、上述の統一条件を利用した手法において、正方形部位に代えて、顔や指定された色の部分などの部位を用いてもよい。いずれの場合も、第1乃至第3の基準部もしくは第1乃至第4の基準部が設定される。   Further, in the method using the above-described unified condition, a part such as a face or a designated color part may be used instead of the square part. In either case, the first to third reference parts or the first to fourth reference parts are set.

第1乃至第3の基準部が設定された場合は、第1および第2の基準部の間を結ぶ第1の直線部が、正方形部位の第1の辺に対応する。第1の線部と第3の基準部の間を結ぶ、第1の直線部に垂直な第2の直線部が、正方形部位の第2の辺に対応する。例えば、顔を用いる場合は、一方の目を第1の基準部、他方の目を第2の基準部、口を第3の基準部として設定することができる。   When the first to third reference portions are set, the first straight portion connecting between the first and second reference portions corresponds to the first side of the square portion. A second straight line portion connecting the first line portion and the third reference portion and perpendicular to the first straight line portion corresponds to the second side of the square portion. For example, when using a face, one eye can be set as a first reference part, the other eye as a second reference part, and the mouth as a third reference part.

第1乃至第4の基準部を設定した場合は、第1および第2の基準部の間を結ぶ第1の直線部が、正方形部位の第1の辺に対応する。第3および第4の基準部の間を結ぶ、第1の直線部に垂直な第2の直線部が、正方形部位の第1の辺に対応する。   When the first to fourth reference portions are set, the first straight portion connecting the first and second reference portions corresponds to the first side of the square portion. A second straight line portion connecting the third and fourth reference portions and perpendicular to the first straight line portion corresponds to the first side of the square portion.

本実施形態の端末装置は、携帯電話機やスマートフォンなどの携帯電話端末、タブレット端末、ノート型パーソナルコンピュータなど、種々の端末装置に適用することができる他、単独で動作する電子機器(例えば、ゲーム機)にも適用することができる。   The terminal device according to the present embodiment can be applied to various terminal devices such as a mobile phone terminal such as a mobile phone and a smartphone, a tablet terminal, and a notebook personal computer, and an electronic device (for example, a game machine) that operates independently. ).

また、本実施形態の端末装置は、コンピュータがプログラムに従って動作するコンピュータシステムを用いて構成されてもよい。プログラムは、少なくとも、前述した位置検出処理を、コンピュータに実行させることが可能なものである。プログラムは、コンピュータ読み出し可能な記録媒体を用いて提供されてもよく、通信網(例えばインターネット)を介して提供されてもよい。   Further, the terminal device of the present embodiment may be configured using a computer system in which a computer operates according to a program. The program can cause a computer to execute at least the position detection process described above. The program may be provided using a computer-readable recording medium or may be provided via a communication network (for example, the Internet).

本発明は、以下の付記1〜22のような形態をとり得るが、これら形態に限定されない。
(付記1)
被写体を撮影する撮影手段と、
少なくとも1つの他の端末装置から上記被写体を撮影した画像データを受信する受信手段と、
上記撮影手段で撮影した上記被写体の画像データと上記受信手段で受信した上記被写体の画像データとに基づいて、上記被写体に対する自端末装置と上記他の端末装置の配置状態を検出する検出手段と、を有する端末装置。
(付記2)
上記検出手段は、上記撮影手段で撮影した上記画像データと上記受信手段で受信した上記画像データのそれぞれから画像中の上記被写体の方向を検出し、該検出方向の差分に基づいて、上記配置状態として、上記被写体に対する自端末装置と上記他の端末装置の位置関係を検出する、付記1に記載の端末装置。
(付記3)
上記被写体の方向は、該被写体の所定の部位の方向である、付記2に記載の端末装置。
(付記4)
前記所定の部位は、互いに直交する第1および第2の直線部を含む面、または、前記第1および第2の直線部を設定可能な面を含み、
前記検出手段は、前記撮影手段の撮像面に垂直な第1の軸の軸周りの第1の回転角と、前記第1の軸に垂直な第2の軸の軸周りの第2の回転角と、前記第1および第2の軸に垂直な第3の軸の軸周りの第3の回転角とがいずれも0とされた条件で、前記面に垂直な方向から前記所定の部位を所定の距離で撮影して得られた撮影画像における、前記第1および第2の直線部それぞれの長さと、前記所定の距離との情報を含む基準情報を保持しており、
前記撮影手段で撮影した前記被写体の画像データと前記受信手段で受信した前記被写体の画像データはともに、前記第1および第2の回転角がともに0とされた条件で撮影した画像データであり、
前記検出手段は、前記基準情報に含まれている前記所定の距離および第1の直線部の長さをそれぞれL1、a1とし、前記画像データのそれぞれについて、撮影距離をLとし、前記第3の回転角をθとし、該画像データに基づく撮影画像上の前記第1および第2の直線部の長さをそれぞれa2、b1として、
L=(a1÷b1)×L1
L=(a1÷a2÷cosθ)×L1
の式に基づいて、該撮影画像中の前記被写体の方向を検出する、付記3に記載の端末装置。
(付記5)
前記所定の部位は、互いに直交する第1および第2の直線部を含む面、または、前記第1および第2の直線部を設定可能な面を含み、
前記検出手段は、前記撮影手段の撮像面に垂直な第1の軸の軸周りの第1の回転角と、前記第1の軸に垂直な第2の軸の軸周りの第2の回転角と、前記第1および第2の軸に垂直な第3の軸の軸周りの第3の回転角とがいずれも0とされた条件で、前記面に垂直な方向から前記所定の部位を所定の距離で撮影して得られた撮影画像における、前記第1および第2の直線部それぞれの長さと、前記所定の距離との情報を含む基準情報を保持しており、
前記撮影手段で撮影した前記被写体の画像データと前記受信手段で受信した前記被写体の画像データはともに、前記第1の回転角が0とされた条件で撮影した画像データであり、
前記検出手段は、前記画像データのそれぞれについて、該画像データに基づく撮影画像上の前記第1および第2の直線部の長さおよび該第1および第2の直線部がなす角度と前記基準情報とに基づいて、該撮影画像中の前記被写体の方向を検出する、付記3に記載の端末装置。
(付記6)
上記所定の部位は顔である、付記3から5のいずれか1つに記載の端末装置。
(付記7)
上記検出手段は、上記検出方向の差分に基づいて、上記配置状態として、上記被写体から見た場合の上記撮影手段の受光面に対する上記他の端末装置に設けられた撮影手段の受光面の位置関係および両受光面の基準面に対する角度の差を検出する、付記1に記載の端末装置。
(付記8)
上記検出手段で検出した上記配置状態の情報を上記他の端末装置に送信する送信手段を、さらに有する、付記1から7のいずれか1つに記載の端末装置。
(付記9)
画像を表示する表示手段と、
上記表示手段と上記他の端末装置に設けられた表示手段とに上記配置状態に応じた所定の画像を表示させる表示制御手段と、をさらに有する、付記1から8のいずれか1つに記載の端末装置。
(付記10)
上記表示制御手段は、上記配置状態に応じて、表示すべき画像を自端末装置と上記他の端末装置のそれぞれに対応する複数の部分画像に分割し、上記表示手段と上記他の端末装置に設けられた表示手段とにそれぞれ対応する部分画像を表示させる、付記9に記載の端末装置。
(付記11)
少なくとも1つの第1の処理装置と、
上記第1の処理装置と通信可能な第2の処理装置と、有し、
上記第1の処理装置は、
被写体を撮影する第1の撮影手段と、
上記第1の撮影手段で撮影した第1の画像データを送信する送信手段と、を含み、
上記第2の処理装置は、
上記被写体を撮影する第2の撮影手段と、
上記第1の画像データを受信する受信手段と、
上記第1の画像データと上記第2の撮影手段で撮影した第2の画像データとに基づいて、上記被写体に対する自端末装置と上記第1の端末装置の配置状態を検出する検出手段と、を含む、撮影システム。
(付記12)
上記検出手段は、上記第1の画像データと上記第2の画像データのそれぞれから画像中の上記被写体の方向を検出し、該検出方向の差分に基づいて、上記配置状態として、上記被写体に対する上記第1および第2の処理装置の位置関係を検出する、付記11に記載の撮影システム。
(付記13)
上記被写体の方向は、該被写体の所定の部位の方向である、付記12に記載の撮影システム。
(付記14)
上記所定の部位は、互いに直交する第1および第2の直線部を含む面、または、上記第1および第2の直線部を設定可能な面を含み、
上記検出手段は、上記第2の撮影手段の撮像面に垂直な第1の軸の軸周りの第1の回転角と、上記第1の軸に垂直な第2の軸の軸周りの第2の回転角と、上記第1および第2の軸に垂直な第3の軸の軸周りの第3の回転角とがいずれも0とされた条件で、上記面に垂直な方向から上記所定の部位を所定の距離で撮影して得られた撮影画像における、上記第1および第2の直線部それぞれの長さと、上記所定の距離との情報を含む基準情報を保持しており、
上記第2の画像データは、上記第1および第2の回転角がともに0とされた条件で撮影した画像データであり、
上記第1の画像データは、上記第1の撮影手段における上記第1および第2の回転角がともに0とされた条件で撮影した画像データであり、
上記検出手段は、上記基準情報に含まれている上記所定の距離および第1の直線部の長さをそれぞれL1、a1とし、上記第1および第2の画像データのそれぞれについて、撮影距離をLとし、上記第3の回転角をθとし、該画像データに基づく撮影画像上の上記第1および第2の直線部の長さをそれぞれa2、b1として、
L=(a1÷b1)×L1
L=(a1÷a2÷cosθ)×L1
の式に基づいて、該撮影画像中の上記被写体の方向を検出する、付記13に記載の撮影システム。
(付記15)
上記所定の部位は、互いに直交する第1および第2の直線部を含む面、または、上記第1および第2の直線部を設定可能な面を含み、
上記検出手段は、上記第2の撮影手段の撮像面に垂直な第1の軸の軸周りの第1の回転角と、上記第1の軸に垂直な第2の軸の軸周りの第2の回転角と、上記第1および第2の軸に垂直な第3の軸の軸周りの第3の回転角とがいずれも0とされた条件で、上記面に垂直な方向から上記所定の部位を所定の距離で撮影して得られた撮影画像における、上記第1および第2の直線部それぞれの長さと、上記所定の距離との情報を含む基準情報を保持しており、
上記第2の画像データは、上記第1の回転角が0とされた条件で撮影した画像データであり、
上記第1の画像データは、上記第1の撮影手段における上記第1の回転角が0とされた条件で撮影した画像データであり、
上記検出手段は、上記第1および第2の画像データのそれぞれについて、該画像データに基づく撮影画像上の上記第1および第2の直線部の長さおよび該第1および第2の直線部がなす角度と上記基準情報とに基づいて、該撮影画像中の上記被写体の方向を検出する、付記13に記載の撮影システム。
(付記16)
上記所定の部位は顔である、付記13から15のいずれか1つに記載の撮影システム。
(付記17)
上記検出手段は、上記検出方向の差分に基づいて、上記配置状態として、上記被写体から見た場合の上記第2の撮影手段の受光面に対する上記第1の撮影手段の受光面の位置関係および角度の差を検出する、付記11に記載の撮影システム。
(付記18)
上記第2の処理装置は、上記検出手段で検出した上記配置状態の情報を上記第1の処理装置に送信する送信手段を、さらに有する、付記11から17のいずれか1つに記載の撮影システム。
(付記19)
上記第1の処理装置は、画像を表示する第1の表示手段を、さらに有し、
上記第2の処理装置は、
画像を表示する第2の表示手段と、
上記第1の表示手段と上記第2の表示手段とに上記配置状態に応じた所定の画像を表示させる表示制御手段と、をさらに有する、付記11から18のいずれか1つに記載の撮影システム。
(付記20)
上記表示制御手段は、上記配置状態に応じて、表示すべき画像を上記第1および第2の処理装置のそれぞれに対応する複数の部分画像に分割し、上記第1の表示手段と上記第2の表示手段とにそれぞれ対応する部分画像を表示させる、付記19に記載の撮影システム。
(付記21)
撮影手段で被写体を撮影し、
少なくとも1つの他の端末装置から上記被写体を撮影した画像データを受信し、
上記撮影手段で撮影した上記被写体の画像データと受信した上記被写体の画像データとに基づいて、上記被写体に対する自端末装置と上記他の端末装置の配置状態を検出する、端末位置検出方法。
(付記22)
撮影手段で被写体を撮影する処理と、
少なくとも1つの他の端末装置から上記被写体を撮影した画像データを受信する処理と、
上記撮影手段で撮影した上記被写体の画像データと受信した上記被写体の画像データとに基づいて、上記被写体に対する自端末装置と上記他の端末装置の配置状態を検出する処理と、をコンピュータに実行させるプログラム。
The present invention may take forms such as the following supplementary notes 1 to 22, but is not limited to these forms.
(Appendix 1)
Photographing means for photographing the subject;
Receiving means for receiving image data obtained by photographing the subject from at least one other terminal device;
Detecting means for detecting an arrangement state of the terminal device and the other terminal device with respect to the subject based on the image data of the subject photographed by the photographing means and the image data of the subject received by the receiving means; A terminal device.
(Appendix 2)
The detecting means detects the direction of the subject in the image from each of the image data photographed by the photographing means and the image data received by the receiving means, and based on the difference between the detection directions, the arrangement state The terminal device according to appendix 1, wherein a positional relationship between the terminal device and the other terminal device with respect to the subject is detected.
(Appendix 3)
The terminal device according to attachment 2, wherein the direction of the subject is a direction of a predetermined part of the subject.
(Appendix 4)
The predetermined portion includes a surface including first and second straight portions orthogonal to each other, or a surface capable of setting the first and second straight portions,
The detection means includes a first rotation angle around a first axis perpendicular to the imaging surface of the photographing means, and a second rotation angle around a second axis perpendicular to the first axis. And the predetermined portion from the direction perpendicular to the surface is determined on the condition that the third rotation angle around the third axis perpendicular to the first and second axes is zero. Holding reference information including information on the lengths of the first and second straight line portions and the predetermined distance in a photographed image obtained by photographing at a distance of
Both the image data of the subject photographed by the photographing means and the image data of the subject received by the receiving means are image data photographed under a condition in which both the first and second rotation angles are 0,
The detection means sets the predetermined distance and the length of the first straight line portion included in the reference information as L1 and a1, respectively, and sets the shooting distance as L for each of the image data, and the third The rotation angle is θ, and the lengths of the first and second linear portions on the captured image based on the image data are a2 and b1, respectively.
L = (a1 ÷ b1) × L1
L = (a1 ÷ a2 ÷ cos θ) × L1
The terminal device according to appendix 3, wherein the direction of the subject in the captured image is detected based on the formula:
(Appendix 5)
The predetermined portion includes a surface including first and second straight portions orthogonal to each other, or a surface capable of setting the first and second straight portions,
The detection means includes a first rotation angle around a first axis perpendicular to the imaging surface of the photographing means, and a second rotation angle around a second axis perpendicular to the first axis. And the predetermined portion from the direction perpendicular to the surface is determined on the condition that the third rotation angle around the third axis perpendicular to the first and second axes is zero. Holding reference information including information on the lengths of the first and second straight line portions and the predetermined distance in a photographed image obtained by photographing at a distance of
Both the image data of the subject photographed by the photographing means and the image data of the subject received by the receiving means are image data photographed under the condition that the first rotation angle is 0,
For each of the image data, the detection means includes lengths of the first and second straight line portions on the photographed image based on the image data, angles formed by the first and second straight line portions, and the reference information. The terminal device according to attachment 3, wherein the direction of the subject in the captured image is detected based on
(Appendix 6)
The terminal device according to any one of appendices 3 to 5, wherein the predetermined part is a face.
(Appendix 7)
Based on the difference between the detection directions, the detection means has, as the arrangement state, a positional relationship of a light receiving surface of a photographing means provided in the other terminal device with respect to a light receiving surface of the photographing means when viewed from the subject. The terminal device according to appendix 1, which detects a difference in angle between the light receiving surface and the reference surface.
(Appendix 8)
The terminal device according to any one of appendices 1 to 7, further comprising a transmission unit configured to transmit the information on the arrangement state detected by the detection unit to the other terminal device.
(Appendix 9)
Display means for displaying an image;
The display unit according to any one of appendices 1 to 8, further comprising: a display control unit configured to display a predetermined image corresponding to the arrangement state on the display unit and the display unit provided in the other terminal device. Terminal device.
(Appendix 10)
The display control unit divides an image to be displayed into a plurality of partial images corresponding to the terminal device and the other terminal device according to the arrangement state, and displays the image on the display unit and the other terminal device. The terminal device according to appendix 9, wherein partial images respectively corresponding to provided display means are displayed.
(Appendix 11)
At least one first processing device;
A second processing device capable of communicating with the first processing device;
The first processing apparatus includes:
A first photographing means for photographing a subject;
Transmitting means for transmitting the first image data photographed by the first photographing means,
The second processing apparatus includes:
A second photographing means for photographing the subject;
Receiving means for receiving the first image data;
Detecting means for detecting an arrangement state of the terminal device with respect to the subject and the first terminal device based on the first image data and the second image data taken by the second photographing device; Including shooting system.
(Appendix 12)
The detection means detects the direction of the subject in the image from each of the first image data and the second image data, and sets the arrangement state based on the difference between the detection directions as the arrangement state. The imaging system according to appendix 11, which detects a positional relationship between the first and second processing devices.
(Appendix 13)
The imaging system according to attachment 12, wherein the direction of the subject is a direction of a predetermined part of the subject.
(Appendix 14)
The predetermined portion includes a surface including first and second straight portions orthogonal to each other, or a surface capable of setting the first and second straight portions,
The detection means includes a first rotation angle around an axis of a first axis perpendicular to the imaging surface of the second imaging means, and a second around an axis of a second axis perpendicular to the first axis. And the third rotation angle around the axis of the third axis perpendicular to the first and second axes are both set to 0 from the direction perpendicular to the surface. Reference information including information on the lengths of the first and second straight line portions and the predetermined distance in a photographed image obtained by photographing a part at a predetermined distance,
The second image data is image data taken under a condition in which both the first and second rotation angles are 0,
The first image data is image data taken under a condition in which both the first and second rotation angles in the first photographing means are 0,
The detection means sets the predetermined distance and the length of the first straight line portion included in the reference information as L1 and a1, respectively, and sets the shooting distance as L for each of the first and second image data. And the third rotation angle is θ, and the lengths of the first and second linear portions on the captured image based on the image data are a2 and b1, respectively.
L = (a1 ÷ b1) × L1
L = (a1 ÷ a2 ÷ cos θ) × L1
14. The photographing system according to appendix 13, wherein the direction of the subject in the photographed image is detected based on the formula:
(Appendix 15)
The predetermined portion includes a surface including first and second straight portions orthogonal to each other, or a surface capable of setting the first and second straight portions,
The detection means includes a first rotation angle around an axis of a first axis perpendicular to the imaging surface of the second imaging means, and a second around an axis of a second axis perpendicular to the first axis. And the third rotation angle around the axis of the third axis perpendicular to the first and second axes are both set to 0 from the direction perpendicular to the surface. Reference information including information on the lengths of the first and second straight line portions and the predetermined distance in a photographed image obtained by photographing a part at a predetermined distance,
The second image data is image data taken under the condition that the first rotation angle is 0,
The first image data is image data captured under a condition that the first rotation angle in the first imaging unit is 0,
For each of the first and second image data, the detection means includes the lengths of the first and second straight portions on the captured image based on the image data and the first and second straight portions. 14. The photographing system according to appendix 13, wherein the direction of the subject in the photographed image is detected based on an angle formed and the reference information.
(Appendix 16)
The imaging system according to any one of appendices 13 to 15, wherein the predetermined part is a face.
(Appendix 17)
Based on the difference between the detection directions, the detection means has a positional relationship and an angle of the light receiving surface of the first imaging unit with respect to the light receiving surface of the second imaging unit when viewed from the subject as the arrangement state. The imaging system according to appendix 11, wherein a difference between the two is detected.
(Appendix 18)
The imaging system according to any one of appendices 11 to 17, wherein the second processing device further includes a transmission unit configured to transmit information on the arrangement state detected by the detection unit to the first processing device. .
(Appendix 19)
The first processing apparatus further includes first display means for displaying an image,
The second processing apparatus includes:
Second display means for displaying an image;
The imaging system according to any one of appendices 11 to 18, further comprising display control means for displaying a predetermined image corresponding to the arrangement state on the first display means and the second display means. .
(Appendix 20)
The display control unit divides an image to be displayed into a plurality of partial images corresponding to the first and second processing devices according to the arrangement state, and the first display unit and the second display unit are divided. 20. The photographing system according to appendix 19, wherein partial images respectively corresponding to the display means are displayed.
(Appendix 21)
Take a picture of the subject
Receiving image data of the subject from at least one other terminal device;
A terminal position detection method for detecting an arrangement state of the terminal device and the other terminal device with respect to the subject based on the image data of the subject photographed by the photographing means and the received image data of the subject.
(Appendix 22)
A process of shooting a subject with a shooting means;
Processing for receiving image data obtained by photographing the subject from at least one other terminal device;
Based on the image data of the subject photographed by the photographing means and the received image data of the subject, the computer executes processing for detecting the arrangement state of the terminal device and the other terminal device with respect to the subject. program.

なお、付記1の端末装置において、撮影手段、受信手段、検出手段はそれぞれ図1に示した撮影部8、通信部4、CPU1に対応する。CPU1は、検出手段に対応する処理部を含む。   Note that in the terminal device of Supplementary Note 1, the photographing unit, the receiving unit, and the detecting unit correspond to the photographing unit 8, the communication unit 4, and the CPU 1 shown in FIG. The CPU 1 includes a processing unit corresponding to the detection unit.

付記8の端末装置において、送信手段は図1に示した通信部14に対応する。   In the terminal device of appendix 8, the transmission means corresponds to the communication unit 14 shown in FIG.

付記9の端末装置において、表示手段は、図1に示した表示制御部6および表示部7からなる表示手段に対応し、表示制御手段は、図1に示したCPU1に対応する。CPU1は、表示制御手段に対応する処理部を含む。   In the terminal device of appendix 9, the display unit corresponds to the display unit including the display control unit 6 and the display unit 7 shown in FIG. 1, and the display control unit corresponds to the CPU 1 shown in FIG. The CPU 1 includes a processing unit corresponding to the display control unit.

付記11の撮影システムにおいて、第1の処理装置、第2の処理装置はそれぞれ図2を参照して説明したサブ装置、メイン装置に対応する。   In the imaging system according to attachment 11, the first processing device and the second processing device respectively correspond to the sub device and the main device described with reference to FIG.

1:CPU
2:主メモリ
3:ワークメモリ
4:通信部
5:操作部
6:表示制御部
7:表示部
8:撮影部
9:バス
1: CPU
2: main memory 3: work memory 4: communication unit 5: operation unit 6: display control unit 7: display unit 8: photographing unit 9: bus

Claims (10)

被写体を撮影する撮影手段と、
少なくとも1つの他の端末装置から前記被写体を撮影した画像データを受信する受信手段と、
前記撮影手段で撮影した前記被写体の画像データと前記受信手段で受信した前記被写体の画像データとに基づいて、前記被写体に対する自端末装置と前記他の端末装置の配置状態を検出する検出手段と、を有する端末装置。
Photographing means for photographing the subject;
Receiving means for receiving image data obtained by photographing the subject from at least one other terminal device;
Detecting means for detecting an arrangement state of the terminal device and the other terminal device with respect to the subject based on the image data of the subject photographed by the photographing means and the image data of the subject received by the receiving means; A terminal device.
前記検出手段は、前記撮影手段で撮影した前記画像データと前記受信手段で受信した前記画像データのそれぞれから画像中の前記被写体の方向を検出し、該検出方向の差分に基づいて、前記配置状態として、前記被写体に対する自端末装置と前記他の端末装置の位置関係を検出する、請求項1に記載の端末装置。   The detecting means detects the direction of the subject in the image from each of the image data photographed by the photographing means and the image data received by the receiving means, and based on the difference between the detection directions, the arrangement state The terminal device according to claim 1, wherein a positional relationship between the terminal device and the other terminal device with respect to the subject is detected. 前記被写体の方向は、該被写体の所定の部位の方向である、請求項2に記載の端末装置。   The terminal device according to claim 2, wherein the direction of the subject is a direction of a predetermined part of the subject. 前記所定の部位は、互いに直交する第1および第2の直線部を含む面、または、前記第1および第2の直線部を設定可能な面を含み、
前記検出手段は、前記撮影手段の撮像面に垂直な第1の軸の軸周りの第1の回転角と、前記第1の軸に垂直な第2の軸の軸周りの第2の回転角と、前記第1および第2の軸に垂直な第3の軸の軸周りの第3の回転角とがいずれも0とされた条件で、前記面に垂直な方向から前記所定の部位を所定の距離で撮影して得られた撮影画像における、前記第1および第2の直線部それぞれの長さと、前記所定の距離との情報を含む基準情報を保持しており、
前記撮影手段で撮影した前記被写体の画像データと前記受信手段で受信した前記被写体の画像データはともに、前記第1および第2の回転角がともに0とされた条件で撮影した画像データであり、
前記検出手段は、前記基準情報に含まれている前記所定の距離および第1の直線部の長さをそれぞれL1、a1とし、前記画像データのそれぞれについて、撮影距離をLとし、前記第3の回転角をθとし、該画像データに基づく撮影画像上の前記第1および第2の直線部の長さをそれぞれa2、b1として、
L=(a1÷b1)×L1
L=(a1÷a2÷cosθ)×L1
の式に基づいて、該撮影画像中の前記被写体の方向を検出する、請求項3に記載の端末装置。
The predetermined portion includes a surface including first and second straight portions orthogonal to each other, or a surface capable of setting the first and second straight portions,
The detection means includes a first rotation angle around a first axis perpendicular to the imaging surface of the photographing means, and a second rotation angle around a second axis perpendicular to the first axis. And the predetermined portion from the direction perpendicular to the surface is determined on the condition that the third rotation angle around the third axis perpendicular to the first and second axes is zero. Holding reference information including information on the lengths of the first and second straight line portions and the predetermined distance in a photographed image obtained by photographing at a distance of
Both the image data of the subject photographed by the photographing means and the image data of the subject received by the receiving means are image data photographed under a condition in which both the first and second rotation angles are 0,
The detection means sets the predetermined distance and the length of the first straight line portion included in the reference information as L1 and a1, respectively, and sets the shooting distance as L for each of the image data, and the third The rotation angle is θ, and the lengths of the first and second linear portions on the captured image based on the image data are a2 and b1, respectively.
L = (a1 ÷ b1) × L1
L = (a1 ÷ a2 ÷ cos θ) × L1
The terminal device according to claim 3, wherein the direction of the subject in the photographed image is detected based on the formula:
前記所定の部位は顔である、請求項3または4に記載の端末装置。   The terminal device according to claim 3 or 4, wherein the predetermined part is a face. 前記検出手段で検出した前記配置状態の情報を前記他の端末装置に送信する送信手段を、さらに有する、請求項1から5のいずれか1項に記載の端末装置。   6. The terminal device according to claim 1, further comprising a transmission unit configured to transmit information on the arrangement state detected by the detection unit to the other terminal device. 画像を表示する表示手段と、
前記表示手段と前記他の端末装置に設けられた表示手段とに前記配置状態に応じた所定の画像を表示させる表示制御手段と、をさらに有する、請求項1から6のいずれか1項に記載の端末装置。
Display means for displaying an image;
7. The display control unit according to claim 1, further comprising: a display control unit configured to display a predetermined image corresponding to the arrangement state on the display unit and a display unit provided in the other terminal device. Terminal equipment.
少なくとも1つの第1の処理装置と、
前記第1の処理装置と通信可能な第2の処理装置と、有し、
前記第1の処理装置は、
被写体を撮影する第1の撮影手段と、
前記第1の撮影手段で撮影した第1の画像データを送信する送信手段と、を含み、
前記第2の処理装置は、
前記被写体を撮影する第2の撮影手段と、
前記第1の画像データを受信する受信手段と、
前記第1の画像データと前記第2の撮影手段で撮影した第2の画像データとに基づいて、前記被写体に対する自端末装置と前記第1の端末装置の配置状態を検出する検出手段と、を含む、撮影システム。
At least one first processing device;
A second processing device capable of communicating with the first processing device;
The first processing device includes:
A first photographing means for photographing a subject;
Transmitting means for transmitting the first image data photographed by the first photographing means,
The second processing device includes:
A second photographing means for photographing the subject;
Receiving means for receiving the first image data;
Detecting means for detecting an arrangement state of the terminal device with respect to the subject and the first terminal device based on the first image data and the second image data photographed by the second photographing device; Including shooting system.
撮影手段で被写体を撮影し、
少なくとも1つの他の端末装置から前記被写体を撮影した画像データを受信し、
前記撮影手段で撮影した前記被写体の画像データと受信した前記被写体の画像データとに基づいて、前記被写体に対する自端末装置と前記他の端末装置の配置状態を検出する、端末位置検出方法。
Take a picture of the subject with the shooting means,
Receiving image data of the subject from at least one other terminal device;
A terminal position detection method for detecting an arrangement state of the own terminal device and the other terminal device with respect to the subject based on the subject image data photographed by the photographing means and the received subject image data.
撮影手段で被写体を撮影する処理と、
少なくとも1つの他の端末装置から前記被写体を撮影した画像データを受信する処理と、
前記撮影手段で撮影した前記被写体の画像データと受信した前記被写体の画像データとに基づいて、前記被写体に対する自端末装置と前記他の端末装置の配置状態を検出する処理と、をコンピュータに実行させるプログラム。
A process of shooting a subject with a shooting means;
Processing for receiving image data obtained by photographing the subject from at least one other terminal device;
Based on the image data of the subject photographed by the photographing means and the received image data of the subject, the computer executes processing for detecting the arrangement state of the terminal device and the other terminal device with respect to the subject. program.
JP2012011868A 2012-01-24 2012-01-24 Terminal device, photographing system, terminal position detection method, and program Pending JP2013153256A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012011868A JP2013153256A (en) 2012-01-24 2012-01-24 Terminal device, photographing system, terminal position detection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012011868A JP2013153256A (en) 2012-01-24 2012-01-24 Terminal device, photographing system, terminal position detection method, and program

Publications (1)

Publication Number Publication Date
JP2013153256A true JP2013153256A (en) 2013-08-08

Family

ID=49049297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012011868A Pending JP2013153256A (en) 2012-01-24 2012-01-24 Terminal device, photographing system, terminal position detection method, and program

Country Status (1)

Country Link
JP (1) JP2013153256A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017522655A (en) * 2014-06-12 2017-08-10 ソニー株式会社 Handover of input from the first device to the second device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017522655A (en) * 2014-06-12 2017-08-10 ソニー株式会社 Handover of input from the first device to the second device

Similar Documents

Publication Publication Date Title
WO2018171429A1 (en) Image stitching method, device, terminal, and storage medium
JP6205071B2 (en) Imaging control apparatus, imaging control method, camera system, and program
CN110427110B (en) Live broadcast method and device and live broadcast server
WO2014104521A1 (en) Image transformation apparatus and method
US10237495B2 (en) Image processing apparatus, image processing method and storage medium
KR20200129584A (en) Foldable apparatus and method for controlling photographing using a plurality of cameras
JPWO2016035421A1 (en) Pan / tilt operating device, camera system, pan / tilt operating program, and pan / tilt operating method
CN109166150B (en) Pose acquisition method and device storage medium
JP2013122647A (en) Information processing apparatus, information processing method, and program
CN109862412B (en) Method and device for video co-shooting and storage medium
WO2022134632A1 (en) Work processing method and apparatus
CN113874828A (en) Electronic device, method, and computer-readable medium for providing screen sharing service through external electronic device
KR20220005087A (en) Filming method and terminal
WO2021238564A1 (en) Display device and distortion parameter determination method, apparatus and system thereof, and storage medium
CN110839174A (en) Image processing method and device, computer equipment and storage medium
JP2020198516A (en) Imaging apparatus, image processing method, and program
US20150189151A1 (en) Information processing apparatus, imaging apparatus, information processing method, information processing program, and imaging system
JP2016162079A (en) Display control method, display control program, and information processing apparatus
JP2013153256A (en) Terminal device, photographing system, terminal position detection method, and program
US11533430B2 (en) Image capturing device with display control, image communication system, and method for display control, and recording medium
KR101965310B1 (en) Terminals, server for controlling video calling, system and method for video calling using the same
JP2018032991A (en) Image display unit, image display method and computer program for image display
JP2017041205A (en) Image management system, image communication system, image management method, and program
CN111145034A (en) Block chain-based social security management method, device and system and storage medium
US20220078332A1 (en) Information processing apparatus, information processing system, information processing method, and non-transitory recording medium