JP6188070B2 - Pairing system, authentication server and terminal - Google Patents

Pairing system, authentication server and terminal Download PDF

Info

Publication number
JP6188070B2
JP6188070B2 JP2013222174A JP2013222174A JP6188070B2 JP 6188070 B2 JP6188070 B2 JP 6188070B2 JP 2013222174 A JP2013222174 A JP 2013222174A JP 2013222174 A JP2013222174 A JP 2013222174A JP 6188070 B2 JP6188070 B2 JP 6188070B2
Authority
JP
Japan
Prior art keywords
terminal
image
display
images
terminals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013222174A
Other languages
Japanese (ja)
Other versions
JP2015084154A (en
Inventor
圭介 小川
圭介 小川
橋本 真幸
真幸 橋本
一則 松本
一則 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2013222174A priority Critical patent/JP6188070B2/en
Publication of JP2015084154A publication Critical patent/JP2015084154A/en
Application granted granted Critical
Publication of JP6188070B2 publication Critical patent/JP6188070B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、端末において特別のモジュールを必要とせず、また、利用者負担を増加させない、端末同士のペアリングシステム並びにその認証サーバ及び端末に関する。   The present invention relates to a pairing system between terminals, an authentication server, and a terminal that do not require a special module in the terminal and do not increase a user's burden.

一般的な在宅・遠隔医療支援システムの例として、特許文献1(在宅医療サービスのモジュール端末)や非特許文献1(新見医師会遠隔在宅医療支援システム)に記載のものを挙げることができる。このようなシステムでは、PCやセットトップボックス等の固定端末を用いてテレビ電話を行い、遠隔地での対面診療を補完している。   Examples of a general home / television medical support system include those described in Patent Document 1 (module terminal for home medical service) and Non-Patent Document 1 (Niimi Medical Association Remote Home Medical Support System). In such systems, videophones are made using fixed terminals such as PCs and set-top boxes to complement face-to-face medical treatment at remote locations.

特表2004-508914号公報Special table 2004-508914 gazette

http://niimi-ma.no-ip.com/~ishikai/enkaku/d_01.htmlhttp://niimi-ma.no-ip.com/~ishikai/enkaku/d_01.html

既存システムでは、テレビ電話を行うに際して、どちらかの端末を登録する際に、電話番号等を入力しなければならず、利用者の負担となっている。   In the existing system, when making a videophone call, when registering one of the terminals, a telephone number or the like must be entered, which is a burden on the user.

さらに、遠隔診療を行うに際しては、本発明者による特願2012-195056号にあるように、患部を撮影するためのデバイスとしてスマートフォン等を利用することもあり、テレビ電話を行う端末とスマートフォンとのペアリングが問題となる。   Furthermore, when performing telemedicine, as described in Japanese Patent Application No. 2012-195056 by the present inventor, a smartphone or the like may be used as a device for photographing the affected area. Pairing becomes a problem.

図1は、当該遠隔診療にてテレビ電話端末に加えてスマートフォン等の端末の利用と、その際のペアリングの必要性とを説明するための図である。すなわち、(1)の医師側のテレビ電話端末101と、中継サーバ102と、(2)の在宅患者側のテレビ電話端末103と、により通常のテレビ電話システムを構築したうえでさらに、(2)の在宅患者側にて、スマートフォン等のカメラを有する端末104を導入する。   FIG. 1 is a diagram for explaining the use of a terminal such as a smartphone in addition to a videophone terminal and the necessity of pairing at that time in the remote medical care. That is, after constructing a normal videophone system by the videophone terminal 101 on the doctor side in (1), the relay server 102, and the videophone terminal 103 on the home patient side in (2), (2) The terminal 104 having a camera such as a smartphone is introduced on the home patient side.

こうして、在宅患者側では、固定配置で撮影するテレビ電話端末103に加えてさらに、手で持って自由に動かすことが可能な小回りの利くカメラとして、端末104を利用して、患部の撮影等を行う。医師側ではテレビ電話端末101が、端末104により当該撮影された患部などを、テレビ電話画面に重畳して表示することで、あるいは、テレビ電話画面とは別途に表示することで、診療の利便性が増す。   In this way, on the home patient side, in addition to the videophone terminal 103 that shoots in a fixed arrangement, the terminal 104 can be used as a small-handed camera that can be freely moved by holding it with the hand, and so on. Do. On the doctor's side, the videophone terminal 101 displays the affected area taken by the terminal 104 in a superimposed manner on the videophone screen, or by displaying it separately from the videophone screen. Increase.

このようなサービスを可能とするために、テレビ電話端末103と端末104とのペアリングがあらかじめなされている必要がある。すなわち、当該ペアリングによって、端末104をあらかじめ、医師側のテレビ端末101、中継サーバ102及び在宅患者側のテレビ端末103で構築されたテレビ電話システム内に組み込んでおく必要がある。   In order to enable such a service, the videophone terminal 103 and the terminal 104 need to be paired in advance. That is, it is necessary to incorporate the terminal 104 into a videophone system constructed in advance by the doctor's video terminal 101, the relay server 102, and the home patient's video terminal 103 by the pairing.

当該ペアリングする際に、NFC(Near Field Communication)等の近接無線通信を利用してペアリングを完了する手法もあるが、近年NFC等のデバイスを極力排除することで安価に提供される端末も増加しつつあるため、このような端末には適用できない。   When pairing, there is a method of completing pairing using near field communication such as NFC (Near Field Communication), but in recent years there are also terminals that are provided at low cost by eliminating devices such as NFC as much as possible. Since it is increasing, it cannot be applied to such terminals.

本発明は、以上のような従来技術の課題に鑑み、NFC等の端末コスト増加につながる特別のモジュールを利用せずに、且つ、利用者負担を増加させずに、例えば遠隔診療システムにおけるテレビ電話端末とスマートフォンといった場合におけるような、端末同士のペアリングを実現するペアリングシステムを提供することを目的とする。   In view of the above-described problems of the prior art, the present invention does not use a special module that leads to an increase in terminal costs such as NFC and does not increase the user burden, for example, a videophone in a telemedicine system It aims at providing the pairing system which implement | achieves pairing of terminals like the case of a terminal and a smart phone.

また、本発明は、当該ペアリングシステムにおける認証サーバを提供することを目的とする。   Another object of the present invention is to provide an authentication server in the pairing system.

さらに、本発明は、当該ペアリングシステムにおける端末を提供することを目的とする。   Furthermore, an object of this invention is to provide the terminal in the said pairing system.

上記目的を達成するため、本発明は、撮像を行って撮像画像を得る撮像部と、当該撮像画像を表示画像として表示する表示部と、をそれぞれが備えた、互いにペアリング判定対象となる、第一端末及び第二端末からなる2つの端末と、当該2つの端末のそれぞれより表示画像を受信して、当該受信した2つの表示画像の比較に基づいて当該2つの端末をペアリング対象とするか否かを判断する認証サーバと、を備えたペアリングシステムであって、前記認証サーバは、前記受信した2つの表示画像を比較することにより、当該2つの表示画像が、前記第一端末の撮像部が前記第二端末の表示部を撮像し、且つ同時に、前記第二端末の撮像部が前記第一端末の表示部を撮像して得られたものであると判定した場合に、前記ペアリング対象とする判断を下すことを特徴とする。   In order to achieve the above object, the present invention includes an imaging unit that captures an image and obtains a captured image, and a display unit that displays the captured image as a display image. A display image is received from each of the two terminals, the first terminal and the second terminal, and the two terminals, and the two terminals are paired based on the comparison of the two received display images. An authentication server for determining whether or not the authentication server compares the received two display images so that the two display images are displayed on the first terminal. When the imaging unit images the display unit of the second terminal and simultaneously determines that the imaging unit of the second terminal is obtained by imaging the display unit of the first terminal, the pair Ring target Characterized in that to make the cross-sectional.

また、本発明は、撮像を行って撮像画像を得る撮像部と、当該撮像画像を表示画像として表示する表示部と、をそれぞれが備えた、互いにペアリング判定対象となる、第一端末及び第二端末からなる2つの端末のそれぞれより表示画像を受信して、当該受信した2つの表示画像の比較に基づいて当該2つの端末をペアリング対象とするか否かを判断する認証サーバであって、前記受信した2つの表示画像を比較することにより、当該2つの表示画像が、前記第一端末の撮像部が前記第二端末の表示部を撮像し、且つ同時に、前記第二端末の撮像部が前記第一端末の表示部を撮像して得られたものであると判定した場合に、前記ペアリング対象とする判断を下すことを特徴とする。   In addition, the present invention provides a first terminal and a second terminal, which each include an imaging unit that captures an image and obtains a captured image, and a display unit that displays the captured image as a display image. An authentication server that receives a display image from each of two terminals including two terminals and determines whether the two terminals are to be paired based on a comparison of the two received display images. By comparing the two received display images, the two display images are captured by the imaging unit of the first terminal and the imaging unit of the second terminal at the same time. Is determined to be obtained by imaging the display unit of the first terminal, it is determined to be the pairing target.

さらに、本発明は、認証サーバによって、ペアリング対象であるか判定される端末の各々であって、撮像を行って撮像画像を得る撮像部と、当該撮像画像を表示画像として表示する表示部と、を備え、前記端末は、前記表示画像を前記認証サーバに送信し、前記認証サーバは、第一端末及び第二端末からなる2つの端末のそれぞれより表示画像を受信して比較することにより、当該2つの表示画像が、第一端末の撮像部が第二端末の表示部を撮像し、且つ同時に、第二端末の撮像部が第一端末の表示部を撮像して得られたものであると判定した場合に、当該2つの端末をペアリング対象とする判断を下すことを特徴とする。   Furthermore, the present invention provides each of the terminals determined by the authentication server as a pairing target, an imaging unit that captures an image and obtains the captured image, and a display unit that displays the captured image as a display image. The terminal transmits the display image to the authentication server, and the authentication server receives and compares the display image from each of the two terminals including the first terminal and the second terminal, The two display images are obtained by the imaging unit of the first terminal imaging the display unit of the second terminal and simultaneously the imaging unit of the second terminal imaging the display unit of the first terminal. If it is determined that the two terminals are to be paired, the determination is made.

本発明によれば、2つの表示画像が、第一端末の撮像部が第二端末の表示部を撮像し、且つ同時に、第二端末の撮像部が第一端末の表示部を撮像して得られたものであると判定した場合にペアリングの判断を行う。従って、2つの端末が互いに合わせ鏡の配置になっていると判定した場合にペアリングが行われるので、適切なペアリングが実現可能である。さらに、当該判断に用いるのは画像だけであるので、利用者負担を増加させず、また、端末における特別のモジュールを必要とせずに、ペアリングが実現可能となる。   According to the present invention, two display images are obtained when the imaging unit of the first terminal images the display unit of the second terminal, and at the same time, the imaging unit of the second terminal images the display unit of the first terminal. When it is determined that it has been received, the pairing is determined. Accordingly, since pairing is performed when it is determined that the two terminals are in the arrangement of the mirrors, appropriate pairing can be realized. Furthermore, since only the image is used for the determination, pairing can be realized without increasing the burden on the user and without requiring a special module in the terminal.

遠隔診療にてテレビ電話端末に加えてスマートフォン等の端末の利用と、その際のペアリングの必要性とを説明するための図である。It is a figure for demonstrating use of terminals, such as a smart phone, in addition to a video telephone terminal in telemedicine, and the necessity of the pairing in that case. 一実施形態に係るペアリングシステムの機能ブロック図である。It is a functional block diagram of the pairing system which concerns on one Embodiment. 一実施形態に係る本発明の手順を示すフローチャートである。It is a flowchart which shows the procedure of this invention which concerns on one Embodiment. 鏡合わせの状態を模式的に説明する例を示す図である。It is a figure which shows the example which illustrates the state of mirror alignment typically. 図4の補助説明図である。It is auxiliary explanatory drawing of FIG. 重畳させるマーカーとその一連の像とを説明するための図であり、当該説明における端末同士の合わせ鏡の配置と、マーカーの重畳表示と、の例を示す図である。It is a figure for demonstrating the marker to superimpose and its series of images, and is a figure which shows the example of arrangement | positioning of the mirror of the terminals in the said description, and the superimposed display of a marker. 重畳させるマーカーとその一連の像とを説明するための図であり、図6のマーカーが重畳された表示画像を模式的に示す図である。It is a figure for demonstrating the marker to superimpose and its series of images, and is a figure which shows typically the display image on which the marker of FIG. 6 was superimposed. 重畳させるマーカーとその一連の像とを説明するための図であり、図7の表示画像において、マーカーに対して生成される一連の像の例を模式的に示す図である。It is a figure for demonstrating the marker to superimpose and its series of images, and is a figure which shows typically the example of a series of images produced | generated with respect to a marker in the display image of FIG. マーカーに種々の態様が可能であることを示す例として、「枠組み」のマーカーを示す図である。It is a figure which shows the marker of a "framework" as an example which shows that various aspects are possible for a marker.

図2は、一実施形態に係るペアリングシステムの機能ブロック図である。ペアリングシステム1は、互いにペアリングの対象となる端末10A及び端末10Bと、当該ペアリングの際の認証を行う認証サーバ20と、を備える。端末10Aは、表示部11A、撮像部12A及び通信部13Aを備える。端末10Bは、端末10Aと全く同様の構成として、表示部11B、撮像部12B及び通信部13Bを備える。認証サーバ20は、通信部21、認証部22及び推定部23を備える。以下、各部の概要を説明する。   FIG. 2 is a functional block diagram of the pairing system according to the embodiment. The pairing system 1 includes a terminal 10A and a terminal 10B that are to be paired with each other, and an authentication server 20 that performs authentication at the time of pairing. The terminal 10A includes a display unit 11A, an imaging unit 12A, and a communication unit 13A. The terminal 10B includes a display unit 11B, an imaging unit 12B, and a communication unit 13B as the same configuration as the terminal 10A. The authentication server 20 includes a communication unit 21, an authentication unit 22, and an estimation unit 23. The outline of each part will be described below.

端末10A及び端末10Bにはそれぞれ、携帯端末、スマートフォン、図1の患者宅のテレビ電話端末103又は医師側のテレビ電話端末101その他を採用することができる。図1のシステムに導入する場合、認証サーバ20は、テレビ電話の中継を行う中継サーバ102によって実現されてもよい。端末10A及び端末10Bは、ペアリングに際して互いを写し合い、その撮像画像等を共に認証サーバ20へと送信することで、互いに対称な、共通の処理を行う。これを、端末10A側について説明する。   As the terminal 10A and the terminal 10B, a mobile terminal, a smart phone, the videophone terminal 103 at the patient's house in FIG. When introduced into the system of FIG. 1, the authentication server 20 may be realized by a relay server 102 that relays a videophone. The terminal 10A and the terminal 10B copy each other at the time of pairing, and transmit the captured images and the like to the authentication server 20 to perform symmetric and common processing. This will be described on the terminal 10A side.

表示部11Aは、撮像部12Aで撮像した撮像画像を表示画像として表示する。この際、撮像画像を直接、表示画像として表示してもよいが、好ましくは撮像画像に対して所定のマーカーを重畳させた重畳画像を、表示画像として表示する。撮像部12Aは、相手側の表示部11Bを撮像して、その撮像画像を得て、表示部11Aに渡す。   The display unit 11A displays the captured image captured by the imaging unit 12A as a display image. At this time, the captured image may be directly displayed as a display image. Preferably, a superimposed image in which a predetermined marker is superimposed on the captured image is displayed as a display image. The imaging unit 12A captures the display unit 11B on the other side, obtains the captured image, and passes it to the display unit 11A.

通信部13Aは、表示部11Aで表示した表示画像を、認証サーバ20の通信部21へと送信する。また、当該表示画像に所定のマーカーを重畳していた場合には、所定のマーカーの情報も、表示画像と共に通信部13Aより通信部21へと送信する。   The communication unit 13A transmits the display image displayed on the display unit 11A to the communication unit 21 of the authentication server 20. When a predetermined marker is superimposed on the display image, information on the predetermined marker is also transmitted from the communication unit 13A to the communication unit 21 together with the display image.

通信部13Aはさらに、認証サーバ20においてペアリングの認証に成功した場合には、通信部21よりペアリングを行うためのアドレス情報(相手側の端末10BのIPアドレスやメールアドレスなど)を受信し、当該ペアリング情報に基づいてペアリングを実施し、相手側の通信部13Bと通信する。   Further, when the authentication unit 20 succeeds in pairing authentication, the communication unit 13A receives address information (such as the IP address and mail address of the partner terminal 10B) from the communication unit 21 for pairing. Then, pairing is performed based on the pairing information, and communication is performed with the communication unit 13B on the other side.

以上、端末10A側について説明したが、当該説明に用いた符号末尾における「A」と「B」とを互いに入れ替えることで、端末10B側も全く同様の処理を行う。なお、端末10A及び端末10Bは同様の処理を行うが、別端末であるので、性能が同一である必要はない。例えば、表示部11Aと表示部11Bとでは、ディスプレイとしてのスペックが異なっていてもよいし、撮像部12Aと撮像部12Bとでは、カメラとしてのスペックが異なっていてもよい。   The terminal 10A side has been described above, but the terminal 10B side performs exactly the same processing by exchanging “A” and “B” at the end of the code used in the description. Note that the terminal 10A and the terminal 10B perform the same processing, but they are separate terminals, and therefore the performance does not have to be the same. For example, the display unit 11A and the display unit 11B may have different specifications as a display, and the imaging unit 12A and the imaging unit 12B may have different specifications as a camera.

認証サーバ20では、端末10A及び端末10Bのそれぞれより送信された表示画像を通信部21にて受け取り、認証部22が当該両表示画像を比較して、互いに類似していると判断できる場合に、端末10A及び端末10Bはペアリング対象であると判断する。ペアリング対象と判断した場合は、通信部21よりそれぞれの端末にペアリングに必要なアドレス情報を送信する。すなわち、端末10Aに対して端末10Bのアドレス情報を、端末10Bに対して端末10Aのアドレス情報を送信する。   In the authentication server 20, the display unit transmitted from each of the terminal 10A and the terminal 10B is received by the communication unit 21, and when the authentication unit 22 can compare both the display images and determine that they are similar to each other, Terminal 10A and terminal 10B are determined to be pairing targets. When it is determined that it is a pairing target, the communication unit 21 transmits address information necessary for pairing to each terminal. That is, the address information of the terminal 10B is transmitted to the terminal 10A, and the address information of the terminal 10A is transmitted to the terminal 10B.

なお、認証部22による判断の内容は具体的には、端末10A及び端末10Bの間で互いに写し合う処理が行われたかの判断であり、当該判断が、所定基準で両表示画像が類似していると判断できるか否かに基づいて下される。   Note that the content of the determination by the authentication unit 22 is specifically a determination as to whether a process of copying between the terminal 10A and the terminal 10B has been performed, and the determination is similar to both display images based on a predetermined criterion. It is made based on whether or not it can be determined.

ここで、本発明においては特に、端末10A及び端末10Bが互いに写し合うに際して、詳しくは後述するような「合わせ鏡」の状況で写し合うようにする手法を採用する。当該手法が適切に実施され、互いに写し合う状況を作ることに成功している場合、互いに共通の画像が撮像されて表示されることで、互いに共通な表示画像が得られる。逆に、当該手法の実施がなされていない、あるいは実施が不適切で、互いに写し合う状況を作ることに失敗している場合、互いに写し合っていないので、(偶然一致した等の例外的事態が発生しない限り、)互いに異なる表示画像が得られることとなる。従って、両表示画像が類似しているか否かにより、互いに写し合っているか否かを判断可能となる。   Here, in the present invention, in particular, when the terminal 10A and the terminal 10B are imprinted with each other, a technique is adopted in which they are imprinted in a “matching mirror” situation as described in detail later. When the method is appropriately implemented and succeeds in creating a situation where the images are mutually reflected, a common display image can be obtained by capturing and displaying a common image. On the other hand, if the method is not implemented or improperly implemented and fails to create a situation in which each other is copied, they are not copied from each other. Different display images will be obtained (unless they occur). Therefore, it is possible to determine whether or not the two display images are similar to each other depending on whether or not the two display images are similar.

また、「合わせ鏡」の状況で互いに写し合うことが可能な端末は、ユーザの手によって意図的に、互いに向かい合う所定配置を取って物理的に接近させられた端末同士に限られ、そのような端末同士においてのみ互いに類似する画像が得られる。従って、認証サーバ20側では、画像の類似性に基づいてペアリングの判断を下すことが可能となる。   In addition, the terminals that can be photographed with each other in the situation of “matching mirror” are limited to terminals that are physically approached by taking a predetermined arrangement facing each other by the user's hand. Images similar to each other can be obtained only between terminals. Accordingly, the authentication server 20 side can make a pairing determination based on the similarity of images.

また、認証サーバ20では、認証部22によりペアリングの判断が下された場合に、推定部23が、認証部22が当該比較した両表示画像における、表示部11A,11Bで表示の際に重畳されたマーカーと、「合わせ鏡」の配置によって生ずる当該マーカーの一連の像と、を解析することにより、表示部11A,11B及び撮像部12A,12Bの種々の性能に基づく画素変化を推定する。当該性能として、双方の端末11A,11Bの解像度、輝度、画面サイズ、ホワイトバランス、カメラ性能その他があり、これら性能に基づいてどのように画素が変化(劣化)するかが、マーカーとその像との比較により推定される。   Further, in the authentication server 20, when the pairing is determined by the authentication unit 22, the estimation unit 23 superimposes the two display images compared by the authentication unit 22 when displayed on the display units 11A and 11B. The pixel change based on various performances of the display units 11A and 11B and the imaging units 12A and 12B is estimated by analyzing the marker and a series of images of the marker generated by the arrangement of the “matching mirror”. The performance includes the resolution, brightness, screen size, white balance, camera performance, etc. of both terminals 11A and 11B, and how the pixel changes (deteriorates) based on these performances. It is estimated by comparison.

図3は、一実施形態に係る本発明の手順を示すフローチャートである。図3を参照して、図2の各部の処理の詳細を説明する。   FIG. 3 is a flowchart showing a procedure of the present invention according to an embodiment. With reference to FIG. 3, the detail of the process of each part of FIG. 2 is demonstrated.

ステップS1では、ユーザが、端末10A及び端末10Bを、互いに向かい合わせにすることで、互いに写し合う合わせ鏡の状態に配置する。図4は、当該合わせ鏡の状態を模式的に説明する例を示す図である。図4にて、端末10A, 10Bの筐体の例としてそれぞれ、直方体状の形状を有する筐体15A, 15Bが示され、当該筐体15A, 15Bはその面16A, 16Bを互いに平行にして向かい合わせる形で、平面100上に直立して配置されている。なお、面16A, 16Bは、互いに概ね平行であればよい。   In step S1, the user places the terminal 10A and the terminal 10B facing each other so that they are placed in a state of a mirror that reflects each other. FIG. 4 is a diagram illustrating an example for schematically explaining the state of the mirror. In FIG. 4, casings 15A and 15B each having a rectangular parallelepiped shape are shown as examples of the casings of the terminals 10A and 10B, and the casings 15A and 15B face each other with their surfaces 16A and 16B parallel to each other. They are arranged so as to stand upright on the plane 100. The surfaces 16A and 16B may be substantially parallel to each other.

端末10Aの筐体15Aの面16A上には、表示部11Aの表示面17Aと、撮像部12Aの撮像面18Aと、が配置されている。図5は、図4の補助説明図であり、当該面16A上に表示面17Aと撮像面18Aとが配置されていることを、面16Aを正面から見る形で示す図である。端末10Bについても全く同様に、その筐体15Bの面16B上には、表示部11Bの表示面17Bと、撮像部12Bの撮像面18Bと、が配置されている。図5は端末10Aについて示したが、端末10Bの配置も同様であり、図5にて符号末尾の「A」を「B」に置き換えたものが、面16Bを正面から見た形を表している。   On the surface 16A of the casing 15A of the terminal 10A, the display surface 17A of the display unit 11A and the imaging surface 18A of the imaging unit 12A are arranged. FIG. 5 is an auxiliary explanatory diagram of FIG. 4 and shows that the display surface 17A and the imaging surface 18A are arranged on the surface 16A, as viewed from the front. In the same manner for the terminal 10B, the display surface 17B of the display unit 11B and the imaging surface 18B of the imaging unit 12B are arranged on the surface 16B of the housing 15B. Although FIG. 5 shows the terminal 10A, the arrangement of the terminal 10B is the same. In FIG. 5, “A” at the end of the code is replaced with “B”, and the shape of the face 16B is viewed from the front. Yes.

当該配置により、図4にて(1)の矢印に示すように、端末10Aの撮像部12Aはその撮像面18Aによって、端末10Bの表示部11Bの表示面17Bを撮像し、当該撮像された画像は端末10Aの表示面17Aに表示される。同様に(2)の矢印に示すように、端末10Bの撮像部12Bはその撮像面18Bによって、端末10Aの表示部11Aの表示面17Aを撮像し、当該撮像された画像は端末10Bの表示面17Bに表示される。   With this arrangement, as indicated by the arrow (1) in FIG. 4, the imaging unit 12A of the terminal 10A images the display surface 17B of the display unit 11B of the terminal 10B with the imaging surface 18A, and the captured image Is displayed on the display surface 17A of the terminal 10A. Similarly, as indicated by the arrow (2), the imaging unit 12B of the terminal 10B images the display surface 17A of the display unit 11A of the terminal 10A by the imaging surface 18B, and the captured image is displayed on the display surface of the terminal 10B. Displayed on 17B.

従って、(3)の双方向矢印に示すように、端末10Aにおいて、撮像部12Aがその撮像面18Aで撮像した画像を表示する表示部11Aの表示面17Aと、端末10Bにおいて、撮像部12Bがその撮像面18Bで撮像した画像を表示する表示部11Bの表示面17Bと、の両者が、あたかも「合わせ鏡」を形成しているかのように振る舞って、表示を行うこととなる。   Therefore, as shown by the bidirectional arrow in (3), in the terminal 10A, the imaging unit 12A displays the image captured by the imaging surface 18A on the display surface 11A of the display unit 11A, and in the terminal 10B, the imaging unit 12B Both the display surface 17B of the display unit 11B that displays the image captured on the imaging surface 18B behave as if they form a “matching mirror” and display is performed.

なお、ステップS1においてユーザによって配置される当該「合わせ鏡」の配置は、図4のような例に限られず、一般には、次のような関係を満たす配置であればよい。すなわち、撮像部12Aの撮像画像(または当該撮像画像にマーカーを重畳した重畳画像)を表示する表示部11Aを備える端末10Aと、撮像部12Bの撮像画像(または当該撮像画像にマーカーを重畳した重畳画像)を表示する表示部11Bを備える端末10Bと、の間において、図2の機能ブロック間の矢印としても示したように、撮像部12Aが表示部11Bを撮像し、且つ同時に、撮像部12Bが表示部11Aを撮像するような関係である。   Note that the arrangement of the “mating mirror” arranged by the user in step S1 is not limited to the example as shown in FIG. 4, and may generally be an arrangement satisfying the following relationship. That is, the terminal 10A including the display unit 11A that displays the captured image of the imaging unit 12A (or the superimposed image in which the marker is superimposed on the captured image) and the captured image of the imaging unit 12B (or the superimposed image in which the marker is superimposed on the captured image) As shown also as an arrow between the functional blocks in FIG. 2, the imaging unit 12A captures the display unit 11B and simultaneously the imaging unit 12B. The relationship is such that the display unit 11A is imaged.

また、端末10A, 10Bは、図5で示したように、撮像部12A, 12B(の撮像面)が表示部11A, 11B(の表示面)と同一の面にあるような構成(携帯端末等において表示部は一般に端末の内側であるので、インカメラ(内面カメラ)の構成)で製造されていることが、次の観点からは好ましい。すなわち、当該インカメラの構成で製造されていれば、図4に示すように両端末を向かい合わせるだけで、ユーザは容易に合わせ鏡の配置を作ることができるからである。   Further, as shown in FIG. 5, the terminals 10A and 10B have a configuration in which the imaging units 12A and 12B (imaging surfaces thereof) are on the same plane as the display units 11A and 11B (display surfaces thereof) (such as portable terminals) In general, since the display unit is inside the terminal, it is preferably manufactured from an in-camera (internal camera) from the following viewpoint. That is, if it is manufactured with the configuration of the in-camera, the user can easily make the mirror arrangement by simply facing both terminals as shown in FIG.

なお、端末10A及び/又は端末10Bの製造の態様によっては、例えば、両者共にインカメラを有さず、表示部の反対側に設置されたアウトカメラ(背面カメラ)のみ有する場合など、合わせ鏡の配置を作ることができない。このような場合には、実際の「鏡」(実物としての鏡)を1枚以上利用して、「合わせ鏡」の配置を作ってもよい。   Depending on the mode of manufacture of the terminal 10A and / or the terminal 10B, for example, both of them do not have an in-camera and only have an out-camera (rear camera) installed on the opposite side of the display unit. I can't make an arrangement. In such a case, one or more actual “mirrors” (actual mirrors) may be used to make an arrangement of “mating mirrors”.

図3に戻り、ステップS2では、ステップS1にてユーザにより配置された合わせ鏡の配置において、端末10Aと端末10Bとが、同時に互いを撮像する。すなわち、撮像部12A及び撮像部12Bが、同時に撮像を行い、それぞれ撮像画像を得る。また、連動して表示部11A及び表示部11Bが、表示画像を得る。   Returning to FIG. 3, in step S2, the terminal 10A and the terminal 10B simultaneously capture images of each other in the arrangement of the mirrors arranged by the user in step S1. That is, the imaging unit 12A and the imaging unit 12B capture images at the same time to obtain captured images. In conjunction with this, the display unit 11A and the display unit 11B obtain display images.

ここで、撮像(及び表示)を同時に行うに際して、一定の精度で「同時」に撮像がなされればよい。例えば、ユーザのマニュアル操作によって、撮像部12A及び撮像部12Bで同時に撮像を行わせるようにしてもよい。あるいは、認証サーバ20等によって予め、端末10A及び端末10Bの時計合わせを行っておき、同じく認証サーバ20等から指示された所定時刻に、撮像部12A及び撮像部12Bで同時に撮像を行わせるようにしてもよい。なお、時計合わせ及び所定時刻の指示は、通信部13A, 21間及び通信部13B, 21間にてそれぞれ個別に行えばよい。   Here, when performing imaging (and display) at the same time, it is only necessary to perform imaging at the same time with a certain accuracy. For example, the image capturing unit 12A and the image capturing unit 12B may perform image capturing simultaneously by a user's manual operation. Alternatively, the clocks of the terminal 10A and the terminal 10B are set in advance by the authentication server 20 and the like, and the imaging unit 12A and the imaging unit 12B simultaneously perform imaging at a predetermined time instructed from the authentication server 20 and the like. May be. Note that the clock adjustment and the instruction of the predetermined time may be individually performed between the communication units 13A and 21 and between the communication units 13B and 21.

また、ステップS2で得られる撮像画像は、詳細には次のような過程を経て得られるものである。すなわち、表示部11A及び表示部11Bはそれぞれ、撮像部12A及び撮像部12Bの撮像したリアルタイムの撮像画像に、所定のマーカーを重畳させた状態のリアルタイムの重畳画像として、表示を行っている。すなわち、各時刻tにおいて、時刻tの撮像画像により、ただちに同時刻tの重畳画像が生成され表示されている。そして、当該重畳画像を表示した状態を撮像したものとして、ステップS2にて撮像部12A及び撮像部12Bが撮像画像を得る。   The captured image obtained in step S2 is obtained in detail through the following process. That is, the display unit 11A and the display unit 11B perform display as a real-time superimposed image in a state where a predetermined marker is superimposed on a real-time captured image captured by the imaging unit 12A and the imaging unit 12B, respectively. That is, at each time t, a superimposed image at the same time t is immediately generated and displayed from the captured image at the time t. Then, in step S2, the imaging unit 12A and the imaging unit 12B obtain captured images, assuming that the state in which the superimposed image is displayed is captured.

ここで、表示部11A, 11Bではそれぞれ、表示の際に自分自身が追加的に行う処理としては、撮像部12A, 12Bの撮像画像に対して所定のマーカーを1回重畳させるのみである。一方、ステップS1で合わせ鏡の配置を作ってあるので、当該1回重畳させられたマーカーの一連の像が生成され、撮像部12A, 12Bの撮像画像において得られることとなる。撮像画像に対して当該最初に1回重畳させられたマーカー及びその一連の像は、後述のステップS4及びS5において利用される。   Here, in the display units 11A and 11B, as a process additionally performed by the display unit 11A and 11B, only a predetermined marker is superimposed once on the captured images of the imaging units 12A and 12B. On the other hand, since the alignment mirrors are arranged in step S1, a series of images of the markers superimposed once are generated and obtained in the captured images of the imaging units 12A and 12B. The marker and its series of images initially superimposed once on the captured image are used in steps S4 and S5 described later.

図6〜図8は、当該重畳させるマーカー及び生成されるその一連の像を説明するための図である。図6は、端末10A, 10Bを合わせ鏡で配置する例であり、同一符号を付してある箇所については図4の例と同様であるが、図6では端末10Bが、図4の配置に対して平面100上において「倒立」している点が異なる。すなわち、図4及び図6では共に、端末10A, 10Bは撮像部及び表示部の配置の観点で同種類の端末であり、図4では両端末が同じ向きで立っているのに対して、図6では両端末が互いに倒立の関係で立っている。   6-8 is a figure for demonstrating the said marker to superimpose and the series of images produced | generated. FIG. 6 is an example in which the terminals 10A and 10B are arranged with a pair of mirrors. The parts denoted by the same reference numerals are the same as in the example of FIG. 4, but in FIG. 6, the terminal 10B has the arrangement of FIG. In contrast, it is “inverted” on the plane 100. That is, in both FIG. 4 and FIG. 6, the terminals 10A and 10B are of the same type in terms of the arrangement of the imaging unit and the display unit, whereas both terminals stand in the same direction in FIG. In FIG. 6, both terminals stand in an inverted relationship.

なお、図6における当該「倒立」の関係で端末10A, 10B同士を合わせ鏡に配置するのは、図7及び図8で説明するマーカーとの関係で、その一連の像がより確実に生成されるような位置関係を生じさせるという点において、好ましい配置の一例である。一連の像としてのマーカーが互いに重複等せずに生成されるのであれば、その他の配置を用いてもよい。   The reason why the terminals 10A and 10B are arranged on the mirror in the relationship of “inverted” in FIG. 6 is that the series of images is more reliably generated because of the relationship with the markers described in FIGS. This is an example of a preferable arrangement in that such a positional relationship is generated. Other arrangements may be used as long as markers as a series of images are generated without overlapping each other.

当該配置された図6にて、端末10Aでは表示部11Aが撮像画像に対してマーカーMA0を重畳して表示しているのが、その表示面17A上に描かれている。同様に、端末10Bでは表示部11Bが撮像画像に対してマーカーMB0を重畳して表示しているのが、その表示面17B上に描かれている。   In the arranged FIG. 6, in the terminal 10A, the display unit 11A displays the marker MA0 superimposed on the captured image and is displayed on the display surface 17A. Similarly, on the terminal 10B, the display unit 11B displays the marker MB0 superimposed on the captured image and is displayed on the display surface 17B.

図7は、図6の例において当該重畳して表示される画像をそれぞれ正面から見た形で、端末10Aが表示部11Aに表示する画像PA及び端末10Bが表示部11Bに表示する画像PBとして、模式的に示す図である。画像PAにおいて、重畳される長方形形状のマーカーMA0以外の領域、すなわち、画像PA内の白色の領域には、撮像部12Aの撮像画像が表示される。(なお、図7では撮像画像の具体例は描くのを省略して、白色の領域として示している。)   FIG. 7 shows an image PA displayed on the display unit 11A by the terminal 10A and an image PB displayed on the display unit 11B by the terminal 10A in the form of viewing the superimposed images in the example of FIG. FIG. In the image PA, a captured image of the imaging unit 12A is displayed in a region other than the superimposed rectangular marker MA0, that is, a white region in the image PA. (In FIG. 7, a specific example of the captured image is not shown and is shown as a white region.)

従って、図7にて撮像画像におけるマーカーMA0の部分は、当該マーカーMA0が撮像画像を上書きすることによって、当該上書きされた箇所を隠す形で、画像PAが表示されることとなる。画像PBにおいても同様に、重畳される長方形形状のマーカーMB0以外の領域に、撮像部12Bの撮像画像が表示され、撮像画像のうちマーカーMB0と重なった部分については隠されることとなる。   Therefore, in the portion of the marker MA0 in the captured image in FIG. 7, the image PA is displayed in such a manner that the overwritten portion is hidden by the marker MA0 overwriting the captured image. Similarly, in the image PB, the captured image of the imaging unit 12B is displayed in a region other than the superimposed rectangular marker MB0, and the portion of the captured image that overlaps the marker MB0 is hidden.

なお、重畳させるマーカーMA0及びMB0に関しては、その画像としての内容(形状及び模様など)及び画像PA及びPB内において重畳させる位置を予め、各端末において所定のものとして設定しておく。当該マーカーは所定のものを何種類か用意しておき、いずれを用いるかは、本発明によるペアリングを実施する毎に、各端末においてランダムに決定してもよい。   For the markers MA0 and MB0 to be superimposed, the contents (shape, pattern, etc.) of the images and the positions to be superimposed in the images PA and PB are set in advance as predetermined in each terminal. Several kinds of predetermined markers are prepared, and which one is used may be determined randomly at each terminal each time pairing according to the present invention is performed.

図8は、図7の例における、表示部11A及び11Bによってそれぞれ、最初に1回だけ重畳されるマーカーMA0及びMB0に対する、一連の像を模式的に示す図である。   FIG. 8 is a diagram schematically showing a series of images for the markers MA0 and MB0 that are first superimposed only once by the display units 11A and 11B in the example of FIG.

すなわち、矢印(A1)に示すように、表示部11Aの画像PAにおけるマーカーMA0を、相手側の撮像部12Bが撮像することで、その1回目の像MA1が、表示部11Bの画像PB内に生成される。続いて、矢印(A2)に示すように、表示部11Bの画像PB内の像MA1をさらに、相手側の撮像部12Aが撮像することで、その2回目の像MA2が、表示部11Aの画像PA内に生成される。さらに、矢印(A3)に示すように、3回目の像として、像MA2の像MA3が画像PB内に生成される。以降同様にして、両端末10A, 10Bの撮像部及び表示部のスペックが許す限り、n回目の像に対するn+1回目の像が再帰的に、画像PA, PB間で交互に生成されることとなる。   That is, as indicated by the arrow (A1), the image MA 12 in the image PA of the display unit 11A is captured by the image capturing unit 12B on the other side, so that the first image MA1 is in the image PB of the display unit 11B. Generated. Subsequently, as indicated by an arrow (A2), the image MA1 in the image PB of the display unit 11B is further captured by the image capturing unit 12A on the other side, so that the second image MA2 is the image of the display unit 11A. Generated in the PA. Further, as indicated by an arrow (A3), an image MA3 of the image MA2 is generated in the image PB as the third image. Similarly, as long as the specifications of the imaging unit and display unit of both terminals 10A and 10B allow, the (n + 1) th image relative to the nth image is recursively generated alternately between the images PA and PB. It becomes.

同様に、矢印(B1)に示すように、表示部11Bの画像PBにおけるマーカーMB0を相手側の撮像部12Aが撮像して、1回目の像MB1が画像PA内に生成され、矢印(B2)に示すように当該像MB1を相手側の撮像部12Bが撮像して、2回目の像MB2が画像PB内に生成され、さらに矢印(B3)に示すように3回目の像MB3が画像PA内に生成され、…といったように、スペックが許す限り再帰的な画像生成が行われる。   Similarly, as shown by the arrow (B1), the image capturing unit 12A on the other side captures the marker MB0 in the image PB of the display unit 11B, and the first image MB1 is generated in the image PA, and the arrow (B2) As shown in the figure, the image MB1 is captured by the counterpart imaging unit 12B, the second image MB2 is generated in the image PB, and the third image MB3 is included in the image PA as indicated by the arrow (B3). The image is recursively generated as long as the spec allows.

なお、以上のように最初に重畳されたマーカーMA0,MB0の一連の像が生成されるに際しては、n回目の像よりn+1回目の像へと、像生成の反復回数が増すに従って、像が劣化することとなる。すなわち、ぼけが増し、大きさも小さくなり、色合いなども変化していくこととなる。当該劣化は、端末10A,10Bを合わせ鏡に配置した際の互いの距離及び向き並びに光源等の外部条件にも依存するが、基本的には表示部11A,11B及び撮像部12A, 12Bのスペックに依存して、その劣化度合いが定まり、画素変化を生じさせる。後述のステップS5では、当該スペック依存に基づいて定まる両端末10A,10Bにおける画素変化の推定を行う。   As described above, when a series of images of the first superimposed markers MA0 and MB0 is generated, the number of image generation iterations increases from the nth image to the n + 1th image. Will deteriorate. That is, the blur increases, the size decreases, and the color tone changes. The deterioration depends on the distance and orientation of the terminals 10A and 10B when they are placed on the mirror and external conditions such as the light source, but basically the specifications of the display units 11A and 11B and the imaging units 12A and 12B. Depending on the pixel, the degree of deterioration is determined and causes a pixel change. In step S5 described later, pixel changes in both terminals 10A and 10B determined based on the spec dependence are estimated.

また、図8の模式的な例のように、一連の像が順番に現れるようにするための端末10A, 10Bの鏡合わせの配置の一例として、図6の配置が挙げられる。特に、面16A及び面16Bを互いに平行にしたうえで、表示面17A、マーカーMA0及び撮像面18Aと、表示面17B、マーカーMB0及び撮像面18Bと、が互いに点対称になるような配置を挙げることができる。当該点対称に配置する際、マーカーMA0及びマーカーMBはその全体ではなく、所定点のみが点対称の配置を構成すればよい。   Further, as in the schematic example of FIG. 8, as an example of the mirror alignment arrangement of the terminals 10A and 10B so that a series of images appear in order, the arrangement of FIG. In particular, the display surface 17A, the marker MA0, and the imaging surface 18A, and the display surface 17B, the marker MB0, and the imaging surface 18B are point-symmetric with each other after the surfaces 16A and 16B are parallel to each other. be able to. When arranging the points symmetrically, the markers MA0 and the markers MB are not the entirety of them, and only predetermined points need to constitute a point-symmetrical arrangement.

また、端末10A, 10Bが別種類のものとして製造され、表示面17A,17B間及び/又は撮像面18A, 18B間でサイズ等に違いがあり、点対称に配置できない場合は、点対称に準ずる配置として、それらの所定点同士(重心位置同士など)を点対称に配置するなどしてもよい。点対称の配置は、所定精度で点対称と判定されるような配置であればよい。   Further, when the terminals 10A and 10B are manufactured as different types and there is a difference in size or the like between the display surfaces 17A and 17B and / or between the imaging surfaces 18A and 18B, it follows the point symmetry. As the arrangement, the predetermined points (centers of gravity, etc.) may be arranged symmetrically. The point-symmetric arrangement may be any arrangement that can be determined to be point-symmetric with a predetermined accuracy.

また、一般には必ずしも点対称に配置する必要はないが、ステップS5における推定に利用する情報をより豊富に得る観点からは、一連の像(のうちの少なくとも最初の所定数)が画像PA, PB内に見えて生成される必要がある。このため、配置に際して、当該一連の像の生成される位置が、最初に重畳されるマーカーMA0, MB0に重なる位置となること(当該位置では前述のように撮像画像が上書きされ消えてしまう)と、画像PA, PBの範囲外に逸脱することと、を避ける必要がある。   In general, it is not necessarily arranged point-symmetrically. However, from the viewpoint of obtaining abundant information used for estimation in step S5, a series of images (at least the first predetermined number of them) are images PA, PB. Needs to be generated inside. For this reason, at the time of arrangement, the position where the series of images is generated becomes a position overlapping the markers MA0 and MB0 that are superimposed first (the captured image is overwritten and disappears as described above). It is necessary to avoid deviating from the range of the images PA and PB.

図3に戻り、ステップS3では、ステップS2で取得した表示画像(端末10Aの表示画像PA及び端末10Bの表示画像PB)をそれぞれ、通信部13A及び通信部13Bが通信部21へと送信することで、各表示画像を認証サーバ20へとアップロードする。   Returning to FIG. 3, in step S3, the communication unit 13A and the communication unit 13B transmit the display images acquired in step S2 (the display image PA of the terminal 10A and the display image PB of the terminal 10B) to the communication unit 21, respectively. Thus, each display image is uploaded to the authentication server 20.

ステップS4では、認証サーバ20の認証部22が、ステップS2で取得した両画像PA, PBを比較する。当該比較により、所定基準で類似していると判定されることで、端末10A, 10Bがペアリング対象であると判断された場合は、ステップS5へと進み、類似していないと判定されることで、ペアリング対象ではないと判断された場合は、ペアリングを実施しないので、当該フローを終了する。   In step S4, the authentication unit 22 of the authentication server 20 compares both images PA and PB acquired in step S2. If it is determined by the comparison that the terminals 10A and 10B are similar to each other based on a predetermined criterion, the process proceeds to step S5 and is determined not to be similar. If it is determined that it is not a pairing target, pairing is not performed, and the flow is terminated.

なお、当該類似しておらず、ペアリング対象でないと判断された場合には、両端末10A, 10Bにそれぞれ、エラーの旨を送信してから、ユーザ側に再度の画像取得を促すべく、ステップS1へと戻るようにしてもよい。こうして、端末10A, 10Bは実際に互いに近接して存在し、ステップS1でユーザが鏡合わせに向かい合わせたにもかかわらず、当該鏡合わせの配置が不適切に設定されていた等の理由で、両画像PA, PBにおける撮像のされ方が不適切であった場合に、ユーザに再度の作業を促すことが可能となる。   Note that if it is determined that it is not similar and is not a pairing target, a message indicating an error is sent to both terminals 10A and 10B, and then a step is performed to prompt the user to acquire an image again. You may make it return to S1. Thus, the terminals 10A and 10B are actually close to each other, and the mirror alignment is improperly set even though the user faces the mirror alignment in step S1. When the images in both the images PA and PB are inappropriate, it is possible to prompt the user to perform the work again.

ステップS4における両画像PA, PBの比較手法には、第一実施形態として、周知の各種の画像間の類似度の算出手法を利用し、当該算出された類似度に所定閾値による閾値判定を下せばよい。例えば、画素間差分絶対値和(SAD)等で類似度を算出してもよいし、SIFT等の周知の特徴量を算出し、周知の手法で当該一連の特徴点同士の対応づけを行うことで類似度を算出してもよい。   As a first embodiment, the method for calculating the similarity between various images is used for the comparison method of the images PA and PB in step S4, and threshold determination is performed on the calculated similarity using a predetermined threshold. Just do it. For example, similarity may be calculated by sum of absolute differences (SAD) between pixels, or a known feature amount such as SIFT is calculated, and the series of feature points are associated with each other by a known method. The degree of similarity may be calculated using

また、両画像PA, PBの比較による類似判定に際して、第二実施形態として、上記第一実施形態のような画像間の類似度と当該類似度に対する閾値判定を行うのみではなく、さらに追加の条件を課してもよい。追加の条件としては、鏡合わせの配置であること及び/又は所定のマーカーを重畳していることに基づく所定の特徴を、両画像が有していると判定されることを利用することができる。   Further, in the similarity determination by comparing both images PA and PB, as a second embodiment, not only the similarity between images and the threshold determination for the similarity as in the first embodiment, but also an additional condition May be imposed. As an additional condition, it can be used that both images are determined to have a predetermined characteristic based on being a mirror-aligned arrangement and / or overlapping a predetermined marker. .

図8における画像PA, PBの例であれば、端末10Bの画像PB内に、端末10Aの重畳したマーカーMA0の像に相当する像MA1が検出され、且つ、端末10Aの画像PA内に、端末10Bの重畳したマーカーMB0の像に相当する像MB1が検出される場合に、所定の特徴を有していると判定してもよい。   In the example of the images PA and PB in FIG. 8, an image MA1 corresponding to the image of the marker MA0 superimposed on the terminal 10A is detected in the image PB of the terminal 10B, and the terminal When an image MB1 corresponding to the image of the marker MB0 superimposed on 10B is detected, it may be determined that the image has predetermined characteristics.

像MA1及び像MB1を検出するに際しては、それぞれ重畳するマーカーMA0及びMB0の情報(マーカーの画像としての情報)を予め、ステップS3にて画像PA及びPBを端末10A及び10Bより受信する際に併せて受信しているので、当該マーカー画像MA0及びMB0に類似する領域として、画像PB及びPAからそれぞれ検出すればよい。類似領域の検出には、上記SADやSIFT等を利用して、閾値判定を満たす場合に検出されたと判定すればよい。   When detecting the image MA1 and the image MB1, information on the markers MA0 and MB0 to be superimposed (information as the marker image) is combined in advance when the images PA and PB are received from the terminals 10A and 10B in step S3. Therefore, the regions similar to the marker images MA0 and MB0 may be detected from the images PB and PA, respectively. For the detection of the similar region, it may be determined that the detection is performed when the threshold determination is satisfied by using the above SAD, SIFT or the like.

同様にしてさらに、上記1番目の像MA1及びMB1に加えてさらに、2番目以降の所定のk番目までの像MA2, MB2, ..., MAk, MBkが各画像より検出されることを条件として課してもよい。   Similarly, in addition to the first images MA1 and MB1, the second and subsequent k-th images MA2, MB2,... MAk, MBk are detected from each image. May be imposed as

また、以上のようにして像を追加検出する場合はさらに、最初に重畳するマーカーとの関係での像同士の配置関係が、合わせ鏡の状況に適合するか否かを条件として課してもよい。例えば、画像PAにおける重畳マーカーMA0及び像MB1の配置関係と、画像PBにおける像MA1及び重畳マーカーMB0の配置関係と、が一致していると判断できるか否かを判定してもよい。   Further, in the case of additionally detecting an image as described above, it may be further imposed on whether or not the positional relationship between the images in relation to the marker to be superimposed first matches the situation of the mirror. Good. For example, it may be determined whether or not it is possible to determine that the arrangement relationship between the superimposed marker MA0 and the image MB1 in the image PA and the arrangement relationship between the image MA1 and the superimposed marker MB0 in the image PB match.

図3に戻り、ステップS5では、推定部23が、認証部22による両画像の比較をさらに進めて、2番目の像以降も解析することにより、各端末10A, 10Bのスペックに基づく画素変化を推定する。具体的には、以下の通りである。   Returning to FIG. 3, in step S5, the estimation unit 23 further advances the comparison of both images by the authentication unit 22 and analyzes the second and subsequent images, thereby changing the pixels based on the specifications of the terminals 10A and 10B. presume. Specifically, it is as follows.

原マーカー、すなわち、最初に重畳させるマーカーの元の画像データをx(xは当該画像データの各画素を並べたベクトル)として、端末10A、端末10Bの画面(表示部11A, 11B)、カメラ(撮像部12A, 12B)による画素変化を表す行列をad、ac、bd、bcとすると、表示される画像は次の通りである。   The original image data of the original marker, that is, the marker to be superimposed first, is x (x is a vector in which the pixels of the image data are arranged), and the screens of the terminals 10A and 10B (display units 11A and 11B), camera ( Assuming ad, ac, bd, and bc as matrices representing pixel changes by the imaging units 12A and 12B), displayed images are as follows.

端末10Aの生成した原マーカー、すなわち、図8の画像PAにおけるマーカーMA0の画素はad・x(式1)である。また、端末10Aの生成した2番目のマーカー、すなわち、図8の画像PAにおけるマーカーMB1の画素はac・ad・bd・x(式2)である。   The original marker generated by the terminal 10A, that is, the pixel of the marker MA0 in the image PA of FIG. 8 is ad · x (formula 1). Further, the second marker generated by the terminal 10A, that is, the pixel of the marker MB1 in the image PA of FIG. 8 is ac · ad · bd · x (formula 2).

同様に、端末10Bの生成した原マーカー、すなわち、図8の画像PBにおけるマーカーMB0の画素はbd・x(式3)である。また、端末10Bの生成した2番目のマーカー、すなわち、図8の画像PBにおけるマーカーMA1の画素はbc・bd・ad・x(式4)である。   Similarly, the original marker generated by the terminal 10B, that is, the pixel of the marker MB0 in the image PB of FIG. 8 is bd · x (formula 3). Further, the second marker generated by the terminal 10B, that is, the pixel of the marker MA1 in the image PB of FIG. 8 is bc · bd · ad · x (formula 4).

以上のようなマーカーを読み取ることで複数の方程式を導出できるため、これらの画素変化を表す行列の推定が可能になる。すなわち、まず、原マーカーそのものと表示部に表示された際の原マーカーとの比較により、表示部による画素変化を推定できる。(式1)より、表示部11Aに起因する画素変化adが推定され、(式3)より、表示部11Bに起因する画素変化bdが推定される。   Since a plurality of equations can be derived by reading the marker as described above, it is possible to estimate a matrix representing these pixel changes. That is, first, the pixel change by the display unit can be estimated by comparing the original marker itself with the original marker displayed on the display unit. From (Equation 1), the pixel change ad caused by the display unit 11A is estimated, and from (Equation 3), the pixel change bd caused by the display unit 11B is estimated.

さらに、2番目のマーカーを考慮することで、撮像部による画像変化を推定できる。すなわち、(式2)及び(式3)より、ac・adが算出され、adは(式1)から既に推定されているので、撮像部12Aによる画素変化acが推定される。また同様に、(式4)及び(式1)より、bc・bdが算出され、bdは(式3)から既に推定されているので、撮像部12Bによる画素変化bcが推定される。   Furthermore, the image change by the imaging unit can be estimated by considering the second marker. That is, ac · ad is calculated from (Equation 2) and (Equation 3), and since ad is already estimated from (Equation 1), the pixel change ac by the imaging unit 12A is estimated. Similarly, bc · bd is calculated from (Equation 4) and (Equation 1), and bd has already been estimated from (Equation 3), so the pixel change bc by the imaging unit 12B is estimated.

なお、画素変化を表す各行列ad、ac、bd、bcの算出の際には、周知の数値計算の手法により誤差を最小とするような行列を算出すればよい。各行列が単位行列に近いほど、対応する表示部又は撮像部の性能が高いことを意味する。また、各行列は、画素変化すなわち劣化の所定のモデルを組み込んだものであってもよい。各モデルでは、劣化がゼロの場合に単位行列となる。例えば、ぼけをモデル化したガウス関数のパラメータを与えることによって行列を定義して、行列計算によって誤差を最小とするような当該パラメータを求め、対応する行列を求めるようにしてもよい。   When calculating each matrix ad, ac, bd, bc representing pixel change, a matrix that minimizes the error may be calculated by a known numerical calculation method. The closer each matrix is to the unit matrix, the higher the performance of the corresponding display unit or imaging unit. Each matrix may incorporate a predetermined model of pixel change, that is, deterioration. In each model, a unit matrix is formed when the degradation is zero. For example, a matrix may be defined by giving a parameter of a Gaussian function that models blur, and the parameter that minimizes the error may be obtained by matrix calculation to obtain a corresponding matrix.

また、各行列の算出に際しては、各マーカーMA0,MA1,MB0,MB1等が画像PA,PB上のどの領域に対応するかを予め算出しておく必要があるが、これについてはステップS4で既に算出されているので、その結果を利用すればよい。また、端末10Bがxとは異なるマーカーyを用いる場合は、(式3)はbd・yとなり、(式2)はac・ad・bd・yとなるが、この場合も同様に各行列を算出することができる。   In calculating each matrix, it is necessary to calculate in advance which area on the image PA, PB each marker MA0, MA1, MB0, MB1, etc. corresponds to, but this has already been done in step S4. Since it is calculated, the result may be used. When the terminal 10B uses a marker y different from x, (Equation 3) becomes bd · y, and (Equation 2) becomes ac · ad · bd · y. Can be calculated.

図3に戻り、ステップS6では、認証サーバ23が端末10A, 10B間でペアリングを実施させるべく、各々に対して相手のアドレス情報などを通知する。当該通知の際に、ステップS5で推定した画素変化も通知して、例えば端末10A, 10B間でペアリング後にテレビ電話を実施するような場合に、双方の端末における最適なデータ転送量等を決定する際の補助情報として利用することもできる。   Returning to FIG. 3, in step S6, the authentication server 23 notifies each other of the address information of the other party in order to perform pairing between the terminals 10A and 10B. At the time of the notification, the pixel change estimated in step S5 is also notified. For example, when a videophone call is performed after pairing between the terminals 10A and 10B, the optimum data transfer amount in both terminals is determined. It can also be used as auxiliary information when doing so.

以下、本発明の補足事項(1)〜(6)を説明する。   Hereinafter, supplementary items (1) to (6) of the present invention will be described.

(1)両端末10A, 10Bにおいて重畳させる所定のマーカーには、種々の態様が可能である。例えば、図7及び図8の例(長方形のマーカー)ではなく、図9のような「枠組み」のマーカーを採用してもよい。図9では、図7及び図8と同一符号を付してあるが、これは、生成する像の関係が同じであることを示すために、同一符号を借用して付したものである。   (1) Various modes are possible for the predetermined marker to be superimposed on both terminals 10A and 10B. For example, instead of the examples of FIGS. 7 and 8 (rectangular markers), a “framework” marker as shown in FIG. 9 may be adopted. In FIG. 9, the same reference numerals as those in FIGS. 7 and 8 are given, but this is given by borrowing the same reference signs in order to show that the relationship between the images to be generated is the same.

図9では、(1)に示すように、端末10Aにおいては表示画像PAの外周部分の「枠組み」として、マーカーMA0を重畳させ、同様に(2)に示すように、端末10Bにおいては表示画像PBの外周部分の「枠組み」として、マーカーMB0を重畳させる。こうして、それぞれ(3)及び(4)に示すように、マーカーの一連の像が例えば、入れ子構造で再帰的に続く「枠組み」として得られることとなる。   In FIG. 9, as shown in (1), a marker MA0 is superimposed as a “framework” of the outer peripheral portion of the display image PA in the terminal 10A, and similarly, as shown in (2), the display image is displayed in the terminal 10B. Marker MB0 is superimposed as the “framework” of the outer periphery of PB. Thus, as shown in (3) and (4), respectively, a series of images of the marker is obtained as a “framework” that recursively in a nested structure, for example.

(2)両端末10A, 10Bでは、所定のマーカーを重畳させないようにしてもよい。この場合、単純に互いの画面同士が「鏡」として無限に写し合う画像が得られるが、それらは互いに類似しているので、ペアリングが可能となる。   (2) The predetermined markers may not be superimposed on both terminals 10A and 10B. In this case, an image in which the screens of each other are simply mirrored as “mirrors” is obtained, but since they are similar to each other, pairing is possible.

(3)両端末10A, 10Bにおいては、所定のマーカーは重畳させず、当該マーカーの代用となる物品を配置して利用してもよい。例えば、図9で説明した「枠組み」として、重畳させるマーカーの代わりに、両端末10A, 10Bの表示部の周囲に、実際の物体として、筐体の一部として形成されている「枠組み」を利用してもよい。また、例えば、図7及び図8で説明したような長方形のマーカーの代わりに、両端末10A, 10Bの表示部の表面に長方形のシールを貼ってもよい。当該物品で代用した場合は、画像上で当該物品を特定可能なように、その色情報などの画像としての情報を、認証サーバ20側へと通知するようにすることが好ましい。   (3) In both terminals 10A and 10B, a predetermined marker may not be superimposed, and an article serving as a substitute for the marker may be arranged and used. For example, as the “framework” described in FIG. 9, instead of the marker to be superimposed, the “framework” formed as a part of the casing as an actual object around the display portions of both terminals 10A and 10B. May be used. Further, for example, instead of the rectangular marker as described with reference to FIGS. 7 and 8, a rectangular sticker may be attached to the surfaces of the display portions of both terminals 10A and 10B. When the article is substituted, it is preferable to notify the authentication server 20 of information such as color information so that the article can be identified on the image.

(4)図3のステップS1における合わせ鏡の配置を行うに際して、ユーザがマニュアルで配置するのを補助すべく、次のようにしてもよい。各端末10A, 10Bでは、自分自身が重畳したマーカーMA0, MB0の像に相当するもの(図7等の例におけるMA2, MB2)が、自分自身の表示画像PA, PB内より検出可能であるかを常時監視し、検出がなされていない間は、音声アラームなどによって、ユーザ側に配置が適切でない旨を通知する。   (4) When placing the mirrors in step S1 in FIG. 3, the following may be performed to assist the user in placing them manually. In each terminal 10A, 10B, is it possible to detect from the display images PA, PB of their own display images (MA2, MB2 in the example of FIG. 7 etc.) that correspond to the images of the markers MA0, MB0 superimposed by themselves? Is constantly monitored, and when the detection is not made, the user is notified by the sound alarm or the like that the arrangement is not appropriate.

また、像MA2, MB2が検出されていても、当初のマーカーMA0, MB0から所定距離以上離れている場合などは、依然として合わせ鏡における向きが不適切ものと判断して、音声アラームを継続させるようにしてもよい。   Even if the images MA2 and MB2 are detected, if the distance from the original markers MA0 and MB0 is more than a predetermined distance, the direction of the mirror is still determined to be inappropriate and the audio alarm is continued. It may be.

また、端末の種類が決まっている場合は、両端末を設置することで互いに合わせ鏡に配置できるような台やホルダーなどの器具を用意しておき、当該器具を利用して合わせ鏡の配置を実現するようにしてもよい。   In addition, if the type of terminal is fixed, prepare equipment such as a stand or holder that can be placed on the mirror by installing both terminals, and use the equipment to arrange the mirror. It may be realized.

また、認証サーバ20側が、双方の端末10A,10Bより送付された、原マーカーの画像と、双方の端末10A,10Bから送られた画像の中のマーカー画像を照合し、その劣化具合を判断し、一定以内の劣化具合に収まる場合に、向き合ったと判断して双方の端末10A,10Bに通知を行うような機能を有していてもよい。ここで、劣化具合の値は、前述の(式1)〜(式4)における画素変化を表す行列をad、ac、bd、bcにおいて、適用されている劣化モデルのパラメータとして取得すればよい。   Further, the authentication server 20 side compares the original marker image sent from both terminals 10A and 10B with the marker image in the images sent from both terminals 10A and 10B, and determines the deterioration degree. When the deterioration is within a certain range, the terminal 10A and 10B may be notified by determining that they face each other. Here, the value of the deterioration degree may be acquired as a parameter of the applied deterioration model in ad, ac, bd, and bc, which is a matrix representing the pixel change in the above (Expression 1) to (Expression 4).

(5)本発明では認証サーバ20へアップロードするのは同時撮影され表示された画像として説明したが、所定期間に渡って同時表示された動画像をアップロードして、その全期間のうちの所定割合において、画像で説明したペアリング判定が下された場合に、当該動画像に基づいてペアリングを行うようにしてもよい。この場合、重畳させるマーカーも時間変化するものとして構成されていてもよい。   (5) In the present invention, uploading to the authentication server 20 has been described as an image captured and displayed at the same time. However, a moving image displayed simultaneously over a predetermined period is uploaded, and a predetermined ratio of the entire period is uploaded. When the pairing determination described in the image is made, the pairing may be performed based on the moving image. In this case, the superimposed marker may be configured to change over time.

(6)各端末10A,10Bでは、画像(又は動画像、以下同様)を認証サーバ20にアップロードする際に、画像のタイムスタンプ(画像取得時刻の情報)もアップロードして、認証サーバ20においては、画像の類似性に加えて、当該タイムスタンプが所定精度で一致すると判定されることも、ペアリングの条件として課してもよい。   (6) When each terminal 10A, 10B uploads an image (or a moving image, the same applies hereinafter) to the authentication server 20, it also uploads an image time stamp (image acquisition time information). In addition to the similarity of images, it may be determined as a pairing condition that the time stamps are determined to match with a predetermined accuracy.

1…ペアリングシステム、10A, 10B…端末、20…認証サーバ   1 ... Pairing system, 10A, 10B ... Terminal, 20 ... Authentication server

Claims (8)

撮像を行って撮像画像を得る撮像部と、当該撮像画像を表示画像として表示する表示部と、をそれぞれが備えた、互いにペアリング判定対象となる、第一端末及び第二端末からなる2つの端末と、
当該2つの端末のそれぞれより表示画像を受信して、当該受信した2つの表示画像の比較に基づいて当該2つの端末をペアリング対象とするか否かを判断する認証サーバと、を備えたペアリングシステムであって、
前記認証サーバは、前記受信した2つの表示画像を比較することにより、当該2つの表示画像が、前記第一端末の撮像部が前記第二端末の表示部を撮像し、且つ同時に、前記第二端末の撮像部が前記第一端末の表示部を撮像して得られたものであると判定した場合に、前記ペアリング対象とする判断を下すことを特徴とするペアリングシステム。
An imaging unit that performs imaging and obtains a captured image, and a display unit that displays the captured image as a display image, each of which includes two first terminal and second terminal that are pairing determination targets. A terminal,
An authentication server that receives display images from each of the two terminals and determines whether or not the two terminals are to be paired based on a comparison of the two received display images. A ring system,
The authentication server compares the received two display images so that the two display images are captured by the imaging unit of the first terminal and the display unit of the second terminal at the same time. A pairing system, characterized in that, when an imaging unit of a terminal determines that the image is obtained by imaging a display unit of the first terminal, a determination is made as the pairing target.
前記認証サーバは、前記2つの表示画像の類似性に基づいて、前記判定を行うことを特徴とする請求項1に記載のペアリングシステム。   The pairing system according to claim 1, wherein the authentication server performs the determination based on similarity between the two display images. 前記2つの端末の表示部がそれぞれ、表示画像を表示するに際して、撮像画像に対して所定のマーカーを重畳させたうえで表示し、
前記認証サーバは、前記所定のマーカーの像が前記2つの表示画像のそれぞれにおい検出されることに基づいて、前記判定を行うことを特徴とする請求項1または2に記載のペアリングシステム。
When the display units of the two terminals each display a display image, a predetermined marker is superimposed on the captured image and displayed.
The authentication server, the pairing system according to claim 1 or 2 images of the predetermined markers, respectively based on detected Te odor of the two display images, and performs the determination.
前記認証サーバは、前記ペアリング対象とする判断を下した場合にさらに、前記2つの表示画像のそれぞれにおいて、前記重畳された所定のマーカーに対して、その像の画素変化を算出することを特徴とする請求項3に記載のペアリングシステム。   The authentication server further calculates a pixel change of the image with respect to the superimposed predetermined marker in each of the two display images when it is determined to be the pairing target. The pairing system according to claim 3. 前記認証サーバは、前記所定のマーカーの元の画像データと、その撮像画像に重畳された際のデータと、の比較により、各端末の表示部に起因する画素変化を算出し、さらに、当該重畳された際の各端末のうちの一方におけるデータと、相手側端末としての各端末のうちのもう一方におけるその像のデータと、の比較により、各端末の撮像部に起因する画素変化を算出することを特徴とする請求項4に記載のペアリングシステム。 The authentication server calculates a pixel change caused by the display unit of each terminal by comparing the original image data of the predetermined marker and the data when superimposed on the captured image, and further, the superposition and data definitive to one of the terminals at the time of the the data of the image in the other of the terminals of the mating terminal, by comparison, calculating a pixel change caused by the imaging unit of the terminal The pairing system according to claim 4. 撮像を行って撮像画像を得る撮像部と、当該撮像画像を表示画像として表示する表示部と、をそれぞれが備えた、互いにペアリング判定対象となる、第一端末及び第二端末からなる2つの端末のそれぞれより表示画像を受信して、当該受信した2つの表示画像の比較に基づいて当該2つの端末をペアリング対象とするか否かを判断する認証サーバであって、
前記受信した2つの表示画像を比較することにより、当該2つの表示画像が、前記第一端末の撮像部が前記第二端末の表示部を撮像し、且つ同時に、前記第二端末の撮像部が前記第一端末の表示部を撮像して得られたものであると判定した場合に、前記ペアリング対象とする判断を下すことを特徴とする認証サーバ。
An imaging unit that performs imaging and obtains a captured image, and a display unit that displays the captured image as a display image, each of which includes two first terminal and second terminal that are pairing determination targets. An authentication server that receives a display image from each of the terminals and determines whether the two terminals are to be paired based on a comparison of the two received display images,
By comparing the two received display images, the two display images are captured by the imaging unit of the first terminal and the imaging unit of the second terminal at the same time. An authentication server, characterized in that when it is determined that the display is obtained by imaging the display unit of the first terminal, the determination is made as the pairing target.
認証サーバによって、ペアリング対象であるか判定される端末の各々であって、
撮像を行って撮像画像を得る撮像部と、
当該撮像画像を表示画像として表示する表示部と、を備え、
前記端末は、前記表示画像を前記認証サーバに送信し、
前記認証サーバは、第一端末及び第二端末からなる2つの端末のそれぞれより表示画像を受信して比較することにより、当該2つの表示画像が、第一端末の撮像部が第二端末の表示部を撮像し、且つ同時に、第二端末の撮像部が第一端末の表示部を撮像して得られたものであると判定した場合に、当該2つの端末をペアリング対象とする判断を下すことを特徴とする端末。
Each of the terminals determined by the authentication server as a pairing target,
An imaging unit that performs imaging to obtain a captured image;
A display unit that displays the captured image as a display image,
The terminal transmits the display image to the authentication server,
The authentication server receives and compares the display images from the two terminals, the first terminal and the second terminal, so that the two display images are displayed on the second terminal by the imaging unit of the first terminal. If the image capturing unit of the second terminal is determined to be obtained by capturing the display unit of the first terminal, the two terminals are determined to be paired. A terminal characterized by that.
前記表示部は、前記撮像画像に所定のマーカーを重畳して表示画像として表示し、
前記端末は、前記所定のマーカーの情報を前記認証サーバに送信し、
前記認証サーバは、前記所定のマーカーの像が前記2つの表示画像のそれぞれにおい検出されることに基づいて、前記判定を行うことを特徴とする請求項7に記載の端末。
The display unit displays the display image by superimposing a predetermined marker in said captured image,
The terminal transmits information of the predetermined marker to the authentication server,
The authentication server terminal according to claim 7 in which the image of the predetermined markers, respectively based on detected Te odor of the two display images, and performs the determination.
JP2013222174A 2013-10-25 2013-10-25 Pairing system, authentication server and terminal Active JP6188070B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013222174A JP6188070B2 (en) 2013-10-25 2013-10-25 Pairing system, authentication server and terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013222174A JP6188070B2 (en) 2013-10-25 2013-10-25 Pairing system, authentication server and terminal

Publications (2)

Publication Number Publication Date
JP2015084154A JP2015084154A (en) 2015-04-30
JP6188070B2 true JP6188070B2 (en) 2017-08-30

Family

ID=53047731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013222174A Active JP6188070B2 (en) 2013-10-25 2013-10-25 Pairing system, authentication server and terminal

Country Status (1)

Country Link
JP (1) JP6188070B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5120215B2 (en) * 2008-11-07 2013-01-16 日本電気株式会社 Pairing apparatus, system, method, and program
WO2010067605A1 (en) * 2008-12-11 2010-06-17 日本電気株式会社 Pairing system, pairing apparatus, pairing apparatus processing method and program
US8856901B2 (en) * 2010-05-26 2014-10-07 Marcel Van Os Digital handshake for authentication of devices
WO2012157196A1 (en) * 2011-05-18 2012-11-22 パナソニック株式会社 Communication control system and method therefor, communication device and method therefor, and program
JP6279854B2 (en) * 2013-07-30 2018-02-14 株式会社富士通マーケティング Mutual authentication system and program

Also Published As

Publication number Publication date
JP2015084154A (en) 2015-04-30

Similar Documents

Publication Publication Date Title
JP4098808B2 (en) Remote video display method, video acquisition device, method thereof, and program thereof
KR20190086658A (en) Method, apparatus, program and recording medium for synthesizing virtual and physical objects
US20080158340A1 (en) Video chat apparatus and method
CN110675348A (en) Augmented reality image display method and device and image processing equipment
KR101663321B1 (en) Method for photographing panorama picture
JP4775474B2 (en) Imaging apparatus, imaging control method, and program
CN103945117A (en) Photographing unit, cooperative photographing method, and recording medium having recorded program
CN106537908B (en) Camera calibration
US20170155889A1 (en) Image capturing device, depth information generation method and auto-calibration method thereof
KR101296601B1 (en) The camera control system and method for producing the panorama of map information
EP2653963A2 (en) Image communication apparatus, image communication server and image processing method for image communication
JP2017182487A (en) System, information processing device, head-mounted device, and method
TWI545936B (en) Electronic device and calibration method thereof
CN104871179A (en) Method and system for image capture and facilitated annotation
JP6188070B2 (en) Pairing system, authentication server and terminal
JP2018157531A (en) Multiple lens optical device
CN109120846B (en) Image processing method and device, electronic equipment and computer readable storage medium
JP6004978B2 (en) Subject image extraction device and subject image extraction / synthesis device
KR101788005B1 (en) Method for generating multi-view image by using a plurality of mobile terminal
JP6625654B2 (en) Projection device, projection method, and program
KR102112491B1 (en) Method for description of object points of the object space and connection for its implementation
JP2013162348A (en) Imaging apparatus
JP2013074473A (en) Panorama imaging apparatus
CN113259642B (en) Film visual angle adjusting method and system
JP2014179740A (en) Video retrieval device, video retrieval system, and video retrieval method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160729

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170727

R150 Certificate of patent or registration of utility model

Ref document number: 6188070

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150