JP2015015634A - Information processing apparatus, direction identification method, and computer program - Google Patents

Information processing apparatus, direction identification method, and computer program Download PDF

Info

Publication number
JP2015015634A
JP2015015634A JP2013141734A JP2013141734A JP2015015634A JP 2015015634 A JP2015015634 A JP 2015015634A JP 2013141734 A JP2013141734 A JP 2013141734A JP 2013141734 A JP2013141734 A JP 2013141734A JP 2015015634 A JP2015015634 A JP 2015015634A
Authority
JP
Japan
Prior art keywords
image
face
face image
information processing
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013141734A
Other languages
Japanese (ja)
Other versions
JP6164958B2 (en
JP2015015634A5 (en
Inventor
奥谷 泰夫
Yasuo Okuya
泰夫 奥谷
正行 石澤
Masayuki Ishizawa
正行 石澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013141734A priority Critical patent/JP6164958B2/en
Priority to US14/322,309 priority patent/US9406136B2/en
Publication of JP2015015634A publication Critical patent/JP2015015634A/en
Publication of JP2015015634A5 publication Critical patent/JP2015015634A5/ja
Application granted granted Critical
Publication of JP6164958B2 publication Critical patent/JP6164958B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus which can easily identify a direction in which a communication device to be a communication partner exists.SOLUTION: An information processing apparatus 100 has a camera 107, a storage unit 113, a face identification unit 110, and a direction determination unit 112. The storage unit 113 associates registered face images of a plurality of persons with a communication device which is owned by each person to store them therein. The face identification unit 110, on the basis of the face image of each person detected from the image including face images of the persons which are captured by the camera 107 and the registered face images, identifies the person associated with a detected face image. The direction identification unit 112 identifies the direction in which the communication apparatus which is owned by the identified person exists, in accordance with an area in which the face image in the image which is captured by the camera 107 is displayed.

Description

本発明は、電子データを通信機器に送信する情報処理装置に関する。   The present invention relates to an information processing apparatus that transmits electronic data to a communication device.

スマートホン等の携帯型の情報処理装置は、カメラ等の撮像装置を搭載したものが一般的である。このような情報処理装置では、撮像装置で撮像した画像から、顔認識技術により人物を特定することができる。また、特定した人物が所有する通信機器を通信相手として特定する技術が、特許文献1に開示されている。特許文献1では、情報処理装置に、予め、顔画像と、この顔画像の人物が所有する通信機器との対応関係を記憶しておく。情報処理装置は、撮像装置により撮像した画像から認識した顔画像と記憶内容とから、この顔画像の人物が所有する通信機器を特定する。特定した通信機器が、該情報処理装置の通信相手となる。   A portable information processing device such as a smart phone is generally equipped with an imaging device such as a camera. In such an information processing apparatus, a person can be identified from an image captured by the imaging apparatus using face recognition technology. Further, Patent Literature 1 discloses a technique for specifying a communication device owned by a specified person as a communication partner. In Patent Document 1, a correspondence relationship between a face image and a communication device owned by a person of the face image is stored in advance in the information processing apparatus. The information processing apparatus specifies a communication device owned by the person of the face image from the face image recognized from the image captured by the image capturing apparatus and the stored content. The identified communication device becomes a communication partner of the information processing apparatus.

特開2011−172089号公報JP 2011-172089 A

情報処理装置の所有者は、該情報処理装置の表示画面に表示される写真等の画像を、他の人物と一緒に閲覧することがある。このときに、この情報処理装置から他の人物が所有する通信機器へ、閲覧中の画像の画像データを送信することがある。   An owner of an information processing apparatus may browse an image such as a photograph displayed on the display screen of the information processing apparatus together with another person. At this time, the image data of the image being viewed may be transmitted from this information processing apparatus to a communication device owned by another person.

例えば、ユーザAが所有するスマートホン(スマートホンA)から、ユーザAとともに写真を閲覧するユーザBの所有するスマートホン(スマートホンB)へ、ユーザAが、閲覧中の写真を提供する場合がある。このような場合、特許文献1では、ユーザAは、スマートホンAにより、ユーザBを撮像してスマートホンBを通信相手として特定する。   For example, the user A may provide a photograph being browsed from a smartphone owned by the user A (smartphone A) to a smartphone (smartphone B) owned by the user B who browses the photograph together with the user A. is there. In such a case, in Patent Document 1, the user A images the user B with the smart phone A and specifies the smart phone B as a communication partner.

スマートホンのように2つのカメラを備えた情報処理装置では、表示画面側に備えられるカメラ(インカメラ)を用いることで、ユーザBの撮像を、写真を閲覧しながら行うことが可能である。インカメラを用いることで、スマートホンBを通信相手に特定することは、容易に行うことができる。通信相手の特定後に、例えばスマートホンBの方向にタッチ操作(ドラッグ)を行うことで画像データを送信することが可能であれば、容易で直感的な通信が可能になる。そのためには、通信相手に特定したスマートホンBのスマートホンAに対する方向(位置)を特定する必要がある。   In an information processing apparatus including two cameras, such as a smart phone, it is possible to take an image of user B while browsing a photograph by using a camera (in-camera) provided on the display screen side. By using the in-camera, it is possible to easily identify the smart phone B as a communication partner. If it is possible to transmit image data by performing a touch operation (drag) in the direction of the smart phone B after specifying the communication partner, for example, easy and intuitive communication is possible. For this purpose, it is necessary to specify the direction (position) of the smart phone B specified as the communication partner with respect to the smart phone A.

本発明は、このような従来の問題を解決するため、通信相手となる通信機器が存在する方向を容易に特定可能な情報処理装置を提供することを主たる課題とする。   In order to solve such a conventional problem, it is a main object of the present invention to provide an information processing apparatus capable of easily specifying the direction in which a communication device as a communication partner exists.

上記課題を解決する本発明の情報処理装置は、撮像手段と、複数の人物の登録顔画像を、各人物が所有する通信機器に関連付けて記憶する記憶手段と、前記撮像手段により撮像された人物の顔画像を含む画像から検出された顔画像と、前記記憶手段に記憶された前記登録顔画像とに基づいて、前記検出された顔画像に関連付けられた人物を特定する顔特定手段と、前記撮像手段により撮像された前記画像内の前記顔画像が表示される領域に応じて、前記顔特定手段により特定された人物が所有する通信機器が存在する方向を特定する方向特定手段と、を備えることを特徴とする。   An information processing apparatus of the present invention that solves the above problems includes an imaging unit, a storage unit that stores registered face images of a plurality of persons in association with communication devices owned by each person, and a person imaged by the imaging unit Face identifying means for identifying a person associated with the detected face image based on the face image detected from the image including the face image and the registered face image stored in the storage means; Direction specifying means for specifying a direction in which a communication device owned by the person specified by the face specifying means exists in accordance with an area in which the face image in the image picked up by the image pickup means is displayed. It is characterized by that.

本発明によれば、撮像された画像内の顔画像の表示される領域により、容易に通信相手となる通信機器が存在する方向を特定することができる。   According to the present invention, it is possible to easily identify the direction in which a communication device serving as a communication partner exists by the area where the face image is displayed in the captured image.

(a)は情報処理装置のハードウェア構成図、(b)は情報処理装置の機能ブロック図。(A) is a hardware block diagram of an information processing apparatus, (b) is a functional block diagram of an information processing apparatus. 登録テーブルの例示図。FIG. 4 is an exemplary diagram of a registration table. (a)、(b)は情報処理装置の利用場面の説明図。(A), (b) is explanatory drawing of the utilization scene of information processing apparatus. (a)〜(f)は画像データの送受信動作の説明図。(A)-(f) is explanatory drawing of the transmission / reception operation | movement of image data. (a)、(b)は情報処理装置の処理を表すフローチャート。(A), (b) is a flowchart showing the process of information processing apparatus. (a)〜(d)は受信者の顔画像を含む画像の例示図。(A)-(d) is an illustration figure of the image containing a recipient's face image. (a)〜(c)はステップS203の処理を表すフローチャート。(A)-(c) is a flowchart showing the process of step S203. (a)、(b)は情報処理装置の処理を表すフローチャート。(A), (b) is a flowchart showing the process of information processing apparatus. 通信機器が存在する方向が特定困難な場合の例示図。FIG. 4 is an exemplary diagram in a case where it is difficult to specify a direction in which a communication device exists. (a)は情報処理装置のハードウェア構成図、(b)は情報処理装置の機能ブロック図。(A) is a hardware block diagram of an information processing apparatus, (b) is a functional block diagram of an information processing apparatus. ステップS203の処理を表すフローチャート。The flowchart showing the process of step S203. 受信者の顔画像が写り込んでくる様子を表す図。The figure showing a mode that a recipient's face image is reflected. 情報処理装置の本体の傾きが変化する様子を表す図。The figure showing a mode that the inclination of the main body of information processing apparatus changes.

以下、本発明の実施の形態を図面を参照しつつ詳細に説明する。本実施形態は本発明の一例であり、本発明の範囲をそれらのみに限定する趣旨のものではない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. This embodiment is an example of the present invention, and is not intended to limit the scope of the present invention only to them.

<第1実施形態>
図1(a)は、第1実施形態の情報処理装置100のハードウェア構成図である。情報処理装置100は、例えば、スマートホンやタブレットPC(Personal Computer)等の通信機能及び撮像機能を備えた機器により実現される。
<First Embodiment>
FIG. 1A is a hardware configuration diagram of the information processing apparatus 100 according to the first embodiment. The information processing apparatus 100 is realized by a device having a communication function and an imaging function, such as a smart phone or a tablet PC (Personal Computer).

情報処理装置100は、CPU(Central Processing Unit)101により各構成要素が制御される。CPU101は、各構成要素の制御のために、ROM(Read Only Memory)102から読み出したコンピュータプログラムを、RAM(Random Access Memory)103を作業領域として実行する。ROM102は、このような各構成要素の制御のための各種コンピュータプログラムを記憶するメモリである。なお、CPU101は、コンピュータプログラムを、情報処理装置100に接続される外部記憶装置からRAM103にロードして実行するようにしてもよい。   Each component of the information processing apparatus 100 is controlled by a CPU (Central Processing Unit) 101. The CPU 101 executes a computer program read from a ROM (Read Only Memory) 102 using a RAM (Random Access Memory) 103 as a work area in order to control each component. The ROM 102 is a memory that stores various computer programs for controlling the respective components. Note that the CPU 101 may load a computer program from an external storage device connected to the information processing apparatus 100 to the RAM 103 and execute the computer program.

HDD(Hard Disk Drive)104は、外部記憶装置の一例である。HDD104は、上記のコンピュータプログラムや、各種電子データを記憶する。なお、外部記憶装置は、HDD104の他に、例えば、メディア(記録媒体)と、当該メディアへのアクセスを実現するための外部記憶ドライブとで実現してもよい。このようなメディアには、例えば、フレキシブルディスク(FD)、CD−ROM、DVD、USBメモリ、MO、フラッシュメモリ等を用いることができる。また、外部記憶装置は、ネットワークで接続されたサーバ装置等に設けられていてもよい。   An HDD (Hard Disk Drive) 104 is an example of an external storage device. The HDD 104 stores the above computer program and various electronic data. In addition to the HDD 104, the external storage device may be realized by, for example, a medium (recording medium) and an external storage drive for realizing access to the medium. As such a medium, for example, a flexible disk (FD), a CD-ROM, a DVD, a USB memory, an MO, a flash memory, or the like can be used. Further, the external storage device may be provided in a server device or the like connected via a network.

タッチパネル105は、情報処理装置100の一面に設けられる、ディスプレイとタッチパッド等の位置入力装置とが組み合わされた入出力装置である。タッチパネル105は、各種画像の表示を行い、且つユーザの操作による指示を取得する。通信インタフェース(I/F)106は、公知の通信技術により、他の情報処理装置や通信機器、外部記憶装置等との間で、有線又は無線による双方向の通信を行う。他の通信機器との間では、直接の通信以外に、中継装置を介した間接的な通信も可能である。カメラ107は、人物の画像や映像を撮像する撮像装置である。本実施形態のカメラ107は、情報処理装置100の背面側に設けられるメインカメラ及びタッチパネル105のディスプレイと同じ面に設けられるインカメラである。つまり、インカメラは、ディスプレイを閲覧しようとする人物の顔を撮影可能な位置及び方向に設置されている。   The touch panel 105 is an input / output device that is provided on one surface of the information processing apparatus 100 and is a combination of a display and a position input device such as a touch pad. The touch panel 105 displays various images and acquires an instruction by a user operation. The communication interface (I / F) 106 performs two-way communication by wire or wireless with other information processing apparatuses, communication devices, external storage devices, and the like by a known communication technique. In addition to direct communication, indirect communication via a relay device is also possible with other communication devices. The camera 107 is an imaging device that captures an image or video of a person. The camera 107 of this embodiment is an in-camera provided on the same surface as the main camera provided on the back side of the information processing apparatus 100 and the display of the touch panel 105. That is, the in-camera is installed at a position and a direction in which a face of a person who is browsing the display can be photographed.

CPU101、ROM102、RAM103、HDD104、タッチパネル105、通信I/F106、及びカメラ107は、システムバス108を介して相互にデータの送受信が可能に接続される。   The CPU 101, ROM 102, RAM 103, HDD 104, touch panel 105, communication I / F 106, and camera 107 are connected to each other via a system bus 108 so that data can be transmitted and received.

図1(b)は、情報処理装置100に形成される機能を表す機能ブロック図である。各機能は、CPU101がROM102からコンピュータプログラムを読み出して実行することで実現される。情報処理装置100には、撮像部109、顔特定部110、画像処理部111、方向特定部112、記憶部113、UI画面生成部114、送信部115、判定部116、方向取得部117、入力部118、及び受信部119が形成される。なお、本実施形態では各機能ブロックをソフトウェアにより実現することとしているが、ハードウェアにより実現するようにしてもよい。情報処理装置100は、カメラ107により撮像した画像から人物を特定して、特定した人物の中から、受信者を決める。この受信者の所有する通信機器が通信相手となる。また、情報処理装置100は、カメラ107により撮像した画像内の人物の表示領域に応じて、通信相手となる通信機器の情報処理装置100に対する方向を特定する。このような処理を実現するために、各機能ブロックが形成される。なお、通信相手となる通信機器は、表示機能と通信機能とを備えた装置であり、例えば他の情報処理装置100を通信相手としてもよい。   FIG. 1B is a functional block diagram showing functions formed in the information processing apparatus 100. Each function is realized by the CPU 101 reading a computer program from the ROM 102 and executing it. The information processing apparatus 100 includes an imaging unit 109, a face specifying unit 110, an image processing unit 111, a direction specifying unit 112, a storage unit 113, a UI screen generating unit 114, a transmitting unit 115, a determining unit 116, a direction acquiring unit 117, and an input. A unit 118 and a receiving unit 119 are formed. In the present embodiment, each functional block is realized by software, but may be realized by hardware. The information processing apparatus 100 identifies a person from the image captured by the camera 107 and determines a recipient from the identified person. A communication device owned by the receiver is a communication partner. Further, the information processing apparatus 100 identifies the direction of the communication device that is the communication partner with respect to the information processing apparatus 100 according to the display area of the person in the image captured by the camera 107. In order to implement such processing, each functional block is formed. Note that the communication device to be a communication partner is a device having a display function and a communication function. For example, another information processing apparatus 100 may be the communication partner.

撮像部109は、カメラ107により撮像した画像の画像データを顔特定部110に送信する。顔特定部110は、撮像部109から受信した画像データによる画像内の人物の特定処理を行う。顔特定部110は、公知の顔認識技術により顔画像を検出して人物の特定を行う。   The imaging unit 109 transmits image data of an image captured by the camera 107 to the face specifying unit 110. The face identifying unit 110 performs a process for identifying a person in the image based on the image data received from the imaging unit 109. The face identifying unit 110 identifies a person by detecting a face image using a known face recognition technique.

画像処理部111は、顔特定部110で特定された人物の顔画像の表示領域の特定、顔画像の表示領域の中心座標の検出、目や鼻等の顔画像の器官の位置の検出(器官検出)等の画像処理を行う。これらの画像処理も公知の技術を用いて実現する。なお、顔画像の表示領域を、以下、「顔領域」という。顔画像の表示領域とは、顔画像による顔の輪郭及びその内側の領域である。また、顔画像を包含する矩形、円形等の領域を顔画像の表示領域としてもよい。   The image processing unit 111 specifies the display area of the face image of the person specified by the face specifying unit 110, detects the center coordinates of the display area of the face image, and detects the position of the organ of the face image such as the eyes and nose (organ Image processing such as detection). These image processes are also realized using a known technique. The display area of the face image is hereinafter referred to as “face area”. The display area of the face image is a face outline and an area inside the face image. Further, a rectangular or circular area including the face image may be used as the face image display area.

方向特定部112は、画像処理部111による画像処理の結果を用いて、情報処理装置100と顔特定部110により特定された人物(受信者)が所有する通信機器との位置関係(相対的な方向)を決定する。   The direction specifying unit 112 uses the result of image processing by the image processing unit 111 to determine the positional relationship (relative to the communication device owned by the information processing apparatus 100 and the person (receiver) specified by the face specifying unit 110. Direction).

UI(User Interface)画面生成部114は、タッチパネル105への所有者によるタッチ操作(タッチ、ドラッグ等)に基づいて、電子データを送信するためのUI画面を生成する。判定部116は、情報処理装置100に対する受信者が所有する通信機器が存在する方向と、タッチ操作の方向とを比較して、一致するか否かを判定する。一致する場合、判定部116は、UI画面生成部114に、受信者が所有する通信機器に電子データが移動することを表すUI画面を生成させる。一致しない場合、判定部116は、UI画面生成部114に、受信者が所有する通信機器に、電子データが送信されないことを表すUI画面を生成させる。   A UI (User Interface) screen generation unit 114 generates a UI screen for transmitting electronic data based on a touch operation (touch, drag, etc.) by the owner on the touch panel 105. The determination unit 116 compares the direction in which the communication device owned by the receiver with respect to the information processing apparatus 100 exists with the direction of the touch operation, and determines whether or not they match. If they match, the determination unit 116 causes the UI screen generation unit 114 to generate a UI screen indicating that the electronic data is moved to the communication device owned by the recipient. If they do not match, the determination unit 116 causes the UI screen generation unit 114 to generate a UI screen indicating that electronic data is not transmitted to the communication device owned by the recipient.

送信部115は、他の通信機器にデータを送信する。特に、本実施形態では、送信部115は、判定部116による判定結果が一致する場合、受信者が所有する通信機器に、電子データ及びUI画面生成部114で生成した判定結果が一致する場合のUI画面を表すUI画面データを送信する。受信部119は、他の通信機器からデータを受信する。特に、本実施形態では、受信部119は、受信者が所有する通信機器から、電子データ及びUI画面データを受信したことへの完了通知を受信する。送信部115及び受信部119は、通信I/F106により実現される。   The transmission unit 115 transmits data to other communication devices. In particular, in the present embodiment, when the determination result by the determination unit 116 matches, the transmission unit 115 matches the communication device owned by the receiver with the determination result generated by the electronic data and UI screen generation unit 114. UI screen data representing the UI screen is transmitted. The receiving unit 119 receives data from other communication devices. In particular, in the present embodiment, the receiving unit 119 receives a completion notification indicating that electronic data and UI screen data have been received from a communication device owned by the receiver. The transmission unit 115 and the reception unit 119 are realized by the communication I / F 106.

入力部118は、タッチパネル105により行われるユーザのタッチ操作を検出する。方向取得部117は、入力部118により検出されたユーザのタッチ操作の操作方向(指示方向)を取得する。   The input unit 118 detects a user touch operation performed by the touch panel 105. The direction acquisition unit 117 acquires the operation direction (instruction direction) of the user's touch operation detected by the input unit 118.

記憶部113は、RAM103やHDD104により実現され、情報処理装置100に登録された複数の人物に関する登録テーブルを記憶する。情報処理装置100の所有者が、他の人物とともに登録テーブルに登録される。登録テーブルは、撮像部109から受信した画像データによる画像内の人物の特定に用いられる。図2は、登録テーブルの例示図である。登録テーブルには、情報処理装置100に登録される人物であるユーザの登録データが記録される。登録データには、ユーザの登録用の顔画像(登録顔画像)309、ユーザを識別するためのユーザID310、ユーザが所有する通信機器を識別するためのデバイスID311、ユーザが電子データの送信者か或いは受信者かを表す属性データ312が含まれる。図2の例では、ユーザAが送信者、ユーザBが受信者として登録されている。ユーザAは、情報処理装置100の所有者である。受信者は、顔特定部110で特定された人物であり、カメラ107で撮像した画像に応じて、ユーザB以外の他の人物(ユーザC)に替わる。登録顔画像309にユーザID310、デバイスID311、及び属性データ312が関連付けられている。登録顔画像309により、ユーザID310、デバイスID311、及び属性データ312が特定可能になっている。   The storage unit 113 is realized by the RAM 103 and the HDD 104 and stores a registration table regarding a plurality of persons registered in the information processing apparatus 100. The owner of the information processing apparatus 100 is registered in the registration table together with other persons. The registration table is used to specify a person in the image based on the image data received from the imaging unit 109. FIG. 2 is an exemplary diagram of a registration table. In the registration table, registration data of a user who is a person registered in the information processing apparatus 100 is recorded. The registration data includes a user registration face image (registered face image) 309, a user ID 310 for identifying the user, a device ID 311 for identifying a communication device owned by the user, and whether the user is a sender of electronic data. Alternatively, attribute data 312 indicating whether the user is a recipient is included. In the example of FIG. 2, user A is registered as a sender and user B is registered as a receiver. User A is the owner of the information processing apparatus 100. The recipient is a person specified by the face specifying unit 110, and is changed to a person other than the user B (user C) according to the image captured by the camera 107. The registered face image 309 is associated with a user ID 310, a device ID 311, and attribute data 312. The registered face image 309 makes it possible to specify the user ID 310, the device ID 311 and the attribute data 312.

顔特定部110は、検出した顔画像と登録テーブルに登録された登録顔画像309とを比較することで、画像内の人物の特定を行う。顔特定部110は、公知の画像マッチング技術により、検出した顔画像と登録顔画像309との比較を行う。例えば、検出した顔画像と登録顔画像309との特徴点の対応関係により比較を行う。   The face identifying unit 110 identifies the person in the image by comparing the detected face image with the registered face image 309 registered in the registration table. The face identifying unit 110 compares the detected face image with the registered face image 309 using a known image matching technique. For example, the comparison is performed based on the correspondence between the feature points of the detected face image and the registered face image 309.

図3(a)、(b)は、情報処理装置100の利用場面の具体例の説明図である。図3(a)は、情報処理装置100の所有者であるユーザA301と所有者ではないユーザB302とが、情報処理装置100のタッチパネル105に表示された画像の一覧を閲覧する様子を表す図である。   3A and 3B are explanatory diagrams of specific examples of usage scenes of the information processing apparatus 100. FIG. FIG. 3A is a diagram illustrating a state where a user A 301 who is the owner of the information processing apparatus 100 and a user B 302 who is not the owner browse a list of images displayed on the touch panel 105 of the information processing apparatus 100. is there.

図3(b)は、情報処理装置100をユーザA301、ユーザB302側から見た図である。また、図3(b)では、タッチパネル105に表示される画像一覧を閲覧しているユーザA301、ユーザB302が、インカメラ304で撮像された画像308に写り込む様子を示す。画像308には、ユーザA301の顔画像307及びユーザB302の顔画像306が写り込む。なお、インカメラ304で撮像した画像をタッチパネル105に表示する必要はないが、インカメラ304にユーザA301、ユーザB302が写り込む様子を提示するために表示してもよい。本実施形態では、ユーザA301を送信者、ユーザB302を受信者として、タッチパネル105上に表示される画像一覧から、送信者のタッチ操作により、画像をユーザB302の所有する通信機器に送信する。   FIG. 3B is a diagram of the information processing apparatus 100 viewed from the user A301 and the user B302 side. FIG. 3B shows a situation where a user A 301 and a user B 302 browsing an image list displayed on the touch panel 105 appear in an image 308 captured by the in-camera 304. The image 308 includes the face image 307 of the user A301 and the face image 306 of the user B302. Note that the image captured by the in-camera 304 does not need to be displayed on the touch panel 105, but may be displayed to present the user A301 and the user B302 appearing in the in-camera 304. In the present embodiment, the user A301 is the sender and the user B302 is the receiver, and the image is transmitted from the image list displayed on the touch panel 105 to the communication device owned by the user B302 by the sender's touch operation.

図4は、送信者(ユーザA301)の情報処理装置100と受信者(ユーザB302)が所有する通信機器402との間で、UI画面により写真(表示画像)の画像データを送受信する例の説明図である。なお、本実施形態では、写真の画像データを送受信する例を説明するが、送受信されるデータはこれに限らず、他の形式の電子データでよい。   FIG. 4 illustrates an example in which image data of a photograph (display image) is transmitted and received between the information processing apparatus 100 of the sender (user A301) and the communication device 402 owned by the receiver (user B302) through a UI screen. FIG. In the present embodiment, an example in which image data of a photograph is transmitted / received will be described. However, the transmitted / received data is not limited to this, and may be electronic data of another format.

図4(a)では、送信者の情報処理装置100に写真403が表示されている。送信者は、この写真403を通信機器402に送信する。図4(b)は、情報処理装置100と通信機器402とを近接させて、電子データの送受信が可能とした状態を表す。近接することで、情報処理装置100と通信機器402とは、近接無線通信による電子データが可能になる。   In FIG. 4A, a photograph 403 is displayed on the information processing apparatus 100 of the sender. The sender transmits this photograph 403 to the communication device 402. FIG. 4B illustrates a state in which the information processing apparatus 100 and the communication device 402 are brought close to each other and electronic data can be transmitted and received. By being close to each other, the information processing apparatus 100 and the communication device 402 can perform electronic data by proximity wireless communication.

図4(c)では、情報処理装置100のタッチパネル105上で、送信者が、写真403を通信機器402が存在する方向にタッチ操作(ドラッグ)404する。通信機器402には、写真403の一部が表示される。通信機器402に表示される写真の割合は、送信者がタッチパネル105上で行うタッチ操作404の操作量(指の移動量)に基づいて決められる。   In FIG. 4C, the sender performs a touch operation (drag) 404 on the photograph 403 in the direction in which the communication device 402 exists on the touch panel 105 of the information processing apparatus 100. A part of the photograph 403 is displayed on the communication device 402. The proportion of photographs displayed on the communication device 402 is determined based on the operation amount (finger movement amount) of the touch operation 404 performed by the sender on the touch panel 105.

図4(d)では、通信機器402の所有者である受信者が、通信機器402に表示される写真403の一部をタッチ操作(ドラッグ)405することで写真を受信する。受信者が行うタッチ操作405の方向は、情報処理装置100にて送信者が行うタッチ操作404の方向と同じである。つまり、タッチ操作405の方向は、通信機器402から見て情報処理装置100とは逆の方向である。図4(e)は、通信機器402への写真403の電子データの送信が終了した状態を表す。正常に電子データの送信が終了すると、図4(e)の状態になる。   In FIG. 4D, the receiver who is the owner of the communication device 402 receives a photo by touching (dragging) 405 a part of the photo 403 displayed on the communication device 402. The direction of the touch operation 405 performed by the receiver is the same as the direction of the touch operation 404 performed by the sender in the information processing apparatus 100. That is, the direction of the touch operation 405 is opposite to that of the information processing apparatus 100 when viewed from the communication device 402. FIG. 4E illustrates a state in which the transmission of electronic data of the photograph 403 to the communication device 402 has been completed. When the transmission of electronic data is completed normally, the state shown in FIG.

図4(f)は、送信者が、通信機器402が存在しない向きにタッチ操作406を行った場合を表す。この場合、電子データの送信は行われない。情報処理装置100のタッチパネル105には、電子データを送信できない旨を表すUI画面が表示される。   FIG. 4F illustrates a case where the sender performs a touch operation 406 in a direction in which the communication device 402 does not exist. In this case, electronic data is not transmitted. A UI screen indicating that electronic data cannot be transmitted is displayed on the touch panel 105 of the information processing apparatus 100.

図5は、図4で説明した動作を実現するための情報処理装置100の処理を表すフローチャートである。この処理は、所定のアプリケーションソフトウェアの起動、情報処理装置100の起動、或いは送信する画像の所有者による選択等により開始され、カメラ107で撮像した画像が更新されるたびに繰り返し実行される。   FIG. 5 is a flowchart showing processing of the information processing apparatus 100 for realizing the operation described in FIG. This process is started by activation of predetermined application software, activation of the information processing apparatus 100, selection by an owner of an image to be transmitted, or the like, and is repeatedly executed every time an image captured by the camera 107 is updated.

図5(a)は、情報処理装置100により、受信者が所有する通信機器402が存在する方向を特定する処理を表すフローチャートである。   FIG. 5A is a flowchart showing processing for identifying a direction in which the communication device 402 owned by the receiver exists by the information processing apparatus 100.

撮像部109は、カメラ107で撮像された画像の画像データを顔特定部110に送信する。顔特定部110は、撮像部109から送信された画像データを受信し、受信した画像データによる画像に含まれるすべての顔画像を検出して受信者の特定を行う(S201)。顔特定部110は、登録テーブルを参照して顔画像から受信者を特定する。顔特定部110は、検出した顔画像が登録テーブルに登録されていない場合には、この顔画像を無視する。この例では、顔特定部110は、図3(b)の画像308により、ユーザA301の顔画像307及びユーザB302の顔画像306を検出する。顔特定部110は、登録テーブルを参照して、検出した顔画像307から、送信者であるユーザA301を特定する。また、顔特定部110は、登録テーブルを参照して、検出した顔画像306からユーザB302を特定して、受信者に設定する。顔特定部110は、ユーザB302の登録データの属性データ312を「受信者」にすることで、受信者の設定を行う。これにより、「デバイスB」が通信相手の通信機器402に特定される。   The imaging unit 109 transmits image data of an image captured by the camera 107 to the face specifying unit 110. The face identifying unit 110 receives the image data transmitted from the imaging unit 109, detects all face images included in the image based on the received image data, and identifies the recipient (S201). The face specifying unit 110 specifies a recipient from the face image with reference to the registration table. If the detected face image is not registered in the registration table, the face specifying unit 110 ignores this face image. In this example, the face identifying unit 110 detects the face image 307 of the user A301 and the face image 306 of the user B302 from the image 308 in FIG. The face identifying unit 110 identifies the user A301 who is a sender from the detected face image 307 with reference to the registration table. Further, the face identification unit 110 identifies the user B302 from the detected face image 306 with reference to the registration table, and sets the user B302 as a receiver. The face identifying unit 110 sets the recipient by setting the attribute data 312 of the registration data of the user B302 to “recipient”. As a result, “device B” is specified as the communication device 402 of the communication partner.

顔特定部110により受信者が特定されると、画像処理部111は、受信者の顔画像306の表示領域である顔領域を特定する(S202)。受信者の顔領域の特定後、方向特定部112は、通信機器402(デバイスB)の情報処理装置100に対する方向を、顔領域の位置に応じて特定する(S203)。通信機器402が存在する方向を特定する処理の詳細については後述する。以上のようにして、受信者が所有する通信機器402の情報処理装置100に対する方向を特定する処理が終了する。   When the recipient is identified by the face identifying unit 110, the image processing unit 111 identifies a face area that is a display area of the recipient's face image 306 (S202). After specifying the face area of the recipient, the direction specifying unit 112 specifies the direction of the communication device 402 (device B) with respect to the information processing apparatus 100 according to the position of the face area (S203). Details of the process of specifying the direction in which the communication device 402 exists will be described later. As described above, the process of specifying the direction of the communication device 402 owned by the receiver with respect to the information processing apparatus 100 ends.

図5(b)は、写真(表示画像)の画像データを通信機器402に送信する処理を表すフローチャートである。この処理は、図5(a)の処理と並行して実行される。   FIG. 5B is a flowchart showing processing for transmitting image data of a photograph (display image) to the communication device 402. This process is executed in parallel with the process of FIG.

入力部118は、送信者(ユーザA301)が表示中の写真(図4(a)の写真403)をタッチ操作(ドラッグ)したか否かを判定する(S204)。入力部118は、タッチ操作があるまで待機する。タッチ操作があると(S204:Y)、方向取得部117は、タッチ操作が行われた方向(ドラッグによる指示方向)を取得する(S205)。方向取得部117は、入力部118からタッチ操作の内容を表すタッチ操作情報を受信し、受信したタッチ操作情報の内容によりタッチ操作による指示方向を取得する。   The input unit 118 determines whether or not the sender (user A301) has performed a touch operation (drag) on the photograph being displayed (the photograph 403 in FIG. 4A) (S204). The input unit 118 stands by until there is a touch operation. When there is a touch operation (S204: Y), the direction acquisition unit 117 acquires the direction in which the touch operation was performed (instruction direction by dragging) (S205). The direction acquisition unit 117 receives touch operation information representing the content of the touch operation from the input unit 118, and acquires an instruction direction by the touch operation based on the content of the received touch operation information.

判定部116は、方向取得部117で取得した指示方向と、ステップS203で特定した通信機器402の情報処理装置100に対する方向とが一致するか否かを判定する(S206)。   The determination unit 116 determines whether or not the instruction direction acquired by the direction acquisition unit 117 matches the direction of the communication device 402 identified in step S203 with respect to the information processing apparatus 100 (S206).

一致する場合(S206:Y、図4(c))、UI画面生成部114は、写真の画像データを送信するためのUI画面を生成する(S207)。UI画面生成部114は、入力部118からタッチ操作情報を受信し、受信したタッチ操作情報に基づいてUI画面を生成する。送信部115は、写真の画像データ及び生成されたUI画面を表すUI画面データを、通信機器402に送信する(S208)。受信部119が、通信機器402から受信が完了したことを表す完了通知を受信することで、写真の画像データの送信処理が終了する(S209:Y)   If they match (S206: Y, FIG. 4C), the UI screen generation unit 114 generates a UI screen for transmitting the image data of the photograph (S207). The UI screen generation unit 114 receives touch operation information from the input unit 118, and generates a UI screen based on the received touch operation information. The transmission unit 115 transmits photo image data and UI screen data representing the generated UI screen to the communication device 402 (S208). When the reception unit 119 receives a completion notification indicating that the reception has been completed from the communication device 402, the transmission process of the image data of the photograph ends (S209: Y).

なお、ステップS206において一致しない場合(S206:N、図4(f))、UI画面生成部114は、写真の画像データを送信しないためのUI画面を生成して処理を終了する(S210)。UI画面は、情報処理装置100のタッチパネル105に表示される。このようなUI画面は、例えば、文字で送信できない旨を表示や、ドラッグしても写真が情報処理装置100のタッチパネル105の表示画面からはみ出すことができないような表示である。後者の場合は、写真を表示画面の端までドラッグすることはできるが、それ以上ドラッグしようとしても写真が移動しないUI画面である。   If they do not match in step S206 (S206: N, FIG. 4 (f)), the UI screen generation unit 114 generates a UI screen for not transmitting the photo image data, and ends the processing (S210). The UI screen is displayed on the touch panel 105 of the information processing apparatus 100. Such a UI screen is, for example, a display indicating that text cannot be transmitted or a display in which a photograph cannot protrude from the display screen of the touch panel 105 of the information processing apparatus 100 even when dragging. In the latter case, the photo can be dragged to the edge of the display screen, but it is a UI screen in which the photo does not move when dragging further.

以上のように、通信機器402の情報処理装置100に対する方向(位置)を特定することで、その後のタッチパネル105の操作方向に応じて、画像データの送信を行うか否かが決められる。そのために、送信者は、容易で直感的な操作により、電子データの送信が可能になる。   As described above, by specifying the direction (position) of the communication device 402 with respect to the information processing apparatus 100, whether or not to transmit image data is determined according to the subsequent operation direction of the touch panel 105. Therefore, the sender can transmit electronic data by an easy and intuitive operation.

なお、ステップS208では、通信機器402が、写真の画像データ及びUI画面データを受信する。UI画面データには、タッチ操作による移動距離等の情報が含まれる。通信機器402は、UI画面データにより、通信機器402用のUI画面を生成して表示する。受信者は、通信機器402の表示画面でタッチ操作405を行う。この操作内容は、通信機器402から情報処理装置100に送信される。情報処理装置100のUI画面生成部114は、ステップS207でUI画面を生成する際に、通信機器402から送信された操作内容も考慮してUI画面を生成する。これにより、図4(d)のような表示が可能になる。   In step S208, the communication device 402 receives photo image data and UI screen data. The UI screen data includes information such as a moving distance by a touch operation. The communication device 402 generates and displays a UI screen for the communication device 402 based on the UI screen data. The recipient performs a touch operation 405 on the display screen of the communication device 402. This operation content is transmitted from the communication device 402 to the information processing apparatus 100. The UI screen generation unit 114 of the information processing apparatus 100 generates the UI screen in consideration of the operation content transmitted from the communication device 402 when generating the UI screen in step S207. Thereby, the display as shown in FIG.

本実施形態では、タッチパネル105がタッチ操作された方向により、画像データを送信するか否かを決定する例を説明したが、画像データの送信の可否を他の動作により決定してもよい。例えば、インカメラ304の映像や赤外線センサにより送信者の手の動き(ジェスチャ)を検出し、その動きの方向により画像データの送信の可否を決定してもよい。   In the present embodiment, an example in which whether or not to transmit image data is determined according to the direction in which the touch panel 105 is touched has been described. However, whether or not image data can be transmitted may be determined by other operations. For example, the movement (gesture) of the sender's hand may be detected by an image of the in-camera 304 or an infrared sensor, and whether or not image data can be transmitted is determined based on the direction of the movement.

また、図5(a)の処理と図5(b)の処理とは、例えば、ステップS205の処理の終了時点で図5(a)の処理を行うようにしてもよい。この場合、図5(a)の処理が終了した後に、ステップS206以降の処理が行われる。   Further, the process of FIG. 5A and the process of FIG. 5B may be performed at the end of the process of step S205, for example. In this case, after the process of FIG. 5A is completed, the processes after step S206 are performed.

ステップS203の、通信機器402が存在する方向を特定する処理について説明する。図6は、インカメラ304で撮像された受信者の顔画像306を含む画像308の例示図である。画像308内における顔画像306の位置、顔画像306の向き、或いは送信者の顔画像307との位置関係により、通信機器402の情報処理装置100に対する方向(位置)を特定する。図7は、ステップS203の処理を表すフローチャートである。   Processing for identifying the direction in which the communication device 402 exists in step S203 will be described. FIG. 6 is an exemplary view of an image 308 including the recipient's face image 306 captured by the in-camera 304. The direction (position) of the communication device 402 with respect to the information processing apparatus 100 is specified based on the position of the face image 306 in the image 308, the orientation of the face image 306, or the positional relationship with the sender's face image 307. FIG. 7 is a flowchart showing the process of step S203.

図6(a)は、画像308の受信者の顔領域の中心座標503の位置により通信機器402が存在する方向を決める場合の例示図である。画像308は、点線504により4つの領域505〜508に分割される。図7(a)は、このような画像308を用いたステップS203の処理を表すフローチャートである。   FIG. 6A is an exemplary diagram in a case where the direction in which the communication device 402 exists is determined by the position of the center coordinate 503 of the face area of the recipient of the image 308. The image 308 is divided into four regions 505 to 508 by dotted lines 504. FIG. 7A is a flowchart showing the process of step S203 using such an image 308.

画像処理部111は、図5(a)のステップS202で特定した顔領域の中心座標503を検出する(S601)。顔領域の中心座標は、顔領域の重心座標や、顔領域の上下及び左右両端の座標から求めた中点の座標である。   The image processing unit 111 detects the center coordinates 503 of the face area specified in step S202 of FIG. 5A (S601). The center coordinates of the face area are the coordinates of the center point obtained from the center-of-gravity coordinates of the face area and the coordinates of the top and bottom and the left and right ends of the face area.

画像処理部111は、検出した中心座標503が属する画像308内の領域を特定する(S602)。図6(a)の例では、中心座標503が領域505に属している。方向特定部112は、中心座標503が属する領域505に基づいて、情報処理装置100に対する通信機器402が存在する方向を特定して処理を終了する(S603)。   The image processing unit 111 identifies a region in the image 308 to which the detected center coordinate 503 belongs (S602). In the example of FIG. 6A, the center coordinate 503 belongs to the region 505. The direction specifying unit 112 specifies the direction in which the communication device 402 is present for the information processing apparatus 100 based on the area 505 to which the central coordinate 503 belongs, and ends the process (S603).

図6(a)の例では、中心座標503が領域505に属している場合、方向特定部112は、通信機器402が情報処理装置100の左方向にあると特定する。中心座標503が領域506に属している場合、方向特定部112は、通信機器402が情報処理装置100の前方向にあると特定する。中心座標503が領域507に属している場合、方向特定部112は、通信機器402が情報処理装置100の右方向にあると特定する。中心座標503が領域508に属している場合、方向特定部112は、通信機器402が情報処理装置100の後方向にあると特定する。なお、この例では、中心座標503の位置を基準にしているが、顔画像306の他の位置(目等の特徴部分)を基準にして方向を特定してもよい。   In the example of FIG. 6A, when the center coordinate 503 belongs to the area 505, the direction specifying unit 112 specifies that the communication device 402 is in the left direction of the information processing apparatus 100. When the central coordinate 503 belongs to the area 506, the direction specifying unit 112 specifies that the communication device 402 is in the front direction of the information processing apparatus 100. When the central coordinates 503 belong to the region 507, the direction specifying unit 112 specifies that the communication device 402 is in the right direction of the information processing apparatus 100. When the central coordinate 503 belongs to the area 508, the direction specifying unit 112 specifies that the communication device 402 is in the backward direction of the information processing apparatus 100. In this example, the position of the center coordinate 503 is used as a reference, but the direction may be specified based on another position of the face image 306 (characteristic portion such as eyes).

図6(b)は、画像308の受信者の顔画像306の向きにより通信機器402が存在する方向を決める場合の例示図である。情報処理装置100は、顔画像306内の目や鼻等の器官の位置により、顔画像306の向きを特定する。情報処理装置100は、顔画像306の左右の目の位置を通る直線509、直線509に垂直で鼻の位置を通る直線510、及び直線510と画像308の縁部との交点511により、通信機器402が存在する方向を特定する。図7(b)は、このよう画像308を用いたステップS203の処理を表すフローチャートである。   FIG. 6B is an exemplary diagram in a case where the direction in which the communication device 402 exists is determined by the orientation of the face image 306 of the recipient of the image 308. The information processing apparatus 100 identifies the orientation of the face image 306 based on the positions of organs such as eyes and nose in the face image 306. The information processing apparatus 100 uses a straight line 509 passing through the positions of the left and right eyes of the face image 306, a straight line 510 perpendicular to the straight line 509 and passing through the nose position, and an intersection 511 between the straight line 510 and the edge of the image 308. The direction in which 402 exists is specified. FIG. 7B is a flowchart showing the process of step S203 using the image 308 as described above.

画像処理部111は、顔画像306から顔の器官(目及び鼻)の位置を検出する(S604)。画像処理部111は、既知の画像認識技術により目及び鼻の位置を検出する。画像処理部111は、検出した目及び鼻の位置により顔画像306の向きを特定する(S605)。ここで顔の向きとは、直線510の目から鼻に向かう方向である。画像処理部111は、直線510を目から鼻方向へ伸ばした線と画像308の縁部との交点511を特定する(S606)。方向特定部112は、交点511に基づいて、情報処理装置100に対する通信機器402が存在する方向を特定して処理を終了する(S607)。   The image processing unit 111 detects the positions of facial organs (eyes and nose) from the face image 306 (S604). The image processing unit 111 detects the positions of eyes and nose by a known image recognition technique. The image processing unit 111 identifies the orientation of the face image 306 based on the detected eye and nose positions (S605). Here, the direction of the face is a direction from the eyes of the straight line 510 toward the nose. The image processing unit 111 identifies an intersection 511 between a line obtained by extending the straight line 510 from the eyes to the nose and the edge of the image 308 (S606). The direction specifying unit 112 specifies the direction in which the communication device 402 exists for the information processing apparatus 100 based on the intersection 511, and ends the process (S607).

図6(b)の例では、交点511が画像308の左縁部にあるため、方向特定部112は、通信機器402が情報処理装置100の左方向にあると特定する。同様に、方向特定部112は、交点511が画像308の上縁部にある場合、通信機器402が情報処理装置100の前方向にあると特定する。方向特定部112は、交点511が画像308の右縁部にある場合、通信機器402が情報処理装置100の右方向にあると特定する。方向特定部112は、交点511が画像308の下縁部にある場合、通信機器402が情報処理装置100の後方向にあると特定する。   In the example of FIG. 6B, since the intersection 511 is at the left edge of the image 308, the direction specifying unit 112 specifies that the communication device 402 is in the left direction of the information processing apparatus 100. Similarly, the direction specifying unit 112 specifies that the communication device 402 is in the front direction of the information processing apparatus 100 when the intersection 511 is at the upper edge of the image 308. The direction specifying unit 112 specifies that the communication device 402 is in the right direction of the information processing apparatus 100 when the intersection 511 is on the right edge of the image 308. The direction specifying unit 112 specifies that the communication device 402 is in the rear direction of the information processing apparatus 100 when the intersection 511 is at the lower edge of the image 308.

図6(c)は、画像308の顔領域の中心座標503から画像308の縁部512〜515までの距離により通信機器402が存在する方向を決める場合の例示図である。図7(c)は、このような画像308を用いたステップS203の処理を表すフローチャートである。   FIG. 6C is an exemplary diagram in a case where the direction in which the communication device 402 exists is determined by the distance from the center coordinates 503 of the face area of the image 308 to the edges 512 to 515 of the image 308. FIG. 7C is a flowchart showing the process of step S203 using such an image 308.

画像処理部111は、図7(a)のステップS601と同様にして、顔領域の中心座標503を検出する(S601)。画像処理部111は、画像308の縁部512〜515のうち、中心座標503に最近傍の縁部を特定する(S608)。画像処理部111は、中心座標503から各縁部512〜515までの距離を算出し、距離が最小となる縁部を最近傍の縁部として特定する。図6(c)では、縁部512が最近傍の縁部として特定される。   The image processing unit 111 detects the center coordinates 503 of the face area in the same manner as in step S601 in FIG. 7A (S601). The image processing unit 111 identifies the edge closest to the center coordinate 503 among the edges 512 to 515 of the image 308 (S608). The image processing unit 111 calculates the distance from the center coordinate 503 to each of the edge parts 512 to 515, and specifies the edge part having the smallest distance as the nearest edge part. In FIG. 6C, the edge 512 is specified as the nearest edge.

方向特定部112は、最近傍の縁部512に基づいて、情報処理装置100に対する通信機器402が存在する方向を特定して処理を終了する(S609)。図6(c)の例では、画像308の左側の縁部512が最近傍であるために、方向特定部112は、通信機器402が情報処理装置100の左方向にあると特定する。画像308の上側の縁部513が最近傍である場合、方向特定部112は、通信機器402が情報処理装置100の前方向にあると特定する。画像308の右側の縁部514が最近傍である場合、方向特定部112は、通信機器402が情報処理装置100の右方向にあると特定する。画像308の下側の縁部515が最近傍である場合、方向特定部112は、通信機器402が情報処理装置100の後方向にあると特定する。   The direction specifying unit 112 specifies the direction in which the communication device 402 is present with respect to the information processing apparatus 100 based on the nearest edge 512, and ends the process (S609). In the example of FIG. 6C, since the left edge 512 of the image 308 is the nearest, the direction specifying unit 112 specifies that the communication device 402 is in the left direction of the information processing apparatus 100. When the upper edge 513 of the image 308 is the nearest, the direction specifying unit 112 specifies that the communication device 402 is in the front direction of the information processing apparatus 100. When the right edge 514 of the image 308 is the nearest neighbor, the direction specifying unit 112 specifies that the communication device 402 is in the right direction of the information processing apparatus 100. When the lower edge 515 of the image 308 is the nearest, the direction specifying unit 112 specifies that the communication device 402 is in the rear direction of the information processing apparatus 100.

図6(d)は、送信者の顔領域の中心座標516及び受信者の顔領域の中心座標503を通る直線518と、画像308の縁部との交点519により通信機器402が存在する方向を決める場合の例示図である。図8は、このような画像308から通信機器402が存在する方向を特定する処理を表すフローチャートである。   FIG. 6D shows the direction in which the communication device 402 exists by the intersection 519 between the straight line 518 passing through the center coordinate 516 of the sender's face area and the center coordinate 503 of the receiver's face area and the edge of the image 308. It is an illustration figure in the case of deciding. FIG. 8 is a flowchart showing processing for identifying the direction in which the communication device 402 exists from such an image 308.

図8(a)は、情報処理装置100により、通信機器402が存在する方向を特定する処理を表すフローチャートである。図5のフローチャートと同じ処理には、同じステップ番号を付してある。   FIG. 8A is a flowchart showing processing for identifying the direction in which the communication device 402 exists by the information processing apparatus 100. The same processes as those in the flowchart of FIG. 5 are denoted by the same step numbers.

顔特定部110は、ステップS201、S202により受信者の顔領域を特定すると、同様の処理により、画像308から送信者の顔領域を特定する(S701、702)。顔特定部110は、送信者の顔画像307を検出し、図2の登録テーブルのユーザAの登録データにより送信者を特定する。また、顔特定部110は、検出した顔画像307により送信者の顔領域を特定する。送信者の顔領域の特定が終了すると、通信機器402が存在する方向を特定する(S203)。   When the face specifying unit 110 specifies the face area of the receiver in steps S201 and S202, the face specifying part 110 specifies the face area of the sender from the image 308 by the same processing (S701 and 702). The face identifying unit 110 detects the sender's face image 307 and identifies the sender based on the registration data of the user A in the registration table of FIG. In addition, the face specifying unit 110 specifies the sender's face area from the detected face image 307. When the identification of the sender's face area is completed, the direction in which the communication device 402 exists is identified (S203).

図8(b)は、ステップS203の処理を表すフローチャートである。   FIG. 8B is a flowchart showing the process of step S203.

画像処理部111は、受信者の顔領域の中心座標503及び送信者の顔領域の中心座標516を検出する(S703)。この処理は、図7(a)のステップS601の処理と同じである。画像処理部111は、検出した中心座標503、516の位置関係を特定する(S704)。図6(d)では、画像処理部111は、中心座標516から中心座標503の方向に伸ばした直線518と、画像308の縁部との交点519を特定する。この交点519が、中心座標503、516の位置関係を表す。方向特定部112は、中心座標503、516の位置関係に基づいて、情報処理装置100に対する通信機器402が存在する方向を特定して処理を終了する(S705)。   The image processing unit 111 detects the center coordinates 503 of the face area of the receiver and the center coordinates 516 of the face area of the sender (S703). This process is the same as the process of step S601 in FIG. The image processing unit 111 identifies the positional relationship between the detected center coordinates 503 and 516 (S704). In FIG. 6D, the image processing unit 111 identifies an intersection 519 between the straight line 518 extended from the center coordinate 516 in the direction of the center coordinate 503 and the edge of the image 308. This intersection point 519 represents the positional relationship between the center coordinates 503 and 516. The direction specifying unit 112 specifies the direction in which the communication device 402 is present with respect to the information processing apparatus 100 based on the positional relationship of the center coordinates 503 and 516, and ends the process (S705).

図6(d)では、交点519が画像308の左の縁部にあるために、方向特定部112は、通信機器402が情報処理装置100の左方向にあると特定する。交点が画像308の上の縁部にある場合、方向特定部112は、通信機器402が情報処理装置100の前方向にあると特定する。交点が画像308の右の縁部にある場合、方向特定部112は、通信機器402が情報処理装置100の右方向にあると特定する。交点が画像308の下の縁部にある場合、方向特定部112は、通信機器402が情報処理装置100の後方向にあると特定する。   In FIG. 6D, since the intersection 519 is at the left edge of the image 308, the direction specifying unit 112 specifies that the communication device 402 is in the left direction of the information processing apparatus 100. When the intersection is on the upper edge of the image 308, the direction specifying unit 112 specifies that the communication device 402 is in the front direction of the information processing apparatus 100. When the intersection is at the right edge of the image 308, the direction specifying unit 112 specifies that the communication device 402 is in the right direction of the information processing apparatus 100. When the intersection is at the lower edge of the image 308, the direction specifying unit 112 specifies that the communication device 402 is in the backward direction of the information processing apparatus 100.

以上のように、簡単な操作により、情報処理装置100に対する通信機器402が存在する方向を特定することができる。なお、以下のように処理を追加或いはセンサ等の構成を追加することで、更に高精度に方向を特定することができる。   As described above, the direction in which the communication device 402 is present with respect to the information processing apparatus 100 can be specified by a simple operation. Note that the direction can be specified with higher accuracy by adding processing or adding a configuration such as a sensor as described below.

<第2実施形態>
図9は、顔画像の表示位置や向きからは、受信者が所有する通信機器が存在する方向が特定困難な場合の例示図である。
Second Embodiment
FIG. 9 is an exemplary diagram in the case where it is difficult to specify the direction in which the communication device owned by the receiver exists from the display position and orientation of the face image.

図9(a)は、送信者が所有する情報処理装置801の前方向に、受信者803が所有する通信機器402が位置する状態を表す図である。情報処理装置801のカメラで撮像した画像804には、受信者803の顔画像806及び送信者の顔画像805が写り込んでいる。なお、この画像804は、情報処理装置801のディスプレイに表示されない。   FIG. 9A is a diagram illustrating a state in which the communication device 402 owned by the receiver 803 is located in front of the information processing apparatus 801 owned by the sender. A face image 806 of the receiver 803 and a face image 805 of the sender are reflected in the image 804 captured by the camera of the information processing device 801. This image 804 is not displayed on the display of the information processing apparatus 801.

このような位置関係にある情報処理装置801及び通信機器402において、送信者が情報処理装置801のタッチパネルを通信機器402が存在する方向807に向けてタッチ操作(ドラッグ)を行う。これにより、情報処理装置801から通信機器402に画像データが送信される。送信者が他の方向(例えば、方向808)へのタッチ操作を行った場合には、画像データの送信は行われない。   In the information processing device 801 and the communication device 402 having such a positional relationship, the sender performs a touch operation (drag) with the touch panel of the information processing device 801 in the direction 807 where the communication device 402 exists. As a result, the image data is transmitted from the information processing apparatus 801 to the communication device 402. When the sender performs a touch operation in another direction (for example, the direction 808), the image data is not transmitted.

図9(b)は、情報処理装置801の左方向に通信機器402が位置する状態を表す図である。このような位置関係にある情報処理装置801及び通信機器402において、送信者が、情報処理装置801のタッチパネルを通信機器402が存在する方向809に向けてタッチ操作(ドラッグ)を行う。これにより、情報処理装置801から通信機器402に画像データが送信される。送信者が他の方向(例えば、方向810)へのタッチ操作を行った場合には、画像データの送信は行われない。   FIG. 9B is a diagram illustrating a state where the communication device 402 is located in the left direction of the information processing apparatus 801. In the information processing device 801 and the communication device 402 having such a positional relationship, the sender performs a touch operation (drag) on the touch panel of the information processing device 801 in the direction 809 where the communication device 402 exists. As a result, the image data is transmitted from the information processing apparatus 801 to the communication device 402. When the sender performs a touch operation in another direction (for example, the direction 810), the image data is not transmitted.

図9(a)及び図9(b)では、情報処理装置801のインカメラで撮像された画像804に、送信者の顔画像805及び受信者803の顔画像806が、同じ位置及び同じ向きで写り込む。そのために、図9(a)、図9(b)のような画像804では、情報処理装置801に対する通信機器402が存在する方向(位置)を特定することが困難である。   In FIG. 9A and FIG. 9B, the face image 805 of the sender and the face image 806 of the receiver 803 are in the same position and in the same direction as the image 804 captured by the in-camera of the information processing device 801. Reflect. Therefore, it is difficult to specify the direction (position) in which the communication device 402 is present with respect to the information processing apparatus 801 in the image 804 as illustrated in FIGS. 9A and 9B.

図9(c)は、このように画像804中の顔画像の位置及び方向から通信機器402が存在する方向を特定することが困難になる領域を表す図である。指定領域811、812内に受信者の顔画像806が写り込む場合には、通信機器402が存在する方向の特定ができない。指定領域811、812は、事前に情報処理装置801に記憶される。   FIG. 9C illustrates a region in which it is difficult to specify the direction in which the communication device 402 exists from the position and direction of the face image in the image 804 as described above. When the recipient's face image 806 is reflected in the designated areas 811, 812, the direction in which the communication device 402 exists cannot be specified. The designated areas 811 and 812 are stored in the information processing apparatus 801 in advance.

第2実施形態では、このように通信機器402が存在する方向が特定困難な場合であっても、情報処理装置801に対する通信機器402が存在する方向(位置)を特定可能な、情報処理装置801を提供する。図10は、情報処理装置801の構成を表す図である。図1の第1実施形態の情報処理装置100と同じ構成には同じ符号を付してある。同じ構成の説明は省略する。図10(a)は、情報処理装置801のハードウェア構成図である。情報処理装置801は、第1実施形態の情報処理装置100に、傾き検出器1101を追加した構成である。   In the second embodiment, even when it is difficult to specify the direction in which the communication device 402 exists, the information processing device 801 that can specify the direction (position) in which the communication device 402 exists with respect to the information processing device 801. I will provide a. FIG. 10 is a diagram illustrating the configuration of the information processing apparatus 801. The same components as those of the information processing apparatus 100 of the first embodiment in FIG. Description of the same configuration is omitted. FIG. 10A is a hardware configuration diagram of the information processing apparatus 801. The information processing apparatus 801 has a configuration in which an inclination detector 1101 is added to the information processing apparatus 100 of the first embodiment.

傾き検出器1101は、情報処理装置801の本体の傾き(姿勢)を検出する。傾き検出器1101には、ジャイロセンサ、加速度センサ、地磁気センサを用いることができる。傾き検出器1101は、情報処理装置801の本体のピッチ、ロール、ヨーの3軸の傾きを検出する。   The inclination detector 1101 detects the inclination (posture) of the main body of the information processing apparatus 801. As the inclination detector 1101, a gyro sensor, an acceleration sensor, or a geomagnetic sensor can be used. The inclination detector 1101 detects the three-axis inclinations of the pitch, roll, and yaw of the main body of the information processing apparatus 801.

図10(b)は、情報処理装置801の機能ブロック図である。情報処理装置801は、第1実施形態の情報処理装置100に構成される機能に、傾き判定部1102が追加された構成である。傾き判定部1102は、傾き検出器1101の検出結果を解析して、情報処理装置801の本体の傾き(姿勢)の判定を行う。   FIG. 10B is a functional block diagram of the information processing apparatus 801. The information processing apparatus 801 has a configuration in which an inclination determination unit 1102 is added to the functions configured in the information processing apparatus 100 of the first embodiment. The inclination determination unit 1102 analyzes the detection result of the inclination detector 1101 and determines the inclination (posture) of the main body of the information processing apparatus 801.

図11は、このような情報処理装置801による、ステップS203の処理を表すフローチャートである。第1実施形態の図7(a)の処理と同じ処理には、同じステップ番号を付してある。   FIG. 11 is a flowchart showing the process of step S203 by the information processing apparatus 801. The same step number is attached | subjected to the process same as the process of Fig.7 (a) of 1st Embodiment.

画像処理部111は、図7(a)のステップS601と同様に、受信者803の顔領域の中心座標を検出する(S601)。画像処理部111は、検出した顔領域の中心座標が図9(c)の指定領域811、812のいずれかに含まれるか否かを判断する(S1201)。中心座標が指定領域811、812のいずれかに含まれる場合(S1201:Y)、方向特定部112は、後述する補足情報を用いて通信機器402が存在する方向解析を行う(S1202)。補足情報は、通信機器402が存在する方向を特定可能な、受信者803の顔領域以外の情報である。補足情報を用いた方向解析を行うことで、通信機器402が存在する方向を求める。方向特定部112は、方向解析の結果と受信者803の顔領域の中心座標に基づいて、情報処理装置801に対する通信機器402が存在する方向を特定して、処理を終了する(S1203)。   The image processing unit 111 detects the center coordinates of the face area of the receiver 803 as in step S601 in FIG. 7A (S601). The image processing unit 111 determines whether or not the center coordinates of the detected face area are included in any of the designated areas 811 and 812 in FIG. 9C (S1201). When the center coordinates are included in any of the designated areas 811 and 812 (S1201: Y), the direction specifying unit 112 performs direction analysis in which the communication device 402 exists using supplementary information described later (S1202). The supplemental information is information other than the face area of the receiver 803 that can specify the direction in which the communication device 402 exists. A direction in which the communication device 402 exists is obtained by performing a direction analysis using the supplementary information. The direction specifying unit 112 specifies the direction in which the communication device 402 exists for the information processing device 801 based on the result of the direction analysis and the center coordinates of the face area of the receiver 803, and ends the processing (S1203).

受信者803の顔領域の中心座標が指定領域811、812のいずれにも含まれない場合(S1201:N)、図7(a)のステップS602以降の処理が行われる。方向特定部112は、通信機器402が存在する方向を特定して処理を終了する(S603)。   When the center coordinate of the face area of the receiver 803 is not included in any of the designated areas 811 and 812 (S1201: N), the processing after step S602 in FIG. 7A is performed. The direction specifying unit 112 specifies the direction in which the communication device 402 exists and ends the process (S603).

ステップS1202の処理について、受信者803の顔領域の変化を補足情報として利用する場合について説明する。   Regarding the processing in step S1202, a case where a change in the face area of the recipient 803 is used as supplementary information will be described.

図12は、送信者が所有する情報処理装置801で連続して撮像される画像に、受信者の顔画像が写り込んでくる様子を表す図である。図12(a)は、情報処理装置801の前方向に通信機器402が位置する場合(図9(a)の状態)を表す図である。図12(b)は、情報処理装置801の左方向に通信機器402が位置する場合(図9(b)の状態)を表す図である。   FIG. 12 is a diagram illustrating a state in which the face image of the receiver is reflected in images continuously captured by the information processing apparatus 801 owned by the sender. FIG. 12A is a diagram illustrating a case where the communication device 402 is located in the front direction of the information processing apparatus 801 (the state illustrated in FIG. 9A). FIG. 12B is a diagram illustrating a case where the communication device 402 is located in the left direction of the information processing device 801 (state in FIG. 9B).

図12(a)の場合、受信者803の顔画像905、906、907が、送信者の顔画像805とともに、情報処理装置801のカメラ107により撮像された画像804に写り込む。(a−1)、(a−2)の画像804において、受信者803の顔画像905、906は、画像804からはみ出している。はみ出した部分は、撮像されない部分であるが、写り込む様子をわかりやすくするために、図12(a)、(b)では表示する。   In the case of FIG. 12A, the face images 905, 906, and 907 of the receiver 803 are reflected in the image 804 captured by the camera 107 of the information processing apparatus 801 together with the face image 805 of the sender. In the images 804 of (a-1) and (a-2), the face images 905 and 906 of the recipient 803 are protruding from the image 804. The protruding portion is a portion that is not imaged, but is displayed in FIGS. 12A and 12B in order to make it easier to understand the appearance of the image.

(a−1)、(a−2)、(a−3)の順に画像804は生成される。(a−1)では受信者803の顔画像905の一部、(a−2)では受信者803の顔画像の半分906、(a−3)では受信者803の顔画像907の全部が写り込んでいる。図12(a)では、受信者803の顔画像905〜907が、画像804内を上から下に移動している。この顔画像905〜907の動きを識別することで、通信機器402の情報処理装置801に対する方向を特定する。情報処理装置801は、受信者803の顔画像905〜907が画像804内を上から下に移動する場合、通信機器402が前方向であると特定する。   The image 804 is generated in the order of (a-1), (a-2), and (a-3). (A-1) shows a part of the face image 905 of the receiver 803, (a-2) shows a half 906 of the face image of the receiver 803, and (a-3) shows the entire face image 907 of the receiver 803. It is crowded. In FIG. 12A, the face images 905 to 907 of the recipient 803 are moving from the top to the bottom in the image 804. By identifying the movement of the face images 905 to 907, the direction of the communication device 402 relative to the information processing device 801 is specified. When the face image 905 to 907 of the receiver 803 moves from the top to the bottom in the image 804, the information processing device 801 specifies that the communication device 402 is forward.

図12(b)の場合、(b−1)〜(b−3)に示すように、受信者803の顔画像908〜910が、画像804内を左から右に移動している。この場合、情報処理装置801は、通信機器402が左方向であると特定する。   In the case of FIG. 12B, as shown in (b-1) to (b-3), the face images 908 to 910 of the receiver 803 are moved from the left to the right in the image 804. In this case, the information processing device 801 specifies that the communication device 402 is in the left direction.

このように、情報処理装置801は、受信者803の顔画像の移動方向を補足情報として、通信機器402が存在する方向を特定する。補足情報の取得のために、カメラ107が撮像した画像804を表す画像データが、記憶部113に一定時間(例えば2秒間)記憶される。ステップS1202の処理の際には、画像処理部111が、記憶部113から画像データを読み出して顔領域の位置が変化する方向を解析する。   In this way, the information processing device 801 specifies the direction in which the communication device 402 exists, using the movement direction of the face image of the receiver 803 as supplementary information. In order to acquire supplementary information, image data representing the image 804 captured by the camera 107 is stored in the storage unit 113 for a predetermined time (for example, 2 seconds). In the process of step S1202, the image processing unit 111 reads the image data from the storage unit 113 and analyzes the direction in which the position of the face area changes.

ステップS1202の処理について、送信者が所有する情報処理装置801の本体の傾き(姿勢)の変化を補足情報として利用する場合について説明する。   Regarding the processing in step S1202, a case will be described in which a change in the tilt (posture) of the main body of the information processing apparatus 801 owned by the sender is used as supplementary information.

図13は、情報処理装置801の本体の傾きが変化する様子を表す図である。図13(a)は、情報処理装置801の前方向に通信機器402が位置する場合(図9(a))の、情報処理装置801の本体の傾きの変化を表す。図13(b)は、情報処理装置801の左方向に通信機器402が位置する場合(図9(b))の、情報処理装置801の本体の傾きの変化を表す。   FIG. 13 is a diagram illustrating how the inclination of the main body of the information processing apparatus 801 changes. FIG. 13A shows a change in the inclination of the main body of the information processing apparatus 801 when the communication device 402 is located in the forward direction of the information processing apparatus 801 (FIG. 9A). FIG. 13B shows a change in the inclination of the main body of the information processing apparatus 801 when the communication device 402 is located in the left direction of the information processing apparatus 801 (FIG. 9B).

図13(a)では、情報処理装置801が回転軸1005(ピッチ)に対して回転する。(a−1)〜(a−3)の順に、情報処理装置801は回転する。図13(a)は、情報処理装置801が前方向に傾いていく様子を表す。情報処理装置801のこの動きは、例えば、受信者803にこれから送信する写真を閲覧させる動きであり、また、受信者803が所有する通信機器402に写真の画像データを送信するための準備動作でもある。   In FIG. 13A, the information processing apparatus 801 rotates with respect to the rotation axis 1005 (pitch). The information processing apparatus 801 rotates in the order of (a-1) to (a-3). FIG. 13A shows a state where the information processing apparatus 801 is tilted forward. This movement of the information processing apparatus 801 is, for example, a movement that causes the receiver 803 to browse a picture to be transmitted in the future, and is also a preparatory operation for transmitting picture image data to the communication device 402 owned by the receiver 803. is there.

通信機器402が情報処理装置801の前方向に位置する場合は、このように、情報処理装置801が前方向に傾けられる。傾き判定部1102が、この傾きの変化(ピッチの変化)を取得、判定することで、通信機器402が存在する方向を特定することができる。   When the communication device 402 is located in the forward direction of the information processing apparatus 801, the information processing apparatus 801 is tilted in the forward direction in this way. The inclination determination unit 1102 can acquire and determine the change in inclination (change in pitch), thereby specifying the direction in which the communication device 402 exists.

図13(b)では、情報処理装置801が回転軸1006(ロール)に対して回転する。(b−1)〜(b−3)に示すように、情報処理装置801の本体は、左方向に傾く。傾き判定部1102が、この傾きの変化(ロールの変化)を取得、判定することで、通信機器402が、情報処理装置801の左方向に位置することを特定することができる(図9(b))。   In FIG.13 (b), the information processing apparatus 801 rotates with respect to the rotating shaft 1006 (roll). As shown in (b-1) to (b-3), the main body of the information processing apparatus 801 is tilted leftward. The inclination determination unit 1102 acquires and determines the change in inclination (change in roll), thereby specifying that the communication device 402 is located in the left direction of the information processing apparatus 801 (FIG. 9B). )).

以上は、図9(c)の指定領域811に受信者803の顔領域の中心座標が存在する場合の処理の説明である。図9(c)の指定領域812に受信者803の顔領域の中心座標が存在する場合も同様の処理により、通信機器402が存在する方向の特定が可能である。   The above is an explanation of the processing when the center coordinates of the face area of the receiver 803 exist in the designated area 811 in FIG. Even when the center coordinates of the face area of the receiver 803 exist in the designated area 812 in FIG. 9C, the direction in which the communication device 402 exists can be specified by the same processing.

ステップS1202の処理について、送信者が所有する情報処理装置801の本体の傾きを補足情報として利用する場合について説明する。   The case where the inclination of the main body of the information processing apparatus 801 owned by the sender is used as supplementary information will be described for the processing in step S1202.

上述の通り、送信者が情報処理装置801を傾ける動作は、受信者803にこれから送信する写真を閲覧させる動きであり、また、受信者803が所有する通信機器402に写真の画像データを送信するための準備動作でもある。そのために、送信者は、情報処理装置801を受信者側にある程度傾けて動作を止める。例えば図13(a)の(a−3)や、図13(b)の(b−3)の状態で、送信者は情報処理装置801を傾ける動きを止める。この止めた状態の情報処理装置801の傾きを補足情報として利用する。   As described above, the operation in which the sender tilts the information processing apparatus 801 is a movement that causes the receiver 803 to browse a picture to be transmitted, and transmits image data of the photograph to the communication device 402 owned by the receiver 803. It is also a preparation operation. Therefore, the sender stops the operation by tilting the information processing apparatus 801 to the receiver side to some extent. For example, in the state of (a-3) in FIG. 13A or (b-3) in FIG. 13B, the sender stops the movement of tilting the information processing apparatus 801. The inclination of the information processing apparatus 801 in the stopped state is used as supplementary information.

傾き判定部1102が情報処理装置801の傾きを判定して、判定結果により通信機器402が存在する方向を特定する。情報処理装置801が前方向に傾いている場合は、通信機器402が前方向にあると特定する。情報処理装置801が左方向に傾いている場合は、通信機器402が左方向にあると特定する。情報処理装置801が右方向に傾いている場合は、通信機器402が右方向にあると特定する。情報処理装置801が後方向に傾いている場合は、通信機器402が後方向にあると特定する。情報処理装置801の傾きは、一方向であるとは限らない。そのために傾き判定部1102は、前、右、左、後の4方向のうち、最大の傾きの方向に情報処理装置801が傾いていると判定する。   The inclination determination unit 1102 determines the inclination of the information processing apparatus 801 and specifies the direction in which the communication device 402 exists based on the determination result. When the information processing apparatus 801 is inclined forward, it is specified that the communication device 402 is forward. When the information processing apparatus 801 is tilted leftward, it is specified that the communication device 402 is leftward. If the information processing device 801 is tilted to the right, the communication device 402 is specified to be in the right direction. When the information processing apparatus 801 is tilted backward, it is specified that the communication device 402 is backward. The inclination of the information processing apparatus 801 is not always unidirectional. Therefore, the inclination determination unit 1102 determines that the information processing apparatus 801 is inclined in the maximum inclination direction among the four directions of front, right, left, and rear.

以上のような補足情報を組み合わせて用いてもよい。例えば、受信者803の顔領域の変化、情報処理装置801の本体の傾きの変化、及び情報処理装置801の傾きの各々に応じて通信機器402が存在する方向を特定し、多数決で最終的な方向を決定してもよい。また、各補足情報に優先度を設け、優先度の高い補足情報により方向を特定してもよい。この場合、特定した方向が正確さを欠く場合に、次に優先度の高い補足情報により方向を特定する。   You may use combining the above supplementary information. For example, the direction in which the communication device 402 exists is specified according to each of the change in the face area of the receiver 803, the change in the inclination of the main body of the information processing apparatus 801, and the inclination of the information processing apparatus 801, The direction may be determined. Moreover, a priority may be provided for each supplemental information, and the direction may be specified by supplemental information having a high priority. In this case, when the specified direction lacks accuracy, the direction is specified by supplementary information having the next highest priority.

このように第2実施形態では、補足情報を用いて通信機器402が存在する方向を決定する。そのために、受信者803の顔領域の位置からでは判断が困難な場合でも、精度よく通信機器402が存在する方向を特定することが可能となる。   Thus, in 2nd Embodiment, the direction where the communication apparatus 402 exists is determined using supplementary information. Therefore, even when it is difficult to determine from the position of the face area of the receiver 803, the direction in which the communication device 402 exists can be accurately identified.

<その他の変形例>
以上本発明に係る実施形態を説明したが、先に説明したように、情報処理装置は、通常のパーソナルコンピュータ等の汎用情報処理装置であって、その上で動作するコンピュータプログラムで実現できるものである。よって、本発明はコンピュータプログラムをその範疇とすることは明らかである。また、通常、コンピュータプログラムは、CDROM等のコンピュータ読み取り可能な記憶媒体に格納されており、それをコンピュータの対応するドライブにセットしてシステムにコピーやインストール処理することで実行可能となる。よって、本発明は当然にそのようなコンピュータ可読記憶媒体をもその範疇とすることも明らかである。
<Other variations>
Although the embodiment according to the present invention has been described above, as described above, the information processing apparatus is a general-purpose information processing apparatus such as a normal personal computer and can be realized by a computer program that operates on the general-purpose information processing apparatus. is there. Therefore, it is obvious that the present invention falls within the category of computer programs. In general, the computer program is stored in a computer-readable storage medium such as a CDROM, and can be executed by setting it in a corresponding drive of the computer and copying or installing it in the system. Therefore, it is obvious that the present invention includes such a computer-readable storage medium as a category.

100,801…情報処理装置、101…CPU、102…ROM、103…RAM、104…HDD、105…タッチパネル、106…通信I/F、107…カメラ、108…システムバス、1101…傾き検出器、109…撮像部、110…顔特定部、111…画像処理部、112…方向特定部、113…記憶部、114…UI画面生成部、115…送信部、116…判定部、117…方向取得部、118…入力部、119…受信部、1102…傾き判定部   DESCRIPTION OF SYMBOLS 100,801 ... Information processing apparatus, 101 ... CPU, 102 ... ROM, 103 ... RAM, 104 ... HDD, 105 ... Touch panel, 106 ... Communication I / F, 107 ... Camera, 108 ... System bus, 1101 ... Tilt detector, DESCRIPTION OF SYMBOLS 109 ... Imaging part, 110 ... Face specific part, 111 ... Image processing part, 112 ... Direction specific part, 113 ... Memory | storage part, 114 ... UI screen production | generation part, 115 ... Transmission part, 116 ... Determination part, 117 ... Direction acquisition part , 118... Input unit, 119... Reception unit, 1102.

Claims (14)

撮像手段と、
複数の人物の登録顔画像を、各人物が所有する通信機器に関連付けて記憶する記憶手段と、
前記撮像手段により撮像された人物の顔画像を含む画像から検出された顔画像と、前記記憶手段に記憶された登録顔画像とに基づいて、前記検出された顔画像に関連付けられた人物を特定する顔特定手段と、
前記撮像手段により撮像された前記画像内の前記顔画像が表示される領域に応じて、前記顔特定手段により特定された人物が所有する通信機器が存在する方向を特定する方向特定手段と、を備えることを特徴とする、
情報処理装置。
Imaging means;
Storage means for storing registered face images of a plurality of persons in association with communication devices owned by each person;
The person associated with the detected face image is identified based on the face image detected from the image including the face image of the person imaged by the imaging unit and the registered face image stored in the storage unit Face identification means to
Direction specifying means for specifying a direction in which a communication device owned by the person specified by the face specifying means exists according to a region in which the face image in the image picked up by the image pickup means is displayed; Characterized by comprising,
Information processing device.
前記検出した顔画像が表示される領域の中心座標を検出する検出手段を備え、
前記方向特定手段は、前記中心座標の前記画像内における位置に応じて、前記顔特定手段により特定された人物が所有する通信機器が存在する方向を特定することを特徴とする、
請求項1記載の情報処理装置。
Detecting means for detecting a center coordinate of a region where the detected face image is displayed;
The direction specifying unit specifies a direction in which a communication device owned by the person specified by the face specifying unit exists according to a position of the central coordinate in the image.
The information processing apparatus according to claim 1.
前記検出した顔画像から顔の器官の位置を検出する器官検出手段を備え、
前記方向特定手段は、検出された前記顔の器官の位置により特定される該顔の向きに応じて、前記顔特定手段により特定された人物が所有する通信機器が存在する方向を特定することを特徴とする、
請求項1記載の情報処理装置。
Organ detecting means for detecting the position of a facial organ from the detected face image;
The direction specifying unit specifies a direction in which a communication device owned by the person specified by the face specifying unit exists according to the face orientation specified by the detected position of the facial organ. Features
The information processing apparatus according to claim 1.
前記検出した顔画像が表示される領域の中心座標を検出する検出手段を備え、
前記方向特定手段は、前記中心座標に最も近接する前記画像の縁部に応じて、前記顔特定手段により特定された人物が所有する通信機器が存在する方向を特定することを特徴とする、
請求項1記載の情報処理装置。
Detecting means for detecting a center coordinate of a region where the detected face image is displayed;
The direction specifying unit specifies a direction in which a communication device owned by the person specified by the face specifying unit exists according to an edge of the image closest to the center coordinate.
The information processing apparatus according to claim 1.
前記検出した顔画像が表示される領域の中心座標を検出する検出手段を備え、
前記記憶手段は、この情報処理装置の所有者の登録顔画像を他の人物の登録顔画像とともに記憶しており、
前記顔特定手段は、前記撮像手段により撮像された前記画像から、前記所有者の顔画像及び他の人物の顔画像を検出し、前記記憶手段に記憶された前記登録顔画像を参照して、検出した各顔画像に関連付けられた前記所有者及び他の人物を特定し、
前記方向特定手段は、前記所有者の顔画像が表示される領域の中心座標及び前記他の人物の顔画像が表示される領域の中心座標に応じて、特定した前記他の人物が所有する通信機器が存在する方向を特定することを特徴とする、
請求項1記載の情報処理装置。
Detecting means for detecting a center coordinate of a region where the detected face image is displayed;
The storage means stores a registered face image of the owner of the information processing apparatus together with registered face images of other persons,
The face identifying unit detects the face image of the owner and the face image of another person from the image captured by the imaging unit, and refers to the registered face image stored in the storage unit, Identify the owner and other person associated with each detected face image;
The direction specifying means is a communication owned by the specified other person according to the center coordinates of the area where the face image of the owner is displayed and the center coordinates of the area where the face image of the other person is displayed. It is characterized by identifying the direction in which the device exists,
The information processing apparatus according to claim 1.
前記検出した顔画像が表示される領域の中心座標を検出する検出手段を備え、
前記記憶手段は、前記顔画像が表示されても、前記顔特定手段により特定された人物が所有する通信機器が存在する方向を特定することができない、前記画像内の領域である指定領域を記憶しており、
前記方向特定手段は、前記中心座標が前記指定領域に含まれれば、前記通信機器が存在する方向を特定可能な、前記顔画像が表示される領域以外の情報である補足情報を用いた方向解析を行い、方向解析の結果及び前記中心座標の位置に応じて、前記顔特定手段により特定された人物が所有する通信機器が存在する方向を特定することを特徴とする、
請求項1記載の情報処理装置。
Detecting means for detecting a center coordinate of a region where the detected face image is displayed;
The storage means stores a designated area, which is an area in the image, that cannot identify a direction in which a communication device owned by the person specified by the face specifying means exists even if the face image is displayed. And
The direction specifying means can specify a direction in which the communication device exists if the center coordinate is included in the designated area, and can perform direction analysis using supplemental information that is information other than the area where the face image is displayed. Performing a direction analysis and specifying a direction in which a communication device owned by the person specified by the face specifying means exists according to the result of the direction analysis and the position of the center coordinate,
The information processing apparatus according to claim 1.
情報処理装置の本体の一面にディスプレイを備えており、
前記撮像手段は、ディスプレイと同じ面に設けられ、前記ディスプレイを閲覧しようとする人物の顔を撮影可能な位置及び方向に設置されたインカメラであり、前記インカメラが撮像した前記画像は前記ディスプレイに表示されないことを特徴とする、
請求項1〜6のいずれか1項に記載の情報処理装置。
It has a display on one side of the main body of the information processing device,
The imaging means is an in-camera that is provided on the same surface as the display and is installed at a position and a direction in which a face of a person who is browsing the display can be photographed. The image captured by the in-camera is the display Is not displayed in the
The information processing apparatus according to claim 1.
撮像手段と、
タッチパネルに対するタッチ操作の方向を検出する入力手段と、
複数の人物の登録顔画像を、各人物が所有する通信機器に関連付けて記憶する記憶手段と、
前記撮像手段により撮像された人物の顔画像を含む画像から検出された顔画像と、前記記憶手段に記憶された登録顔画像とに基づいて、前記検出された顔画像に関連付けられた人物を特定する顔特定手段と、
前記撮像手段により撮像された前記画像内の前記顔画像が表示される領域に応じて、前記顔特定手段により特定された前記人物が所有する通信機器が存在する方向を特定する方向特定手段と、
前記入力手段で検出した前記タッチ操作の方向と前記方向特定手段で特定した方向とが一致するか否かを判定する判定手段と、
前記判定手段による判定の結果、一致する場合に、前記顔特定手段により特定された人物が所有する通信機器へ電子データを送信する送信手段と、を備えることを特徴とする、
情報処理装置。
Imaging means;
Input means for detecting the direction of the touch operation on the touch panel;
Storage means for storing registered face images of a plurality of persons in association with communication devices owned by each person;
The person associated with the detected face image is identified based on the face image detected from the image including the face image of the person imaged by the imaging unit and the registered face image stored in the storage unit Face identification means to
Direction specifying means for specifying a direction in which a communication device owned by the person specified by the face specifying means exists according to a region in which the face image in the image picked up by the image pickup means is displayed;
Determining means for determining whether or not the direction of the touch operation detected by the input means matches the direction specified by the direction specifying means;
A transmission means for transmitting electronic data to a communication device owned by the person specified by the face specifying means when they match as a result of the determination by the determination means;
Information processing device.
撮像手段と、
複数の人物の登録顔画像を、各人物が所有する通信機器に関連付けて記憶する第1の記憶手段と、
前記撮像手段により撮像された人物の顔画像を含む画像から検出された顔画像と、前記第1の記憶手段に記憶された登録顔画像とに基づいて、前記検出された顔画像に関連付けられた人物を特定する顔特定手段と、
前記検出した顔画像が表示される領域の中心座標を検出する検出手段と、
前記顔画像が表示されても、前記顔特定手段により特定された人物が所有する通信機器が存在する方向を特定することができない、前記画像内の領域である指定領域を記憶する第2の記憶手段と、
前記中心座標が前記指定領域に含まれれば、前記撮像手段により撮像された前記画像内の前記顔画像が表示される領域に応じて、前記顔特定手段により特定された人物が所有する通信機器が存在する方向を特定し、前記中心座標が前記指定領域に含まれなければ、前記通信機器が存在する方向を特定可能な、前記顔画像が表示される領域以外の情報である補足情報を用いた方向解析を行い、方向解析の結果及び前記中心座標の位置に応じて、前記顔特定手段により特定された人物が所有する通信機器が存在する方向を特定する方向特定手段と、を備えることを特徴とする、
情報処理装置。
Imaging means;
First storage means for storing a registered face image of a plurality of persons in association with a communication device owned by each person;
Based on the face image detected from the image including the face image of the person imaged by the imaging unit and the registered face image stored in the first storage unit, the image is associated with the detected face image. A face identification means for identifying a person,
Detecting means for detecting center coordinates of a region where the detected face image is displayed;
A second memory for storing a designated area, which is an area in the image, in which a direction in which a communication device owned by the person specified by the face specifying means is present cannot be specified even if the face image is displayed. Means,
If the center coordinate is included in the designated area, a communication device owned by the person specified by the face specifying means according to the area where the face image in the image picked up by the image pickup means is displayed. The supplementary information, which is information other than the area where the face image is displayed, can be used to identify the direction in which the communication device exists if the existing direction is specified and the central coordinate is not included in the designated area. Direction identification means for performing direction analysis and identifying a direction in which a communication device owned by the person identified by the face identification means exists according to the result of the direction analysis and the position of the central coordinate. And
Information processing device.
情報処理装置の本体の傾きを検出する傾き検出手段を備え、
前記方向特定手段は、前記本体の傾きを補足情報として、前記顔特定手段により特定された人物が所有する通信機器が存在する方向解析を行うことを特徴とする、
請求項9記載の情報処理装置。
Inclination detecting means for detecting the inclination of the main body of the information processing apparatus,
The direction specifying unit performs a direction analysis in which a communication device owned by the person specified by the face specifying unit exists with the tilt of the main body as supplementary information.
The information processing apparatus according to claim 9.
情報処理装置の本体の傾きの変化を検出する傾き検出手段を備え、
前記方向特定手段は、前記本体の傾きの変化を補足情報として、前記顔特定手段により特定された人物が所有する通信機器が存在する方向解析を行うことを特徴とする、
請求項9記載の情報処理装置。
Inclination detection means for detecting a change in the inclination of the main body of the information processing apparatus,
The direction specifying unit performs a direction analysis in which a communication device owned by the person specified by the face specifying unit exists using supplemental information on a change in tilt of the main body,
The information processing apparatus according to claim 9.
前記方向特定手段は、前記撮像手段により連続して撮像された前記画像内の前記顔画像が表示される領域の変化を補足情報として、前記顔特定手段により特定された人物が所有する通信機器が存在する方向解析を行うことを特徴とする、
請求項9記載の情報処理装置。
The direction specifying means may be a communication device owned by the person specified by the face specifying means, using as a supplementary information a change in the area in which the face image is displayed in the images continuously captured by the imaging means. It is characterized by analyzing the existing direction,
The information processing apparatus according to claim 9.
撮像手段と、複数の人物の登録用の登録顔画像を、各人物が所有する通信機器に関連付けて記憶する記憶手段と、を備えた情報処理装置により実行される方法であって、
前記撮像手段により撮像された人物の顔画像を含む画像から検出された顔画像と、前記記憶手段に記憶された前記登録顔画像とに基づいて、前記検出された顔画像に関連付けられた人物を特定するステップと、
前記撮像手段により撮像された前記画像内の前記顔画像が表示される領域を特定するステップと、
特定した前記顔画像が表示される領域に応じて、前記特定された人物が所有する通信機器が存在する方向を特定するステップと、を含むことを特徴とする、
方向特定方法。
A method executed by an information processing apparatus comprising: an imaging unit; and a storage unit that stores registration face images for registration of a plurality of persons in association with communication devices owned by each person,
Based on the face image detected from the image including the face image of the person imaged by the imaging means and the registered face image stored in the storage means, the person associated with the detected face image is determined. Identifying steps;
Identifying a region in which the face image is displayed in the image captured by the imaging means;
Identifying a direction in which a communication device owned by the identified person is present in accordance with an area in which the identified face image is displayed,
Direction identification method.
撮像手段を備えたコンピュータに、
複数の人物の登録用の登録顔画像を、各人物が所有する通信機器に関連付けて記憶する記憶手段、
前記撮像手段により撮像された人物の顔画像を含む画像から検出された顔画像と、前記記憶手段に記憶された前記登録顔画像とに基づいて、前記検出された顔画像に関連付けられた人物を特定する顔特定手段、
前記撮像手段により撮像された前記画像内の前記顔画像が表示される領域に応じて、前記顔特定手段により特定された前記人物が所有する通信機器が存在する方向を特定する方向特定手段、
を形成するためのコンピュータプログラム。
In a computer equipped with imaging means,
Storage means for storing a registered face image for registration of a plurality of persons in association with a communication device owned by each person;
Based on the face image detected from the image including the face image of the person imaged by the imaging means and the registered face image stored in the storage means, the person associated with the detected face image is determined. Face identification means to identify,
Direction specifying means for specifying a direction in which a communication device owned by the person specified by the face specifying means exists according to an area in which the face image in the image picked up by the image pickup means is displayed;
Computer program to form.
JP2013141734A 2013-07-05 2013-07-05 Information processing apparatus, direction specifying method, computer program, and storage medium Active JP6164958B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013141734A JP6164958B2 (en) 2013-07-05 2013-07-05 Information processing apparatus, direction specifying method, computer program, and storage medium
US14/322,309 US9406136B2 (en) 2013-07-05 2014-07-02 Information processing device, information processing method and storage medium for identifying communication counterpart based on image including person

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013141734A JP6164958B2 (en) 2013-07-05 2013-07-05 Information processing apparatus, direction specifying method, computer program, and storage medium

Publications (3)

Publication Number Publication Date
JP2015015634A true JP2015015634A (en) 2015-01-22
JP2015015634A5 JP2015015634A5 (en) 2016-08-18
JP6164958B2 JP6164958B2 (en) 2017-07-19

Family

ID=52437067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013141734A Active JP6164958B2 (en) 2013-07-05 2013-07-05 Information processing apparatus, direction specifying method, computer program, and storage medium

Country Status (1)

Country Link
JP (1) JP6164958B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007067782A (en) * 2005-08-31 2007-03-15 Softbank Mobile Corp Electronic equipment
JP2008288639A (en) * 2007-05-15 2008-11-27 Nec Corp Imaging apparatus
JP2011172089A (en) * 2010-02-19 2011-09-01 Nikon Corp Electronic apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007067782A (en) * 2005-08-31 2007-03-15 Softbank Mobile Corp Electronic equipment
JP2008288639A (en) * 2007-05-15 2008-11-27 Nec Corp Imaging apparatus
JP2011172089A (en) * 2010-02-19 2011-09-01 Nikon Corp Electronic apparatus

Also Published As

Publication number Publication date
JP6164958B2 (en) 2017-07-19

Similar Documents

Publication Publication Date Title
US20230316683A1 (en) Video clip object tracking
JP7058760B2 (en) Image processing methods and their devices, terminals and computer programs
US11513608B2 (en) Apparatus, method and recording medium for controlling user interface using input image
EP2770729B1 (en) Apparatus and method for synthesizing an image in a portable terminal equipped with a dual camera
KR102022444B1 (en) Method for synthesizing valid images in mobile terminal having multi camera and the mobile terminal therefor
KR102114377B1 (en) Method for previewing images captured by electronic device and the electronic device therefor
KR102028952B1 (en) Method for synthesizing images captured by portable terminal, machine-readable storage medium and portable terminal
EP3547218B1 (en) File processing device and method, and graphical user interface
US20140300542A1 (en) Portable device and method for providing non-contact interface
KR20170016215A (en) Mobile terminal and method for controlling the same
TW201346640A (en) Image processing device, and computer program product
US20170214856A1 (en) Method for controlling motions and actions of an apparatus including an image capture device having a moving device connected thereto using a controlling device
KR20140012757A (en) Facilitating image capture and image review by visually impaired users
US20140354784A1 (en) Shooting method for three dimensional modeling and electronic device supporting the same
KR20140002009A (en) Input device, input method and recording medium
JP6433923B2 (en) Providing a specific object location to the device
US9406136B2 (en) Information processing device, information processing method and storage medium for identifying communication counterpart based on image including person
JP2019117378A (en) Electronic apparatus, information system, server and program
JP2009094868A (en) Information processing apparatus, remote indication system and program
CN115702443A (en) Applying stored digital makeup enhancements to recognized faces in digital images
US9350918B1 (en) Gesture control for managing an image view display
KR102076629B1 (en) Method for editing images captured by portable terminal and the portable terminal therefor
JP6164958B2 (en) Information processing apparatus, direction specifying method, computer program, and storage medium
JP6486077B2 (en) Display device, server device, display system, control method therefor, control program, and storage medium
KR102084161B1 (en) Electro device for correcting image and method for controlling thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160628

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170620

R151 Written notification of patent or utility model registration

Ref document number: 6164958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151