JP2013151045A - Information processing apparatus and program - Google Patents

Information processing apparatus and program Download PDF

Info

Publication number
JP2013151045A
JP2013151045A JP2012013421A JP2012013421A JP2013151045A JP 2013151045 A JP2013151045 A JP 2013151045A JP 2012013421 A JP2012013421 A JP 2012013421A JP 2012013421 A JP2012013421 A JP 2012013421A JP 2013151045 A JP2013151045 A JP 2013151045A
Authority
JP
Japan
Prior art keywords
notification
unit
target character
robot
notification target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012013421A
Other languages
Japanese (ja)
Inventor
Yoichi Yamane
陽一 山根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2012013421A priority Critical patent/JP2013151045A/en
Publication of JP2013151045A publication Critical patent/JP2013151045A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus capable of effectively making an appeal to an object of notification, and to provide a program.SOLUTION: An information processing apparatus includes: a robot installed in a moving body and having a plurality of movable units and a drive unit of driving the movable units; an image pickup unit provided to the robot and picking up an image around the vicinity of the robot; a recognition means for recognizing characters contained in the image; a detection means for detecting a predetermined notification object character from among the characters recognized by the recognition means; and a notification means for controlling the drive unit and notifying that the notification object character is detected by an operation of the robot.

Description

本発明の実施形態は、情報処理装置及びプログラムに関する。   Embodiments described herein relate generally to an information processing apparatus and a program.

従来、ショッピングカート等の移動体に情報端末を設け、この情報端末に静止画や動画を表示することで、店舗で行われるイベントや商品に関する情報等を利用者に報知する技術が提案されている。   2. Description of the Related Art Conventionally, a technology has been proposed in which an information terminal is provided on a mobile object such as a shopping cart and a user is notified of information on events and products performed in a store by displaying still images and moving images on the information terminal. .

しかしながら、上記従来の技術では、利用者への訴求の観点において改善の余地があり、報知対象を有効に利用者にアピールすることが可能な技術が望まれている。   However, in the above conventional technique, there is room for improvement in terms of appealing to the user, and a technique capable of effectively appealing the notification target to the user is desired.

実施の形態の情報処理装置は、ロボットと、撮像部と、認識手段と、検出手段と、報知手段とを備える。ロボットは、移動体に設置され、複数の可動部及び当該可動部を駆動する駆動部を有する。撮像部は、ロボットに設けられ、当該ロボット周辺の画像を撮像する。認識手段は、画像に含まれた文字を認識する。検出手段は、認識手段で認識された文字の中から所定の報知対象文字を検出する。報知手段は、駆動部を制御し、ロボットの動作により報知対象文字が検出されたことを報知する。   The information processing apparatus according to the embodiment includes a robot, an imaging unit, a recognition unit, a detection unit, and a notification unit. The robot is installed on a moving body and has a plurality of movable parts and a drive part that drives the movable parts. The imaging unit is provided in the robot and captures an image around the robot. The recognition means recognizes characters included in the image. The detection means detects a predetermined notification target character from the characters recognized by the recognition means. The notification means controls the drive unit to notify that the notification target character is detected by the operation of the robot.

図1は、実施形態に係る情報処理装置(買物アシスト装置)の使用例を示す図である。FIG. 1 is a diagram illustrating a usage example of the information processing apparatus (shopping assist apparatus) according to the embodiment. 図2は、実施形態に係る買物アシスト装置の外観を示す斜視図である。FIG. 2 is a perspective view illustrating an appearance of the shopping assist device according to the embodiment. 図3は、実施形態に係る買物アシスト装置の外観の一部を示す正面図である。Drawing 3 is a front view showing a part of appearance of a shopping assistant device concerning an embodiment. 図4は、実施形態に係る買物アシスト装置の外観を示す底面図である。FIG. 4 is a bottom view showing an appearance of the shopping assist apparatus according to the embodiment. 図5は、実施形態に係る買物アシスト装置の外観を示す側面図であって、腕部が回動した状態を示す図である。FIG. 5 is a side view showing an appearance of the shopping assist device according to the embodiment, and is a view showing a state in which an arm portion is rotated. 図6は、実施形態に係る買物アシスト装置の頭部の外観を示す平面図である。FIG. 6 is a plan view showing the external appearance of the head of the shopping assistance apparatus according to the embodiment. 図7は、実施形態に係る買物アシスト装置の頭部の外観を示す側面図である。FIG. 7 is a side view showing the appearance of the head of the shopping assistance apparatus according to the embodiment. 図8は、実施形態に係る買物アシスト装置の構成を示す図である。FIG. 8 is a diagram illustrating a configuration of the shopping assist device according to the embodiment. 図9は、報知対象文字データの一例を模式的に示す図である。FIG. 9 is a diagram schematically illustrating an example of notification target character data. 図10は、報知方向特定データの一例を模式的に示す図である。FIG. 10 is a diagram schematically illustrating an example of notification direction specifying data. 図11は、動作パターンデータの一例を模式的に示す図である。FIG. 11 is a diagram schematically illustrating an example of operation pattern data. 図12は、本実施形態に係る買物アシスト装置が行う買物アシスト処理の手順を示すフローチャートである。FIG. 12 is a flowchart illustrating a procedure of shopping assist processing performed by the shopping assist device according to the present embodiment. 図13は、本実施形態に係る買物アシスト装置の撮像部で撮像された画像の一例を示す図である。FIG. 13 is a diagram illustrating an example of an image captured by the imaging unit of the shopping assist apparatus according to the present embodiment. 図14は、本実施形態に係る買物アシスト装置の動作の一例を示す図である。FIG. 14 is a diagram illustrating an example of the operation of the shopping assist apparatus according to the present embodiment.

図1は、実施形態に係る情報処理装置の使用例を示す図である。この情報処理装置は、マスコットロボット等と称される人型や動物型のロボットである買物アシスト装置1として実現されている。同図に示すように、この買物アシスト装置1は、ショッピングセンター等の店舗内で利用され、図1に示すように、ショッピングカート100等の移動体に設置されている。なお、買物アシスト装置1の駆動電源は、内蔵するバッテリパック(図示せず)から供給されるものとする。   FIG. 1 is a diagram illustrating a usage example of the information processing apparatus according to the embodiment. This information processing apparatus is realized as a shopping assist apparatus 1 which is a humanoid or animal type robot called a mascot robot or the like. As shown in the figure, the shopping assist device 1 is used in a store such as a shopping center, and is installed in a mobile body such as a shopping cart 100 as shown in FIG. In addition, the drive power supply of the shopping assistance apparatus 1 shall be supplied from the built-in battery pack (not shown).

図2は、買物アシスト装置1の外観を示す図である。同図に示すように、買物アシスト装置1は、基部2と、胴体部3と、頭部4と、左右の腕部5、6とを備えている。胴体部3、頭部4及び腕部5、6は、詳しくは後述するが、基部2に対して相対動(回動)可能となっている。胴体部3、頭部4及び腕部5、6は、可動部の一例である。   FIG. 2 is a diagram illustrating an appearance of the shopping assist device 1. As shown in FIG. 1, the shopping assist device 1 includes a base portion 2, a body portion 3, a head portion 4, and left and right arm portions 5 and 6. The body 3, the head 4, and the arms 5 and 6 can be relatively moved (rotated) relative to the base 2, as will be described in detail later. The body part 3, the head part 4, and the arm parts 5 and 6 are examples of movable parts.

基部2は、図2や図3に示すように、基部ハウジング2aと、左右の足部2bとを有している。左右の足部2bは、基部ハウジング2aに一体形成されている。買物アシスト装置1がショッピングカート100に設置された状態では、基部ハウジング2aの底部と左右の足部2bの底部とがショッピングカート100の設置面に当接され固定される。   As shown in FIGS. 2 and 3, the base 2 has a base housing 2a and left and right feet 2b. The left and right feet 2b are integrally formed with the base housing 2a. In a state where the shopping assist device 1 is installed in the shopping cart 100, the bottom of the base housing 2a and the bottom of the left and right feet 2b are in contact with and fixed to the installation surface of the shopping cart 100.

胴体部3は、図2や図3に示すように、基部2の上方に配置されている。胴体部3は、胴体ハウジング3aを有している。胴体部3は、連結機構(図示せず)によって、回動軸A1(図3、図5)回りに回動可能に基部2に連結されている。連結機構は、別の言い方をすると例えば関節部である。胴体部3の可動範囲は、図4に示すように、基準姿勢に対して左右に規定の規定角度α1ずつとなっている。図4中の矢印B1は、胴体部3の回動方向を示している。胴体部3は、第1のモータ141(図8)に連結されており、第1のモータ141によって回動軸A1回りに回動駆動される。胴体部3の回動軸A1回りの回動動作は、腰振り動作とも称される。   As shown in FIGS. 2 and 3, the body portion 3 is disposed above the base portion 2. The body part 3 has a body housing 3a. The body portion 3 is connected to the base portion 2 so as to be rotatable around a rotation axis A1 (FIGS. 3 and 5) by a connection mechanism (not shown). In other words, the connecting mechanism is, for example, a joint. As shown in FIG. 4, the movable range of the body portion 3 is a prescribed angle α1 that is prescribed to the left and right with respect to the reference posture. An arrow B <b> 1 in FIG. 4 indicates the rotation direction of the body portion 3. The body part 3 is connected to a first motor 141 (FIG. 8) and is driven to rotate about the rotation axis A <b> 1 by the first motor 141. The rotation operation around the rotation axis A1 of the body part 3 is also referred to as a hip swinging operation.

また、図2〜7では図示を省略しているが、胴体部3には、音声によるメッセージや報知音等を出力するためのスピーカー12(図8参照)と、ショッピングカート100を利用する顧客の音声を収音するためのマイク13(図8参照)とが設けられている。例えば、図1の構成の場合、スピーカー12及びマイク13は胴体部3の背面部に設ける形態としてもよい。   Although not shown in FIGS. 2 to 7, a speaker 12 (see FIG. 8) for outputting a voice message, a notification sound or the like and a customer using the shopping cart 100 are provided on the body 3. A microphone 13 (see FIG. 8) for picking up sound is provided. For example, in the case of the configuration of FIG. 1, the speaker 12 and the microphone 13 may be provided on the back surface portion of the body portion 3.

左右の腕部5、6は、図2に示すように、胴体部3の側方に配置されて、胴体部3の胴体ハウジング3aを挟む位置に位置する。左(一方)の腕部5の構成と右(他方)の腕部6の構成とは、左右対称であるので、以下では左の腕部5について詳細に説明し、右の腕部6について重複する説明は省略する。   As shown in FIG. 2, the left and right arm parts 5 and 6 are disposed on the side of the body part 3 and are located at positions sandwiching the body housing 3 a of the body part 3. Since the configuration of the left (one) arm portion 5 and the configuration of the right (other) arm portion 6 are bilaterally symmetrical, the left arm portion 5 will be described in detail below, and the right arm portion 6 will be duplicated. The description to be omitted is omitted.

腕部5は、図3や図5に示すように、概略円板状に形成されるとともに、外周部から内周部に向かうにつれて厚さが厚くなっている。腕部5は、連結機構7によって、胴体部3の上部に連結されている。腕部5は、連結機構7によって、回動軸A2(図2)回りに回動可能に基部2に連結されている。詳しくは、腕部5は、上下に回動可能であって、閉位置(図2)と開位置(図3)との間で回動可能となっている。胴体部3の回動軸A2回りの可動範囲は、図3に示すように、基準姿勢に対して上方に規定の規定角度α2となっている。図2、図3中の矢印B2は、回動軸A2回りの胴体部3の回動方向を示している。腕部5は、第2のモータ142(図8)に連結されており、第2のモータ142によって回動軸A2回りに回動駆動される。腕部5の回動軸A2回りの回動動作は、羽ばたき動作とも称される。なお、右の腕部6の羽ばたき動作用のモータは、第3のモータ143(図8)である。つまり、各腕部5、6毎に、羽ばたき動作用のモータが設けられている。   As shown in FIG. 3 and FIG. 5, the arm portion 5 is formed in a substantially disc shape and increases in thickness from the outer peripheral portion toward the inner peripheral portion. The arm portion 5 is coupled to the upper portion of the body portion 3 by a coupling mechanism 7. The arm portion 5 is connected to the base portion 2 by a connecting mechanism 7 so as to be rotatable around a rotation axis A2 (FIG. 2). Specifically, the arm portion 5 can be rotated up and down, and can be rotated between a closed position (FIG. 2) and an open position (FIG. 3). As shown in FIG. 3, the movable range around the rotation axis A <b> 2 of the body part 3 is a prescribed angle α <b> 2 defined upward with respect to the reference posture. An arrow B2 in FIGS. 2 and 3 indicates the rotation direction of the body portion 3 around the rotation axis A2. The arm portion 5 is connected to a second motor 142 (FIG. 8), and is rotated by the second motor 142 about the rotation axis A2. The rotation operation of the arm 5 around the rotation axis A2 is also referred to as a flapping operation. The motor for flapping operation of the right arm 6 is a third motor 143 (FIG. 8). That is, a flapping motor is provided for each arm 5 and 6.

また、腕部5は、連結機構7によって、回動軸A3(図2)回りに回動可能に基部2に連結されている。詳しくは、腕部5は、前後に回動可能である。回動軸A3回りの胴体部3の可動範囲は、図5に示すように、基準姿勢に対して一方向(前方)に規定の規定角度α3、基準姿勢に対して他方向(後方)に規定の規定角度α4となっている。図2、図5中の矢印B3は、回動軸A3回りの胴体部3の回動方向を示している。腕部5は、第4のモータ144(図8)に連結されており、第4のモータ144によって回動軸A3回りに回動駆動される。腕部5の回動軸A3回りの回動動作は、腕振り動作とも称される。なお、右の腕部6の腕振り動作用のモータは、第5のモータ145(図8)である。つまり、各腕部5、6毎に、腕振り動作用のモータが設けられている。   The arm portion 5 is connected to the base portion 2 by a connecting mechanism 7 so as to be rotatable around a rotation axis A3 (FIG. 2). In detail, the arm part 5 can be rotated back and forth. As shown in FIG. 5, the movable range of the body part 3 around the rotation axis A3 is defined in a prescribed angle α3 in one direction (forward) with respect to the reference posture and in another direction (backward) with respect to the reference posture. The specified angle α4. The arrow B3 in FIG. 2 and FIG. 5 indicates the rotation direction of the body part 3 around the rotation axis A3. The arm 5 is connected to a fourth motor 144 (FIG. 8), and is driven to rotate about the rotation axis A3 by the fourth motor 144. The turning operation of the arm portion 5 about the turning axis A3 is also referred to as an arm swinging operation. The arm swinging motor for the right arm 6 is a fifth motor 145 (FIG. 8). That is, an arm swinging motor is provided for each arm portion 5 and 6.

頭部4は、図2や図5に示すように、胴体部3の上方に配置されている。頭部4は、頭部ハウジング4aを有している。頭部ハウジング4aの正面の目(左目)に相当する位置には、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を有した撮像部11が設けられている。なお、本実施形態では、一台の撮像部11を設ける構成としたが、両目部分に一対の撮像部11を設ける形態としてもよい。また、撮像部11を、頭部4の正面以外の部位(例えば頭部4の後頭部等)に設ける形態としてもよく、より好ましくはショッピングカート100における買物アシスト装置1の設置位置や設置方向に応じて、撮像部11の設置位置を定めることが好ましい。   As shown in FIGS. 2 and 5, the head 4 is disposed above the body portion 3. The head 4 has a head housing 4a. An imaging unit 11 having an imaging element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) is provided at a position corresponding to the front eye (left eye) of the head housing 4a. In the present embodiment, a single imaging unit 11 is provided. However, a pair of imaging units 11 may be provided at both eye portions. The imaging unit 11 may be provided in a part other than the front of the head 4 (for example, the back of the head 4), and more preferably according to the installation position and installation direction of the shopping assist device 1 in the shopping cart 100. Thus, it is preferable to determine the installation position of the imaging unit 11.

頭部4は、連結機構(図示せず)によって、回動軸A4(図5)回りに回動可能に胴体部3に連結されている。詳しくは、頭部4は、左右に回動可能となっている。図6に示すように、頭部4の回動軸A4回りの可動範囲は、基準姿勢に対して左右に規定角度α5ずつとなっている。図6中の矢印B4は、胴体部3の回動軸A4回りの回動方向を示している。頭部4は、第6のモータ146(図8)に連結されており、第6のモータ146によって回動軸A4回りに回動駆動される。頭部4の回動軸A4回りの回動動作は、首横振り動作とも称される。   The head 4 is connected to the body 3 so as to be rotatable about a rotation axis A4 (FIG. 5) by a connection mechanism (not shown). Specifically, the head 4 is rotatable left and right. As shown in FIG. 6, the movable range around the rotation axis A4 of the head 4 is a specified angle α5 left and right with respect to the reference posture. An arrow B <b> 4 in FIG. 6 indicates a rotation direction around the rotation axis A <b> 4 of the body portion 3. The head 4 is connected to a sixth motor 146 (FIG. 8), and is driven to rotate about the rotation axis A4 by the sixth motor 146. The turning operation of the head 4 around the turning axis A4 is also referred to as a neck swinging operation.

また、頭部4は、連結機構(図示せず)によって、回動軸A5(図6)回りに回動可能に胴体部3に連結されている。詳しくは、頭部4は、上下に回動可能となっている。図7に示すように、頭部4の回動軸A5回りの可動範囲は、基準姿勢に対して上下に規定の規定角度α6ずつとなっている。図7中の矢印B5は、胴体部3の回動軸A5回りの回動方向を示している。頭部4は、第7のモータ147(図8)に連結されており、第7のモータ147によって回動軸A5回りに回動駆動される。頭部4の回動軸A5回りの回動動作は、首縦振り動作とも称される。   The head 4 is connected to the body portion 3 so as to be rotatable around a rotation axis A5 (FIG. 6) by a connection mechanism (not shown). Specifically, the head 4 can be turned up and down. As shown in FIG. 7, the movable range of the head 4 around the rotation axis A <b> 5 is a prescribed angle α <b> 6 that is vertically defined with respect to the reference posture. An arrow B5 in FIG. 7 indicates a rotation direction around the rotation axis A5 of the body 3. The head 4 is connected to a seventh motor 147 (FIG. 8), and is rotated about the rotation axis A5 by the seventh motor 147. The rotation operation of the head 4 around the rotation axis A5 is also referred to as a neck vertical swing operation.

可動部(胴体部3、頭部4、左右の腕部5、6)を駆動する第1〜第7のモータ141〜147は、胴体ハウジング3aに収容されて、胴体ハウジング3aに固定されている。第1〜第7のモータ141〜147は、可動部を駆動する駆動部(アクチュエータ)の一例である。第1〜第7のモータ141〜147は、基部2および可動部(胴体部3、頭部4、左右の腕部5、6)とともに、構造体を構成している。なお、以下では、便宜上、第1のモータ141〜第7のモータ147を、単にモータ14と称することもある。   The first to seventh motors 141 to 147 for driving the movable parts (the body part 3, the head part 4, the left and right arm parts 5 and 6) are accommodated in the body housing 3a and fixed to the body housing 3a. . The first to seventh motors 141 to 147 are examples of driving units (actuators) that drive the movable unit. The 1st-7th motors 141-147 comprise the structure with the base 2 and the movable part (the trunk | drum 3, the head 4, the left and right arm parts 5 and 6). Hereinafter, for convenience, the first motor 141 to the seventh motor 147 may be simply referred to as the motor 14.

また、買物アシスト装置1は、図8に示すように、記憶部21と、制御部22とを備えている。   Moreover, the shopping assistance apparatus 1 is provided with the memory | storage part 21 and the control part 22, as shown in FIG.

記憶部21は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の記憶媒体であって、一例として胴体ハウジング3aに収容されている。記憶部21は、後述するCPU(Central Processing Unit)が実行する各種プログラムや各種設定データを記憶している。また、記憶部21は、後述する買物アシスト処理に係るデータとして、報知対象文字データ211と、報知方向特定データ212と、動作パターンデータ213と、メッセージデータ214とを記憶している。   The storage unit 21 is a storage medium such as a hard disk drive (HDD) or a solid state drive (SSD), and is housed in the body housing 3a as an example. The storage unit 21 stores various programs executed by a CPU (Central Processing Unit) described later and various setting data. In addition, the storage unit 21 stores notification target character data 211, notification direction specifying data 212, operation pattern data 213, and message data 214 as data related to a shopping assist process described later.

報知対象文字データ211には、報知の対象とする文字(以下、報知対象文字という)が予め登録されている。図9は、報知対象文字データ211の一例を模式的に示す図である。同図では、報知対象文字として「特売」、「セール」等の特定のイベントを表す文字が登録された例を示している。   In the notification target character data 211, characters to be notified (hereinafter referred to as notification target characters) are registered in advance. FIG. 9 is a diagram schematically illustrating an example of the notification target character data 211. The figure shows an example in which characters representing specific events such as “special sale” and “sale” are registered as notification target characters.

なお、報知対象文字の例は図9に限らず、商品名等の任意の文字を登録することができるものとする。例えば、マイク13で収音されたユーザの音声を公知の音声認識技術により認識し、その音声に含まれた商品名等の文字を報知対象文字として報知対象文字データ211に登録する形態としてもよい。また、この形態を用いる場合、報知対象文字の登録を指示する所定の音声(例えば“登録開始”等)に応じて報知対象文字の登録を開始し、登録終了を指示する音声(例えば“登録終了”等)が入力されるまでに収音した商品名等の文字を、報知対象文字として報知対象文字データ211に登録する形態としてもよい。   Note that the notification target character is not limited to FIG. 9, and any character such as a product name can be registered. For example, the user's voice picked up by the microphone 13 may be recognized by a known voice recognition technique, and characters such as product names included in the voice may be registered in the notification target character data 211 as notification target characters. . When this form is used, registration of the notification target character is started in response to a predetermined voice (for example, “registration start” or the like) instructing registration of the notification target character, and a voice (for example, “registration end” is instructed) It is good also as a form which registers the characters, such as a product name, collected until "" etc.) is input into the alerting target character data 211 as an alerting target character.

報知方向特定データ212には、撮像部11の撮像方向と、撮像部11で撮像された画像内での報知対象文字の存在方向と、これら撮像方向及び存在方向の組から定まる報知方向との関係が定義されている。また、動作パターンデータ213には、報知方向と買物アシスト装置1の動作パターンとが関連付けて登録されている。なお、報知方向特定データ212、動作パターンデータ213の具体例については後述する。   In the notification direction specifying data 212, the relationship between the imaging direction of the imaging unit 11, the presence direction of the notification target character in the image captured by the imaging unit 11, and the notification direction determined from the combination of the imaging direction and the existing direction. Is defined. In the operation pattern data 213, the notification direction and the operation pattern of the shopping assist device 1 are registered in association with each other. Specific examples of the notification direction specifying data 212 and the operation pattern data 213 will be described later.

メッセージデータ214には、買物アシスト装置1が発する音声に係るデータが予め登録されている。このメッセージデータ214には、例えば「左方向」や「右方向」等の方向を表すメッセージや、「特売」や「セール」等のイベントを表すメッセージ、商品名を表すメッセージ等が含まれる。なお、メッセージデータ214に登録されるデータは、音声データであってもよいし、音声合成用のテキストデータであってもよい。   In the message data 214, data related to the voice uttered by the shopping assist device 1 is registered in advance. The message data 214 includes, for example, a message indicating a direction such as “left direction” or “right direction”, a message indicating an event such as “special sale” or “sale”, a message indicating a product name, or the like. The data registered in the message data 214 may be voice data or text data for voice synthesis.

制御部22は、CPU、プログラムや設定情報を格納したROM(Read Only Memory)、RAM(Random Access Memory)等を含むコンピュータであって、一例として胴体ハウジング3aに収容されている。CPUは、ROM又は記憶部21に記憶されたプログラムと協働することで、買物アシスト装置1の動作を統括的に制御する。   The control unit 22 is a computer including a CPU, a ROM (Read Only Memory) that stores programs and setting information, a RAM (Random Access Memory), and the like, and is housed in the body housing 3a as an example. The CPU comprehensively controls the operation of the shopping assist device 1 by cooperating with a program stored in the ROM or the storage unit 21.

制御部22には、バスライン23等を介して、撮像部11、スピーカー12、マイク13、第1〜第7のモータ141〜147、記憶部21等が接続されている。   The control unit 22 is connected to the imaging unit 11, the speaker 12, the microphone 13, the first to seventh motors 141 to 147, the storage unit 21, and the like via the bus line 23 and the like.

制御部22は、撮像部11やスピーカー12、マイク13等を用いて、顧客へのアシスト処理を行う。一例として、制御部22は、撮像部11で撮像した顧客の画像から顧客の属性(例えば性別や年齢)を判別し、当該顧客に応じた情報(例えば商品の宣伝)の提供を、スピーカー12を用いて行う。   The control unit 22 performs assist processing for the customer using the imaging unit 11, the speaker 12, the microphone 13, and the like. As an example, the control unit 22 discriminates customer attributes (for example, gender and age) from the customer image captured by the image capturing unit 11, and provides the speaker 12 with information (for example, promotion of products) according to the customer. To do.

また、制御部22は、後述する買物アシスト処理に係る機能部として、画像取得部221と、文字認識部222と、報知対象文字検出部223と、報知方向特定部224と、報知処理部225と、動作制御部226とを備えている。これら機能部は、CPUとROM又は記憶部21に記憶された所定のプログラムとの協働により実現されるソフトウェア構成であってもよいし、専用のプロセッサ等で構成されるハードウェア構成であってもよい。   Moreover, the control part 22 is an image acquisition part 221, the character recognition part 222, the alerting | reporting object character detection part 223, the alerting | reporting direction specific | specification part 224, and the alerting | reporting process part 225 as a function part which concerns on the shopping assistance process mentioned later. And an operation control unit 226. These functional units may have a software configuration realized by cooperation of a CPU and a predetermined program stored in the ROM or the storage unit 21, or may be a hardware configuration configured by a dedicated processor or the like. Also good.

画像取得部221は、撮像部11で撮像された画像を順次取得する。文字認識部222は、画像取得部221で取得された画像を解析することで、当該画像内に含まれた文字(文字列)を認識し、その文字の位置情報とともに報知対象文字検出部223に出力する。ここで、位置情報は、画像内での文字の存在位置を表す情報であり、例えば座標等のデータ値である。なお、文字認識部222での文字の認識は、OCR(Optical Character Reader)等で用いられる公知の文字認識技術を用いるものとする。   The image acquisition unit 221 sequentially acquires images captured by the imaging unit 11. The character recognition unit 222 analyzes the image acquired by the image acquisition unit 221 to recognize a character (character string) included in the image, and notifies the notification target character detection unit 223 together with the position information of the character. Output. Here, the position information is information indicating the position of the character in the image, and is, for example, a data value such as coordinates. In addition, the character recognition in the character recognition part 222 shall use the well-known character recognition technique used by OCR (Optical Character Reader) etc.

報知対象文字検出部223は、記憶部21に記憶された報知対象文字データ211を参照し、文字認識部222で認識された文字の中から報知対象文字を検出する。例えば、図9に示す報知対象文字データ211を用いた場合、文字認識部222で認識された文字の中から報知対象文字“特売”及び“セール”を検出する。また、報知対象文字検出部223は、検出した報知対象文字を、その報知対象文字の位置情報とともに報知方向特定部224に出力する。   The notification target character detection unit 223 refers to the notification target character data 211 stored in the storage unit 21 and detects the notification target character from the characters recognized by the character recognition unit 222. For example, when the notification target character data 211 shown in FIG. 9 is used, the notification target characters “special sale” and “sale” are detected from the characters recognized by the character recognition unit 222. In addition, the notification target character detection unit 223 outputs the detected notification target character to the notification direction identification unit 224 together with the position information of the notification target character.

報知方向特定部224は、撮像部11の撮像方向と、報知対象文字検出部223から入力された報知対象文字の画像内での存在位置(位置情報)とに基づき、その報知対象文字が自装置に対し何れの方向に存在するかを特定する。   The notification direction specifying unit 224 determines that the notification target character is based on the imaging direction of the imaging unit 11 and the position (position information) of the notification target character input from the notification target character detection unit 223 in the image. In which direction it exists.

具体的に、報知方向特定部224は、胴体部3及び頭部4の現在の回動角度から、撮像部11の撮像方向を特定する。より具体的に、報知方向特定部224は、胴体部3及び頭部4の左右方向への回動角度の和を求め、その和となる左又は右方向への角度の大きさが所定の閾値以上の場合に、その方向を撮像方向と特定する。例えば、胴体部3が右方向に5度、頭部4が左方向に20度回動している場合、左方向を正とすると、これら回動角度の和((−5)+20)は左方向に15度となる。また、方向判定の閾値を10度とすると、導出した15度の絶対値は閾値以上となるため、報知方向特定部224は、撮像部11の撮像方向を“左”と特定する。なお、閾値未満の場合には、撮像部11の撮像方向を“正面”と特定するものとする。   Specifically, the notification direction specifying unit 224 specifies the imaging direction of the imaging unit 11 from the current rotation angles of the body unit 3 and the head 4. More specifically, the notification direction specifying unit 224 obtains the sum of the rotation angles of the body 3 and the head 4 in the left-right direction, and the magnitude of the left or right angle that is the sum is a predetermined threshold value. In the above case, the direction is specified as the imaging direction. For example, when the body part 3 is rotated 5 degrees to the right and the head 4 is rotated 20 degrees to the left, the sum of the rotation angles ((−5) +20) is left if the left direction is positive. 15 degrees in the direction. Also, if the threshold value for direction determination is 10 degrees, the derived absolute value of 15 degrees is equal to or greater than the threshold value, and thus the notification direction specifying unit 224 specifies the imaging direction of the imaging unit 11 as “left”. In addition, when less than a threshold value, the imaging direction of the imaging unit 11 is specified as “front”.

また、報知方向特定部224は、報知対象文字検出部223から入力された報知対象文字の位置情報から、その報知対象文字が画像内のどの方向に存在するかを特定する。ここで、報知方向特定部224は、例えば、画像の水平成分を三等分することで“左”、“正面”、“右”の三つの領域に区分けし、報知対象文字検出部223から入力された報知対象文字の位置情報がどの領域に属するかを判別することで、その報知対象文字が画像中のどの方向に存在するかを特定する。   In addition, the notification direction specifying unit 224 specifies in which direction in the image the notification target character exists from the position information of the notification target character input from the notification target character detection unit 223. Here, the notification direction specifying unit 224 divides the horizontal component of the image into three parts, for example, to divide into three regions of “left”, “front”, and “right”, and inputs from the notification target character detection unit 223. By determining which region the position information of the notified notification character belongs to, the direction in which the notification target character exists in the image is specified.

また、報知方向特定部224は、記憶部21に記憶された報知方向特定データ212を参照し、撮像部11の撮像方向と報知対象文字の存在方向とから、報知方向を特定する。   The notification direction specifying unit 224 refers to the notification direction specifying data 212 stored in the storage unit 21 and specifies the notification direction from the imaging direction of the imaging unit 11 and the presence direction of the notification target character.

ここで、図10は、報知方向特定データ212の一例を模式的に示す図である。同図に示すように、報知方向特定データ212には、撮像部11の撮像方向と、報知対象文字の存在方向と、これら撮像方向及び存在方向の組から定まる報知方向との関係が定義されている。同図に示す報知方向特定データ212では、撮像方向が“左”の場合や撮像方向が“正面”で且つ存在方向が“左”の場合に、報知方向を“左”とするよう定義されている。また、撮像方向が“右”の場合や撮像方向が“正面”で且つ存在方向が“右”の場合に、報知方向を“右”とするよう定義されている。また、撮像方向が“正面”で且つ存在方向が“正面”のときに、報知方向を“正面”とするよう定義されている。   Here, FIG. 10 is a diagram schematically illustrating an example of the notification direction specifying data 212. As shown in the figure, the notification direction specifying data 212 defines the relationship between the imaging direction of the imaging unit 11, the presence direction of the notification target character, and the notification direction determined from the combination of the imaging direction and the existing direction. Yes. In the notification direction specifying data 212 shown in the figure, when the imaging direction is “left” or when the imaging direction is “front” and the existence direction is “left”, the notification direction is defined as “left”. Yes. In addition, when the imaging direction is “right” or when the imaging direction is “front” and the presence direction is “right”, the notification direction is defined as “right”. Further, when the imaging direction is “front” and the existence direction is “front”, the notification direction is defined as “front”.

なお、報知方向特定データ212の報知方向は、買物アシスト装置1が設置されたショッピングカート100の正面方向(進行方向)を基準に定められているものとする。例えば、図1に示したように、買物アシスト装置1の正面とショッピングカート100の正面とが一致する場合、図10に示した報知方向特定データ212を用いて報知方向を特定することで、ショッピングカート100から見た報知方向に整合させることができる。また、頭部4の後頭部に撮像部11を設けた場合、図1の構成では買物アシスト装置1の正面と撮像部11の正面とが逆方向になるため、報知方向の左右方向の定義を入れ替える等することで、ショッピングカート100の正面を基準とした報知方向に整合させるものとする。なお、報知方向特定データ212の設定内容は、図10の例に限らず、任意に変更することが可能である。   Note that the notification direction of the notification direction identification data 212 is determined based on the front direction (traveling direction) of the shopping cart 100 in which the shopping assist device 1 is installed. For example, as shown in FIG. 1, when the front of the shopping assist device 1 and the front of the shopping cart 100 coincide, the notification direction is specified using the notification direction specifying data 212 shown in FIG. The notification direction viewed from the cart 100 can be matched. Further, when the imaging unit 11 is provided at the back of the head 4, in the configuration of FIG. 1, the front of the shopping assist device 1 and the front of the imaging unit 11 are in opposite directions, so the definition of the right and left direction of the notification direction is switched. By doing so, it is assumed that the notification direction is based on the front of the shopping cart 100 as a reference. Note that the setting content of the notification direction specifying data 212 is not limited to the example of FIG. 10 and can be arbitrarily changed.

図8に戻り、報知方向特定部224は、報知方向特定データ212に定義された撮像方向及び存在方向の関係から報知方向を特定すると、その特定した報知方向を対応する報知対象文字とともに報知処理部225に出力する。   Returning to FIG. 8, when the notification direction specifying unit 224 specifies the notification direction from the relationship between the imaging direction and the existence direction defined in the notification direction specifying data 212, the notification processing unit together with the notification target character corresponding to the specified notification direction. To 225.

報知処理部225は、報知方向特定部224から入力された報知方向及び報知対象文字を、ショッピングカート100を操作するユーザに報知するための処理を行う。   The notification processing unit 225 performs processing for notifying the user who operates the shopping cart 100 of the notification direction and the notification target character input from the notification direction specifying unit 224.

具体的に、報知処理部225は、動作制御部226を制御することで、報知方向特定部224から入力された報知方向を買物アシスト装置1の動作(アクション)によって報知させる。ここで、報知処理部225は、報知方向に応じた買物アシスト装置1の動作を、記憶部21の動作パターンデータ213を用いて決定する。   Specifically, the notification processing unit 225 controls the operation control unit 226 to notify the notification direction input from the notification direction specifying unit 224 by the operation (action) of the shopping assist device 1. Here, the notification processing unit 225 determines the operation of the shopping assist device 1 according to the notification direction using the operation pattern data 213 of the storage unit 21.

図11は、動作パターンデータ213の一例を模式的に示す図である。同図に示すように、動作パターンデータ213には、報知方向毎に当該報知方向に応じた買物アシスト装置1の動作を表す動作パターンが関連付けて登録されている。同図に示す動作パターンデータ213では、例えば、報知方向が“左”を示す場合、胴体部3を基準姿勢から右方向に15角度回動させ、買物アシスト装置1の頭部4を基準姿勢から左方向に20度旋回させ、腕部5を基準姿勢から上方に110度、前方に30度回動させ、腕部6を基準姿勢(回動角度0)とすることが定義されている。また、報知方向が“正面”を示す場合、買物アシスト装置1の胴体部3及び頭部4を基準姿勢(回動角度0)とし、腕部5、6を基準姿勢から上方に110度、前方に30度回動させることが定義されている。   FIG. 11 is a diagram schematically illustrating an example of the operation pattern data 213. As shown in the figure, in the operation pattern data 213, an operation pattern representing the operation of the shopping assist device 1 corresponding to the notification direction is registered in association with each notification direction. In the operation pattern data 213 shown in the figure, for example, when the notification direction indicates “left”, the body portion 3 is rotated 15 degrees to the right from the reference posture, and the head 4 of the shopping assist device 1 is moved from the reference posture. It is defined that the arm portion 5 is turned to the left by 20 degrees, the arm portion 5 is turned upward from the reference posture by 110 degrees, and the front portion is rotated by 30 degrees, and the arm portion 6 is set to the reference posture (rotation angle 0). Further, when the notification direction indicates “front”, the body 3 and the head 4 of the shopping assist device 1 are set to the reference posture (rotation angle 0), and the arms 5 and 6 are 110 degrees upward from the reference posture in front. It is defined to be rotated 30 degrees.

報知処理部225は、報知方向特定部224から入力された報知方向に対応する動作パターンを動作パターンデータ213から読み出し、その動作パターンの実行を指示した指示情報を動作制御部226に出力することで、買物アシスト装置1の動作によって報知方向を報知させる。なお、動作パターンデータ213に設定される動作パターンは、図11の例に限らないものとする。例えば、回動角度を直接指定するのではなく、羽ばたき動作や腕振り動作等の動作を指示するコマンドを設定する形態としてもよい。また、同一の報知方向に複数の動作パターンを登録することで、買物アシスト装置1にダンス等の連続した動作を行わせる形態としてもよい。また、報知対象文字の種別毎に、固有の動作パターンを設定する形態としてもよい。   The notification processing unit 225 reads the operation pattern corresponding to the notification direction input from the notification direction specifying unit 224 from the operation pattern data 213, and outputs instruction information instructing execution of the operation pattern to the operation control unit 226. The notification direction is notified by the operation of the shopping assist device 1. Note that the operation pattern set in the operation pattern data 213 is not limited to the example of FIG. For example, instead of directly specifying the rotation angle, a command for instructing an operation such as a flapping operation or an arm swinging operation may be set. Moreover, it is good also as a form which makes the shopping assistance apparatus 1 perform continuous operation | movements, such as a dance, by registering a some operation | movement pattern in the same alerting | reporting direction. In addition, a unique operation pattern may be set for each type of notification target character.

また、報知処理部225は、記憶部21に記憶されたメッセージデータ214を用いることで、報知方向特定部224から入力された報知方向や報知対象文字に応じたメッセージを、音声合成等によりスピーカー12から出力させる。例えば、報知方向が“左”、報知対象文字が“特売”を示す場合、報知処理部225は「左方向に特売品があるよ」等のメッセージをスピーカー12から出力させる。なお、音声合成は、公知の技術を用いるものとする。   In addition, the notification processing unit 225 uses the message data 214 stored in the storage unit 21, so that a message corresponding to the notification direction and the notification target character input from the notification direction specifying unit 224 is generated by voice synthesis or the like by the speaker 12. Output from. For example, when the notification direction indicates “left” and the notification target character indicates “sale”, the notification processing unit 225 causes the speaker 12 to output a message such as “There is a sale item in the left direction”. Note that speech synthesis uses a known technique.

動作制御部226は、報知処理部225から入力される指示情報に従い、買物アシスト装置1のモータ14(第1〜第7のモータ141〜147)の駆動を制御することで、買物アシスト装置1に所定の動作(動作パターン)を行わせる。   The operation control unit 226 controls the driving of the motor 14 (first to seventh motors 141 to 147) of the shopping assist device 1 in accordance with the instruction information input from the notification processing unit 225, thereby allowing the shopping assist device 1 to A predetermined operation (operation pattern) is performed.

次に、買物アシスト装置1が行う買物アシスト処理について説明する。図12は、買物アシスト装置1が行う購買支援処理の手順を示すフローチャートである。なお、本処理の前提として、買物アシスト装置1の撮像部11では撮像が行われているものとする。   Next, shopping assistance processing performed by the shopping assistance device 1 will be described. FIG. 12 is a flowchart showing the procedure of the purchase support process performed by the shopping assist device 1. As a premise of this processing, it is assumed that imaging is performed in the imaging unit 11 of the shopping assist device 1.

画像取得部221は、撮像部11で撮像された画像を取得する(ステップS11)。例えば、図1に示したショッピングカート100を用いてユーザが店舗内の通路を移動中であるとすると、その通路に沿って設置された商品棚等が撮像部11により撮像される。なお、このとき撮像範囲を広くするため、画像取得部221は、動作制御部226と協働し、胴体部3又は頭部4に設けられたモータ14を動作させることで、胴体部3を腰振り動作させたり、頭部4を首横振り動作や首縦振り動作させたりする形態としてもよい。   The image acquisition unit 221 acquires an image captured by the imaging unit 11 (step S11). For example, if the user is moving through a passage in a store using the shopping cart 100 shown in FIG. 1, a product shelf installed along the passage is imaged by the imaging unit 11. At this time, in order to widen the imaging range, the image acquisition unit 221 cooperates with the operation control unit 226 to operate the motor 14 provided on the body unit 3 or the head unit 4 to move the body unit 3 to the waist. It is good also as a form which carries out a swing operation | movement or makes the head 4 swing a neck sideways motion or a head longitudinal swing motion.

文字認識部222は、ステップS11で取得された画像から文字を認識し、その文字の画像内における存在位置とともに報知対象文字検出部223に出力する(ステップS12)。報知対象文字検出部223は、報知対象文字データ211に登録された報知対象文字と、文字認識部222で認識された文字とを比較し、当該文字の中に報知対象文字が存在するか否かを判定する(ステップS13)。   The character recognizing unit 222 recognizes the character from the image acquired in step S11 and outputs it to the notification target character detecting unit 223 together with the position of the character in the image (step S12). The notification target character detection unit 223 compares the notification target character registered in the notification target character data 211 with the character recognized by the character recognition unit 222, and whether or not the notification target character exists in the character. Is determined (step S13).

ここで、報知対象文字が存在しないと判定した場合には(ステップS13;No)、本処理を終了する。また、報知対象文字を検出した場合(ステップS13;Yes)、報知対象文字検出部223は、その報知対象文字を、該報知対象文字の位置情報とともに報知方向特定部224に出力する。   Here, when it is determined that the notification target character does not exist (step S13; No), this process ends. When the notification target character is detected (step S13; Yes), the notification target character detection unit 223 outputs the notification target character to the notification direction specifying unit 224 together with the position information of the notification target character.

報知方向特定部224は、撮像部11の撮像方向と、報知対象文字の画像内での存在方向とをそれぞれ特定すると、記憶部21の報知方向特定データ212に基づき、撮像方向及び存在方向の組に対応する報知方向を特定する(ステップS14)。ここで特定された報知方向は、報知対象文字とともに報知処理部225に出力される。   When the notification direction specifying unit 224 specifies the imaging direction of the imaging unit 11 and the presence direction in the image of the notification target character, the notification direction specification unit 224 sets the imaging direction and the existence direction based on the notification direction specification data 212 of the storage unit 21. The notification direction corresponding to is specified (step S14). The notification direction specified here is output to the notification processing unit 225 together with the notification target character.

続いて、報知処理部225は、報知方向特定部224で特定された報知方向に対応する動作パターンを、記憶部21の動作パターンデータ213からから読み出すと、その動作パターンの実行を指示する指示情報を動作制御部226に出力する(ステップS15)。動作制御部226では、報知処理部225からの指示情報に従い、買物アシスト装置1のモータ14を駆動し、報知方向に応じた所定の動作(動作パターン)を買物アシスト装置1に行わせることで、買物アシスト装置1の動作により報知方向を報知する(ステップS16)。   Subsequently, when the operation pattern corresponding to the notification direction specified by the notification direction specifying unit 224 is read from the operation pattern data 213 of the storage unit 21, the notification processing unit 225 instructs the execution of the operation pattern. Is output to the operation control unit 226 (step S15). The operation control unit 226 drives the motor 14 of the shopping assist device 1 according to the instruction information from the notification processing unit 225 and causes the shopping assist device 1 to perform a predetermined operation (operation pattern) according to the notification direction. The notification direction is notified by the operation of the shopping assist device 1 (step S16).

また、報知処理部225は、メッセージデータ214を用いて、報知方向特定部224から入力された報知方向や報知対象文字に応じたメッセージを、音声としてスピーカー12から出力させ(ステップS17)、本処理を終了する。なお、本処理の実行タイミングは特に問わず、撮像部11が画像を撮像する毎に実行する形態としてもよいし、所定の時間間隔毎(例えば30秒毎)に実行する形態としてもよい。   In addition, the notification processing unit 225 uses the message data 214 to output a message corresponding to the notification direction and the notification target character input from the notification direction specifying unit 224 as sound from the speaker 12 (step S17). Exit. The execution timing of this process is not particularly limited, and may be executed every time the imaging unit 11 captures an image, or may be executed every predetermined time interval (for example, every 30 seconds).

以下、図13及び図14を参照し、上記買物アシスト処理の動作を説明する。図13は、買物アシスト装置1の撮像部11で撮像された画像の一例を示す図である。同図に示すように、ユーザがショッピングカート100を用いて店舗内の通路を移動する際、撮像部11により店舗内の画像が撮像される。ここで、図13に示すように店舗内に設けられた商品棚SHを含む画像G1が撮像されたとすると、画像取得部221は、ステップS11において、この画像G1を取得する。また、文字認識部222は、ステップS12において、画像取得部221で取得された画像G1から、“特売”、“50%”、“OFF”等の文字を認識し、これら文字の存在位置とともに報知対象文字検出部223に出力する。   Hereinafter, the operation of the shopping assist process will be described with reference to FIGS. 13 and 14. FIG. 13 is a diagram illustrating an example of an image captured by the imaging unit 11 of the shopping assist device 1. As shown in the figure, when a user moves a passage in a store using a shopping cart 100, an image in the store is captured by the imaging unit 11. Here, if an image G1 including a product shelf SH provided in the store is captured as shown in FIG. 13, the image acquisition unit 221 acquires this image G1 in step S11. In step S12, the character recognition unit 222 recognizes characters such as “special sale”, “50%”, and “OFF” from the image G1 acquired by the image acquisition unit 221, and notifies the presence of these characters. The data is output to the target character detection unit 223.

次いで、報知対象文字検出部223は、ステップS13において、報知対象文字データ211に登録された報知対象文字と、文字認識部222から入力された文字とを比較し、入力された文字の中に報知対象文字が存在するか否かを判定する。ここで、図10に示した報知対象文字データ211を用いる場合(ステップS13;Yes)、入力された文字の中に報知対象文字“特売”が存在するため、報知対象文字検出部223は、この報知対象文字“特売”とその存在位置とを報知方向特定部224に出力する。   Next, in step S13, the notification target character detection unit 223 compares the notification target character registered in the notification target character data 211 with the character input from the character recognition unit 222, and notifies the input character of the notification target character. It is determined whether the target character exists. Here, when the notification target character data 211 shown in FIG. 10 is used (step S13; Yes), since the notification target character “special sale” exists in the input characters, the notification target character detection unit 223 performs this operation. The notification target character “sale” and its presence position are output to the notification direction identification unit 224.

続くステップS14において、報知方向特定部224は、現在設定されている胴体部3及び頭部4の回動角度に基づいて、撮像部11の撮像方向を特定する。また、報知方向特定部224は、図13に示すように、画像G1の水平成分を三等分することで領域C1〜C3に区分けし、報知対象文字検出部223から入力された報知対象文字の位置情報がどの領域に属するかを判別することで、その報知対象文字がどの方向に存在するかを特定する。ここで、図13の画像G1の場合、報知対象文字“特売”は領域C1に属するため、報知方向特定部224は、報知対象文字の存在方向を“左”と特定する。   In subsequent step S <b> 14, the notification direction specifying unit 224 specifies the imaging direction of the imaging unit 11 based on the currently set rotation angles of the body 3 and the head 4. Further, as shown in FIG. 13, the notification direction specifying unit 224 divides the horizontal component of the image G1 into three equal parts, thereby dividing the region into regions C1 to C3, and the notification target character input from the notification target character detection unit 223 By determining which region the position information belongs to, it is specified in which direction the character to be notified exists. Here, in the case of the image G1 in FIG. 13, since the notification target character “special sale” belongs to the area C1, the notification direction specifying unit 224 specifies the presence direction of the notification target character as “left”.

そして、報知方向特定部224は、記憶部21に記憶された報知方向特定データ212を用いて、撮像部11の撮像方向と報知対象文字の存在方向とから、対応する報知方向を特定する。ここで、胴体部3及び頭部4が基準姿勢(回動角度0)であるとすると、報知方向特定部224は、図10に示す報知方向特定データ212から、報知方向を“左”と特定し、報知対象文字とともに報知処理部225に出力する。   And the alerting | reporting direction specific | specification part 224 specifies a corresponding alerting | reporting direction from the imaging direction of the imaging part 11, and the presence direction of a alerting | reporting object character using the alerting | reporting direction specific data 212 memorize | stored in the memory | storage part 21. FIG. Here, if the body part 3 and the head 4 are in the reference posture (rotation angle 0), the notification direction specifying unit 224 specifies the notification direction as “left” from the notification direction specifying data 212 shown in FIG. And output to the notification processing unit 225 together with the notification target character.

続いて、報知処理部225は、ステップS15において、報知方向特定部224から入力された報知方向に対応する動作パターンを、動作パターンデータ213から読み出すと、その動作パターンの実行を指示した指示情報を動作制御部226に出力する。動作制御部226では、ステップS16において、指示された動作パターンを買物アシスト装置1に実行させる。   Subsequently, when the operation pattern corresponding to the notification direction input from the notification direction specifying unit 224 is read from the operation pattern data 213 in step S15, the notification processing unit 225 reads instruction information instructing execution of the operation pattern. The data is output to the operation control unit 226. In step S16, the operation control unit 226 causes the shopping assist device 1 to execute the instructed operation pattern.

ここで、例えば、図11に示した動作パターンデータ213を用いたとすると、報知処理部225は、報知方向特定部224から入力された報知方向“左”に対応する動作パターンを読み出し、該動作パターンの実行を指示した指示情報を動作制御部226に出力することで、図14に示すように、動作パターンに応じた動作が買物アシスト装置1で実行される。このように、報知処理部225と動作制御部226とが協働することで、報知方向特定部224で特定された報知方向が買物アシスト装置1の動作により報知される。   Here, for example, if the operation pattern data 213 shown in FIG. 11 is used, the notification processing unit 225 reads the operation pattern corresponding to the notification direction “left” input from the notification direction specifying unit 224, and the operation pattern By outputting the instruction information instructing the execution of the item to the operation control unit 226, the operation corresponding to the operation pattern is executed by the shopping assist device 1 as shown in FIG. In this way, the notification processing unit 225 and the operation control unit 226 cooperate to notify the notification direction specified by the notification direction specifying unit 224 by the operation of the shopping assist device 1.

また、報知処理部225は、ステップS17において、報知方向特定部224から入力された報知方向や報知対象文字に応じたメッセージを、音声合成等によりスピーカー12から出力させる。なお、図14では、メッセージとして「左方向に特売品があるよ」を音声出力させた例を表している。   In step S17, the notification processing unit 225 causes the speaker 12 to output a message corresponding to the notification direction and the notification target character input from the notification direction specifying unit 224 by voice synthesis or the like. Note that FIG. 14 shows an example in which a voice message “There is a sale item in the left direction” is output as a message.

以上のように、買物アシスト装置1では、撮像部11で撮像された画像中に報知対象の文字(報知対象文字)が存在した場合、ショッピングカート100に対し報知対象文字が存在する報知方向を、買物アシスト装置1の動作により報知するため、ショッピングカート100の周辺に存在する報知対象文字を、ショッピングカート100の利用者に有効にアピールすることができる。また、買物アシスト装置1の動作とともに、報知方向や報知対象文字に応じたメッセージを音声出力により報知するため、その報知対象文字に関する情報をより有効にアピールすることができる。   As described above, in the shopping assist device 1, when there is a notification target character (notification target character) in the image captured by the imaging unit 11, the notification direction in which the notification target character exists with respect to the shopping cart 100 is determined. Since the notification is made by the operation of the shopping assist device 1, the notification target character existing around the shopping cart 100 can be effectively appealed to the user of the shopping cart 100. Further, since the message corresponding to the notification direction and the notification target character is notified by voice output together with the operation of the shopping assist device 1, information on the notification target character can be more effectively appealed.

以上、本発明の実施形態を説明したが、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。上記実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、追加等を行うことができる。また、上記実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although embodiment of this invention was described, the said embodiment was shown as an example and is not intending limiting the range of invention. The above embodiment can be implemented in various other forms, and various omissions, replacements, changes, additions, and the like can be made without departing from the scope of the invention. Moreover, the said embodiment and its deformation | transformation are included in the range of the invention, the summary, and the invention described in the claim, and its equal range.

上記実施形態では、ショッピングカート100の先頭部において、買物アシスト装置1の正面をショッピングカート100の正面とあわせた状態で設置する例を説明したが、買物アシスト装置1の設置位置及び設置方向はこれに限らないものとする。例えば、ショッピングカート100を移動させる際に顧客が把持するハンドル部101側(図1)に買物アシスト装置1を設置する形態としてもよいし、買物アシスト装置1の正面をハンドル部101側に向けて設置する形態としてもよい。なお、買物アシスト装置1の正面をハンドル部101側に向けて設置する場合には、撮像部11を、頭部4の後頭部に設けることが好ましい。   In the above-described embodiment, an example in which the front of the shopping assist device 1 is installed in a state where the front of the shopping cart 100 is aligned with the front of the shopping cart 100 at the top of the shopping cart 100 is described. Not limited to. For example, it is good also as a form which installs the shopping assistance apparatus 1 in the handle part 101 side (FIG. 1) which a customer hold | grips when moving the shopping cart 100, or the front of the shopping assistance apparatus 1 faces the handle part 101 side. It is good also as a form to install. Note that when the shopping assist device 1 is installed with the front face toward the handle portion 101, the imaging unit 11 is preferably provided at the back of the head 4.

また、上記実施形態では、買物アシスト装置1が画像取得部221、文字認識部222、報知対象文字検出部223、報知方向特定部224、報知処理部225及び動作制御部226の機能部を備える構成としたが、これに限らず、これら各機能部の一部又は全てを外部装置が備え、当該外部装置が有線又は無線通信等により、買物アシスト装置1の動作を制御する構成としてもよい。   Moreover, in the said embodiment, the shopping assistance apparatus 1 is provided with the function part of the image acquisition part 221, the character recognition part 222, the alerting | reporting object character detection part 223, the alerting | reporting direction specific | specification part 224, the alerting | reporting process part 225, and the operation control part 226. However, the present invention is not limited to this, and an external device may include a part or all of these functional units, and the external device may control the operation of the shopping assist device 1 by wired or wireless communication.

また、上記実施形態では、撮像方向や存在方向、報知方向を“左”、“正面”、“右”の三方向で区分けしたが、区分の単位はこれに限らず、より詳細に区分けする形態としてもよい。また、上下方向についても同様に特定する形態としてもよい。   In the above embodiment, the imaging direction, the presence direction, and the notification direction are divided into three directions of “left”, “front”, and “right”. However, the unit of the division is not limited to this, and the embodiment is divided in more detail. It is good. Moreover, it is good also as a form similarly specified also about an up-down direction.

また、上記実施形態の買物アシスト装置1で実行されるプログラムは、買物アシスト装置1が備える記憶媒体(ROM又は記憶部21)に予め組み込んで提供するものとするが、これに限らず、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。さらに、記憶媒体は、コンピュータ或いは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶又は一時記憶した記憶媒体も含まれる。   In addition, the program executed by the shopping assist device 1 of the above embodiment is provided by being incorporated in advance in a storage medium (ROM or storage unit 21) included in the shopping assist device 1, but is not limited thereto and can be installed. The file is recorded in a computer-readable recording medium such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versatile Disk) in a format or executable format. Also good. Furthermore, the storage medium is not limited to a medium independent of a computer or an embedded system, but also includes a storage medium in which a program transmitted via a LAN, the Internet, or the like is downloaded and stored or temporarily stored.

また、上記実施形態の買物アシスト装置1で実行されるプログラムをインターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよく、インターネット等のネットワーク経由で提供又は配布するように構成してもよい。   Further, the program executed by the shopping assist device 1 of the above embodiment may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. You may comprise so that it may provide or distribute via a network.

1 買物アシスト装置
2 基部
3 胴体部
4 頭部
5 腕部
6 腕部
11 撮像部
12 スピーカー
13 マイク
14 モータ
21 記憶部
211 報知対象文字データ
212 報知方向特定データ
213 動作パターンデータ
214 メッセージデータ
22 制御部
221 画像取得部
222 文字認識部
223 報知対象文字検出部
224 報知方向特定部
225 報知処理部
226 動作制御部
23 バスライン
100 ショッピングカート
DESCRIPTION OF SYMBOLS 1 Shopping assistance apparatus 2 Base part 3 Body part 4 Head part 5 Arm part 6 Arm part 11 Imaging part 12 Speaker 13 Microphone 14 Motor 21 Memory | storage part 211 Notification object character data 212 Notification direction specific data 213 Operation pattern data 214 Message data 22 Control part 221 Image acquisition unit 222 Character recognition unit 223 Notification target character detection unit 224 Notification direction identification unit 225 Notification processing unit 226 Operation control unit 23 Bus line 100 Shopping cart

特開平08−40276号公報Japanese Patent Laid-Open No. 08-40276 特開2007−66108号公報JP 2007-66108 A

Claims (6)

移動体に設置され、複数の可動部及び当該可動部を駆動する駆動部を有するロボットと、
前記ロボットに設けられ、当該ロボット周辺の画像を撮像する撮像部と、
前記画像に含まれた文字を認識する認識手段と、
前記認識手段で認識された文字の中から所定の報知対象文字を検出する検出手段と、
前記駆動部を制御し、前記ロボットの動作により前記報知対象文字が検出されたことを報知する報知手段と、
を備える情報処理装置。
A robot installed on a moving body and having a plurality of movable parts and a drive part for driving the movable parts;
An imaging unit that is provided in the robot and captures an image around the robot;
Recognition means for recognizing characters contained in the image;
Detection means for detecting a predetermined notification target character from the characters recognized by the recognition means;
Informing means for controlling the driving unit and informing that the notification target character is detected by the operation of the robot;
An information processing apparatus comprising:
前記撮像部の撮像方向と、前記検出手段が検出した前記報知対象文字の画像内での存在位置とに基づいて、前記移動体に対し前記報知対象文字が存在する方向を報知方向として特定する特定手段を更に備え、
前記報知手段は、前記駆動部を制御し、前記ロボットの動作により前記報知方向を報知する請求項1に記載の情報処理装置。
Identification that identifies the direction in which the notification target character exists as the notification direction for the mobile body based on the imaging direction of the imaging unit and the presence position in the image of the notification target character detected by the detection unit Further comprising means,
The information processing apparatus according to claim 1, wherein the notification unit controls the driving unit to notify the notification direction by an operation of the robot.
前記撮像部は、前記ロボットの左右方向に回動可能な前記可動部に設けられ、
前記特定手段は、前記可動部の左右方向への回動角度に基づいて前記撮像方向を特定する請求項1又は2に記載の情報処理装置。
The imaging unit is provided in the movable unit that can be rotated in the horizontal direction of the robot,
The information processing apparatus according to claim 1, wherein the specifying unit specifies the imaging direction based on a rotation angle of the movable unit in a horizontal direction.
前記ロボットは、前記可動部として、胴体部と、当該胴体部に連結された頭部及び左右一対の腕部とを有し、
前記報知手段は、前記胴体部、前記頭部及び前記腕部の何れかを動作させる請求項1〜3の何れか一項に記載の情報処理装置。
The robot has, as the movable part, a trunk part, a head connected to the trunk part, and a pair of left and right arms,
The information processing apparatus according to any one of claims 1 to 3, wherein the notification unit operates any one of the body part, the head part, and the arm part.
音声を出力する音声出力部を更に備え、
前記報知手段は、前記検出手段が検出した前記報知対象文字及び前記特定手段が特定した報知方向を報知する音声を、前記音声出力部から出力させる請求項1〜4の何れか一項に記載の情報処理装置。
A voice output unit for outputting voice;
The said alerting | reporting means outputs the audio | voice which alert | reports the said notification object character which the said detection means detected, and the alerting | reporting direction which the said specific means specified from the said audio | voice output part. Information processing device.
移動体に設置され、複数の可動部及び当該可動部を駆動する駆動部を有するロボットと、前記ロボットに設けられ、当該ロボット周辺の画像を撮像する撮像部と、を備えた情報処理装置のコンピュータを、
前記画像に含まれた文字を認識する認識手段と、
前記認識手段で認識された文字の中から所定の報知対象文字を検出する検出手段と、
前記駆動部を制御し、前記ロボットの動作により前記報知対象文字が検出されたことを報知する報知手段と、
して機能させるためのプログラム。
A computer of an information processing apparatus, comprising: a robot installed on a moving body and having a plurality of movable parts and a drive part that drives the movable parts; The
Recognition means for recognizing characters contained in the image;
Detection means for detecting a predetermined notification target character from the characters recognized by the recognition means;
Informing means for controlling the driving unit and informing that the notification target character is detected by the operation of the robot;
Program to make it function.
JP2012013421A 2012-01-25 2012-01-25 Information processing apparatus and program Pending JP2013151045A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012013421A JP2013151045A (en) 2012-01-25 2012-01-25 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012013421A JP2013151045A (en) 2012-01-25 2012-01-25 Information processing apparatus and program

Publications (1)

Publication Number Publication Date
JP2013151045A true JP2013151045A (en) 2013-08-08

Family

ID=49047860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012013421A Pending JP2013151045A (en) 2012-01-25 2012-01-25 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP2013151045A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017085932A1 (en) 2015-11-16 2017-05-26 川崎重工業株式会社 Robot system and robot system control method
WO2017187620A1 (en) * 2016-04-28 2017-11-02 富士通株式会社 Robot
KR20180082562A (en) 2015-11-16 2018-07-18 카와사키 주코교 카부시키 카이샤 Robot system and control method of robot system
US10029373B2 (en) 2014-10-01 2018-07-24 Sharp Kabushiki Kaisha Alarm control device and notification control method
JP2019141496A (en) * 2018-02-23 2019-08-29 パナソニックIpマネジメント株式会社 Interaction device, interaction method, interaction program and robot
WO2020153299A1 (en) * 2019-01-25 2020-07-30 株式会社ソニー・インタラクティブエンタテインメント Robot control system
US11017454B2 (en) 2016-07-13 2021-05-25 Sony Corporation Agent robot control system, agent robot system, agent robot control method, and storage medium

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10029373B2 (en) 2014-10-01 2018-07-24 Sharp Kabushiki Kaisha Alarm control device and notification control method
KR102091817B1 (en) * 2015-11-16 2020-03-20 카와사키 주코교 카부시키 카이샤 Robot system and control method of robot system
US10926415B2 (en) 2015-11-16 2021-02-23 Kawasaki Jukogyo Kabushiki Kaisha Robot system and control method of robot system
CN108349091B (en) * 2015-11-16 2021-03-26 川崎重工业株式会社 Robot system and control method of robot system
CN108349091A (en) * 2015-11-16 2018-07-31 川崎重工业株式会社 The control method of robot system and robot system
WO2017085932A1 (en) 2015-11-16 2017-05-26 川崎重工業株式会社 Robot system and robot system control method
KR20180082562A (en) 2015-11-16 2018-07-18 카와사키 주코교 카부시키 카이샤 Robot system and control method of robot system
JPWO2017085932A1 (en) * 2015-11-16 2018-10-04 川崎重工業株式会社 Robot system and control method of robot system
JPWO2017187620A1 (en) * 2016-04-28 2018-11-22 富士通株式会社 robot
WO2017187620A1 (en) * 2016-04-28 2017-11-02 富士通株式会社 Robot
US11331808B2 (en) 2016-04-28 2022-05-17 Fujitsu Limited Robot
US11017454B2 (en) 2016-07-13 2021-05-25 Sony Corporation Agent robot control system, agent robot system, agent robot control method, and storage medium
US11727468B2 (en) 2016-07-13 2023-08-15 Sony Corporation Agent robot control system, agent robot system, agent robot control method, and storage medium
JP2019141496A (en) * 2018-02-23 2019-08-29 パナソニックIpマネジメント株式会社 Interaction device, interaction method, interaction program and robot
JP7109207B2 (en) 2018-02-23 2022-07-29 パナソニックホールディングス株式会社 Interaction device, interaction method, interaction program and robot
JP2020116711A (en) * 2019-01-25 2020-08-06 株式会社ソニー・インタラクティブエンタテインメント Robot control system
WO2020153299A1 (en) * 2019-01-25 2020-07-30 株式会社ソニー・インタラクティブエンタテインメント Robot control system
JP7309371B2 (en) 2019-01-25 2023-07-18 株式会社ソニー・インタラクティブエンタテインメント robot control system

Similar Documents

Publication Publication Date Title
JP2013151045A (en) Information processing apparatus and program
US11256473B2 (en) Information processing device, information processing method, and program
CN109262606B (en) Apparatus, method, recording medium, and robot
JP6838607B2 (en) Virtual organism control system, virtual organism control method and program
JP4949969B2 (en) Communication robot and its operation method
JP2011204145A (en) Moving device, moving method and program
US20180376069A1 (en) Erroneous operation-preventable robot, robot control method, and recording medium
KR102463806B1 (en) Electronic device capable of moving and method for operating thereof
JP5975947B2 (en) Program for controlling robot and robot system
CN109070356B (en) Robot
JPWO2019087484A1 (en) Information processing equipment, information processing methods, and programs
WO2018123431A1 (en) Interactive robot
EP3680754B1 (en) Orientation of an electronic device toward a user using utterance localization and image processing
JP6565853B2 (en) Communication device
US20200371525A1 (en) Information processing apparatus, information processing method, and program
CN111736585A (en) Robot and robot control method
JP2019111603A (en) Robot, robot control system, robot control method and program
JP6586810B2 (en) toy
JP2019051568A (en) Guide apparatus, guide system, guidance method and program
JP6647711B2 (en) Video chat robot system, hand-over play control method, and hand-over play control program
JP3745649B2 (en) Communication robot
JP2022060288A (en) Control device, robot, control method, and program
JP4831750B2 (en) Communication trigger system
JP2013152638A (en) Code reading apparatus and program
JP5633003B2 (en) Recording control apparatus and recording control program