JP2020170916A - 情報処理装置、及び、情報処理方法 - Google Patents

情報処理装置、及び、情報処理方法 Download PDF

Info

Publication number
JP2020170916A
JP2020170916A JP2019070551A JP2019070551A JP2020170916A JP 2020170916 A JP2020170916 A JP 2020170916A JP 2019070551 A JP2019070551 A JP 2019070551A JP 2019070551 A JP2019070551 A JP 2019070551A JP 2020170916 A JP2020170916 A JP 2020170916A
Authority
JP
Japan
Prior art keywords
animal
pet
determination unit
emotion
wording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019070551A
Other languages
English (en)
Inventor
尚貴 楠井
Naotaka Kusui
尚貴 楠井
克巳 小松
Katsumi Komatsu
克巳 小松
福田 真二
Shinji Fukuda
真二 福田
克広 平井
Katsuhiro Hirai
克広 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019070551A priority Critical patent/JP2020170916A/ja
Priority to CA3077552A priority patent/CA3077552A1/en
Priority to US16/837,192 priority patent/US20200315141A1/en
Publication of JP2020170916A publication Critical patent/JP2020170916A/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • A01K29/005Monitoring or measuring activity, e.g. detecting heat or mating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Environmental Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Biophysics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Animal Husbandry (AREA)
  • Data Mining & Analysis (AREA)
  • Ophthalmology & Optometry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Telephonic Communication Services (AREA)
  • Alarm Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】動物にセンサ装置を装着することなく、動物の感情を示す文言をユーザに通知する。【解決手段】情報処理システム1は、動物が撮影された画像を用いて動物の状態を判定する状態判定部102と、動物の状態と感情との関係を示す通知文言DB105に基づいて、状態判定部102によって判定された動物の状態に対応する動物の感情を判定する感情判定部103と、感情判定部103によって判定された動物の感情を示す文言をユーザ端末4へ通知する通知処理部104と、を備える。【選択図】図1

Description

本開示は、情報処理装置、及び、情報処理方法に関する。
近年、飼い主とペットの関係性をより深める仕組みが提供されている。特許文献1には、ペットに装着されたセンサ装置が検出したデータを用いて、ペットの行動、感情及び健康といったペットの状態を判定し、判定したペットの状態に対応するペットの発言を発言DB(DataBase)から取得して対話型SNS上の特定のユーザ宛に送信する仕組みが開示されている。
特開2016−146070号公報
しかしながら、ペットにセンサ装置を装着する仕組みは、ペットに対してストレスを与える。また、この仕組みは、ペットの数の増加に応じて、センサ装置の数も増加するため、飼い主にとって高コストである。
本開示の非限定的な実施例は、ペットにセンサ装置を装着せずに、ペットの状態を判定する技術の提供に資する。
本開示の一態様に係る情報処理装置は、動物が撮影された画像を用いて前記動物の状態を判定する状態判定部と、前記動物の状態と感情との関係を示す情報に基づいて、前記状態判定部によって判定された前記動物の状態に対応する前記動物の感情を判定する感情判定部と、前記感情判定部によって判定された前記動物の感情を示す文言を端末へ通知する通知処理部と、を備える。
なお、これらの包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示の一態様によれば、ペットにセンサ装置を装着せずに、ペットの状態を判定できる。
本開示の一態様における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。
実施の形態1に係る情報処理システムの構成例を示す図 実施の形態1に係る監視装置の構成例を示す図 実施の形態1に係るサーバ装置の構成例を示す図 実施の形態1に係るユーザ端末の構成例を示す図 実施の形態1に係るサーバ装置の機能例を示す図 実施の形態1に係る音声データの例1を示す図 実施の形態1に係る音声データの例2を示す図 実施の形態1に係る通知文言DBの例を示す図 実施の形態1に係るサーバ装置の動作例を示すフローチャート 実施の形態2に係るサーバ装置の機能例を示す図 実施の形態2に係る監視装置制御部の処理例1を説明するための図 実施の形態2に係る監視装置制御部の処理例2を説明するための図 実施の形態3に係る情報処理システムの構成例を示す図 実施の形態4に係る情報処理システムの構成例を示す図 実施の形態5に係る情報処理システムの構成例を示す図 実施の形態5に係る通知文言DBの例を示す図 実施の形態6に係るユーザ端末の動作例を説明するための図
以下、図面を適宜参照して、本発明の実施の形態について、詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(実施の形態1)
<システム構成>
図1は、実施の形態1に係る情報処理システムの構成例を示す。
図1に示すように、情報処理システム1は、監視装置2、サーバ装置3及びユーザ端末4を含む。監視装置2、サーバ装置3及びユーザ端末4は、ネットワーク6を通じて互いにデータを送受信できる。ネットワーク6の少なくとも一部は、有線及び/又は無線による、WAN(Wide Area Network)及び/又はLAN(Local Area Network)であってよい。また、ネットワーク6の少なくとも一部はインターネットであってよい。
監視装置2は、例えば、家Hの中に設置され、ペットPを監視する。監視装置2は、可視光カメラ及びマイクを備える。監視装置2は、可視光カメラによってペットPの姿を撮影し、画像データを生成する。監視装置2は、マイクによってペットPが発声する音を拾い、音声データを生成する。監視装置2は、画像データ及び音声データを、ネットワーク6を通じてサーバ装置3へ送信する。監視装置2は、ペットカメラと呼ばれてよい。
サーバ装置3は、監視装置2から受信した画像データ及び音声データに基づいてペットPの感情を判定し、ペットPの感情を示す情報(以下「感情情報」という)を生成する。サーバ装置3は、ペットPの感情情報に対応する通知文言を特定する。サーバ装置3は、画像データ及び通知文言を、ペットPの飼い主であるユーザUのユーザ端末4へ送信する。
ユーザ端末4は、サーバ装置3から受信した画像データ及び通知文言を表示する。これにより、ユーザUは、家Hの中のペットPの状況及び感情を知ることができる。以下、詳しく説明する。
<監視装置の構成>
図2は、監視装置2の構成例を示す。
図2に示すように、監視装置2は、制御部21、記憶部22、操作部23、パンモータ24、チルトモータ25、赤外線センサ26、音声入出力制御部27、マイク28、スピーカ29、撮像部30、映像メモリ制御部31、映像メモリ32、無線LAN通信部33、電源部34、外部メモリI/F(Interface)部35、及び、バス36を有する。
制御部21は、監視装置2を制御する。制御部21は、CPU(Central Processing Unit)によって構成されてよい。
記憶部22には、制御部21が動作するためのプログラムが記憶される。また、記憶部22には、制御部21が計算処理を行うためのデータ、または、制御部21が各部を制御するためのデータ等が記憶される。記憶部22は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、およびHDD(Hard Disk Drive)などの記憶装置によって構成されてよい。
操作部23は、ユーザの操作を受け付け可能なボタン等を用いて構成される。操作部23は、ユーザの操作に応じた信号を制御部21に出力する。
パンモータ24は、制御部21の制御に基づいて、撮像部30をパン方向に駆動するモータである。チルトモータ25は、制御部21の制御に基づいて、撮像部30をチルト方向に駆動するモータである。
赤外線センサ26は、例えば、PIR(Passive Infra-Red)センサである。赤外線センサ26は、例えば、ペットを検知する。
音声入出力制御部27、マイク28、およびスピーカ29は、外部に対して音声の入出力を行う。
撮像部30は、レンズおよび撮像素子を有する。撮像素子は、例えば、CCD(Charged Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサである。撮像部30は、パン方向およびチルト方向に可動する機構を有する。撮像部30は、パンモータ24およびチルトモータ25によって、パン方向およびチルト方向に可動する。
映像メモリ制御部31は、マイク28により集音された音声の信号(音声データ)を、撮像部30から出力される画像データとともに、映像メモリ32に一時的にバッファリング(記憶)する。
無線LAN通信部33は、例えば、Wi−Fi(登録商標)等の無線通信方式を用いて、ルータ(図示しない)に無線接続する。無線LAN通信部33は、映像メモリ制御部31を介して、映像メモリ32に記憶された画像データ(音声データを含む)を読み出す。無線LAN通信部33は、読み出した画像データを、ルータを介して、サーバ装置3に送信する。
電源部34は、監視装置2の各部に必要な電力を供給する。外部メモリI/F部35には、USBメモリまたはSDカード(登録商標)等の外部メモリが着脱される。制御部21は、赤外線センサ26によってペットが検知された場合、撮像部30による撮影を開始し、映像メモリ32に記憶される撮像部30の画像データを外部メモリに記憶してもよい。
<サーバ装置の構成>
図3は、サーバ装置3の構成例を示す。
図3に示すように、サーバ装置3は、制御部41、記憶部42、及び、通信部43を有する。
制御部41は、サーバ装置3を制御する。制御部41は、CPUによって構成されてよい。
記憶部42には、制御部41が動作するためのプログラムが記憶される。また、記憶部42には、制御部41が計算処理を行うためのデータ、または、制御部41が各部を制御するためのデータ等が記憶される。記憶部42は、RAM、ROM、フラッシュメモリ、およびHDD等の記憶装置によって構成されてよい。
通信部43は、ネットワーク6を介して、他の装置とデータを送受信する。例えば、通信部43は、制御部41によって生成されたデータを、ネットワーク6へ送信する。通信部43は、ネットワーク6から受信したデータを、制御部41に提供する。
<ユーザ端末の構成>
図4は、ユーザ端末4の構成例を示す。
図4に示すように、ユーザ端末4は、制御部51、記憶部52、タッチパネル53、携帯電話通信部54、音声入出力制御部55、マイク56、スピーカ57、無線LAN(Local Area Network)通信部58、USB(Universal Serial Bus)通信部59、二次電池60、及び、バス61を有する。
制御部51は、ユーザ端末4を制御する。制御部51は、CPUによって構成されてよい。
記憶部52には、制御部51が動作するためのプログラムが記憶される。また、記憶部52には、制御部51が計算処理を行うためのデータ、または、制御部51が各部を制御するためのデータ等が記憶される。記憶部52は、RAM、ROM、フラッシュメモリ、およびHDD等の記憶装置によって構成されてもよい。
タッチパネル53は、画像を表示する表示装置と、表示装置の画面上にユーザ操作を受付ける透明な板状の入力装置とを備えた装置である。タッチパネル53は、監視装置2が撮影する画像を表示する。また、タッチパネル53は、例えば、ユーザのタップ操作、ドラッグ操作、または長押し操作等を受け付け、受け付けた操作に応じた信号を制御部51に出力する。
携帯電話通信部54は、例えば、3G(第3世代移動通信システム)、4G(第4世代移動通信システム)、及び/又は、5G(第5世代移動通信システム)等の無線通信方式を用いて、ネットワーク6に無線接続する。携帯電話通信部44は、ネットワーク6を介して、他の電子機器と、データの送受信を行う。
音声入出力制御部55、マイク56、及び、スピーカ57は、外部に対して音声の入出力を行う。
無線LAN通信部58は、例えば、Wi−Fi等の無線通信方式を用いて、ルータ(図示しない)に無線接続する。無線LAN通信部58は、ルータを介して、他の電子機器と、データの送受信を行う。
USB通信部59は、USB規格のインタフェースを有する機器やメモリ等とデータを送受信する。
二次電池60は、ユーザ端末4の各部に必要な電力を供給する。二次電池60は、ニッケル水素バッテリ、リチウムイオン電池、又は、鉛バッテリ等の充電可能な電池である。
<サーバ装置の機能>
図5は、サーバ装置3の機能例を示す。
サーバ装置3は、データ受信部101、状態判定部102、感情判定部103、通知処理部104、及び、通知文言DB105を有する。
<<データ受信部>>
データ受信部101は、監視装置2から、センサデータの一例である画像データ及び音声データを受信する。上述のとおり、画像データにはペットの姿が含まれ得る。音声データにはペットが発声した音が含まれ得る。
<<状態判定部>>
状態判定部102は、データ受信部101が受信した画像データ及び音声データに基づいて、ペットの状態を判定する。
状態判定部102は、画像データを分析して、ペットの状態の一例であるペットの姿勢分類を判定する。次に、ペットの姿勢分類の判定例を示す。
・状態判定部102は、画像データに、寝転んでいるペットの姿が含まれる場合、ペットの姿勢分類を「寝転び」と判定する。
・状態判定部102は、画像データに、4足で立っているペットの姿が含まれる場合、ペットの姿勢分類を「4足立ち」と判定する。
・状態判定部102は、画像データに、2足で立っているペットの姿が含まれる場合、ペットの姿勢分類を「2足立ち」と判定する。
・状態判定部102は、画像データに、顔を上に向けているペットの姿が含まれる場合、ペットの姿勢分類を「上向き顔」と判定する。
・状態判定部102は、画像データに、前傾姿勢で立っているペットの姿が含まれる場合、ペットの姿勢分類を「前傾」と判定する。
・状態判定部102は、画像データに、伏せの姿勢で顔を上げているペットの姿が含まれる場合、ペットの姿勢分類を「伏せ(顔を上げた状態)」と判定する。
・状態判定部102は、画像データに、伏せの姿勢で顔を下げているペットの姿が含まれる場合、ペットの姿勢分類を「伏せ(顔を下げた状態)」と判定する。
状態判定部102は、画像データを分析して、ペットの状態の一例であるペットの表情を判定する。次に、ペットの表情の判定例を示す。
・状態判定部102は、画像データに、睨んでいるペットの顔が含まれる場合、ペットの表情を「睨み」と判定する。
・状態判定部102は、画像データに、目を見開いているペットの顔が含まれる場合、ペットの表情を「目を見開く」と判定する。
・状態判定部102は、画像データに、見つめているペットの顔が含まれる場合、ペットの表情を「見つめる」と判定する。
状態判定部102は、ペットの姿を含む大量の画像データにて深層学習したディープニューラルネットワーク(DNN)を用いて、上記の判定を行ってよい。
状態判定部102は、音声データを分析して、ペットの状態の一例であるペットの鳴き声(発声音)を判定する。次に、ペットの鳴き声の判定例を示す。
・状態判定部102は、ペットが犬の場合、音声データを分析して、ペットの鳴き声が、「ワンワン」、「グルル」、「ワオーン」、「キャンキャン」、「ズー」、「グー」、「ガウッ」、「ウー」及び「クーン」のうちの何れであるかを判定する。
・状態判定部102は、ペットが猫の場合、音声データを分析して、ペットの鳴き声が、「ニャー」、「シャー」、「ゴロゴロ」及び「カカカ」のうちの何れであるかを判定する。
状態判定部102が分析に用いる音声データは、図6Aに示すような、時間及び振幅の情報を含む音声信号であってよい。或いは、音声データは、図6Bに示すような、時間、周波数及び信号成分の強さの情報を含むスペクトログラムであってもよい。状態判定部102は、スペクトログラムを、画像データとして扱ってもよい。これにより、状態判定部102は、音声データを、上記のペットの姿を含む画像データの場合と同様に、DNNを用いて判定できる。
状態判定部102は、上記の姿勢分類、表情及び鳴き声等の判定結果を組み合わせたペットの状態情報を生成する。例えば、状態判定部102は、姿勢分類「前傾/2足立ち」、表情「睨み」、鳴き声「ガウッ」を組み合わせた状態情報を生成する。
なお、音声データには、ペットの鳴き声の他に、チャイム音のような環境音も含まれ得る。状態判定部102は、音声データを分析して、このような環境音を判定してもよい。この場合、状態判定部102は、判定した環境音をさらに組み合わせた状態情報を生成してよい。
また、画像データ及び/又は音声データによる分析は、上述の例に限られない。例えば、状態判定部102は、画像データ及び/又は音声データから、ペットの場所(トイレ、餌場など)を分析してもよい。
<<通知文言DB>>
図7に示すように、通知文言DB105は、ペットの姿勢分類、表情、鳴き声及び環境音の組み合わせに対する、感情情報の関連付けを管理する。また、通知文言DB105は、感情情報に対する通知文言の関連付けを管理する。なお、図7は一例であり、通知文言DB105は、図7に示す姿勢分類、表情、鳴き声及び環境音のうちの少なくとも1つに対する、感情情報の関連付けを管理してよい。
<<感情判定部>>
感情判定部103は、状態判定部102によって生成されたペットの状態情報から、ペットの感情情報を判定する。例えば、感情判定部103は、図7に示す通知文言DB105を用いて、ペットの状態情報から、ペットの感情情報を判定する。
例えば、状態情報が、姿勢分類「伏せ(頭を上げた状態)」、及び、鳴き声「ワオーン」の組み合わせである場合、感情判定部103は、通知文言DB105の行200bから、感情情報を「寂しい」と判定する。さらに、感情判定部103は、通知文言DB105の行200bから、感情分類「寂しい」に関連付けられている文言「まだ帰って来ないかなー」を特定する。
例えば、状態情報が、姿勢分類「4足立ち」、表情「目を見開く」、鳴き声「ウー」、及び、環境音「チャイム音」の組み合わせである場合、感情判定部103は、通知文言DB105の行200cから、感情情報を「警戒」と判定する。さらに、感情判定部103は、通知文言DB105の行200cから、感情情報「警戒」に関連付けられている通知文言「誰か来たのかな?」を特定する。
なお、感情判定部103は、ペットの状態情報の組み合わせを入力した場合に、その入力に対応する感情情報を出力するDNNを用いて、ペットの感情情報を判定してもよい。
<<通知処理部>>
通知処理部104は、通知条件を満たす場合、感情判定部103によって特定された文言を、ユーザ端末4へ通知する。通知処理部104は、ペットの感情を示す文言と共に画像データを通知してよい。
通知条件は、次の(A1)から(A4)のうちの少なくとも1つであってよい。
(A1)前回の通知から所定時間以上が経過している場合に、通知を実行する。これにより、ユーザ端末4に対して、適切な頻度で文言を通知できる。
(A2)今回通知する文言が、前回通知した文言と異なる場合に、通知を実行する。これにより、同じ文言が連続して通知されることを抑止できる。また、ペットの感情が大きく変化したときに文言を通知できる。
(A3)画像データにペットの適切な姿が含まれる場合に、通知を実行する。これにより、適切な画像データがユーザ端末4に表示される。なお、ペットの適切な姿が含まれるか否かは、画像データにペットの目、鼻及び/又は口の画像が含まれるか否かによって判定されてよい。
(A4)ユーザ端末4が、監視装置2が設置されている家の外に位置する場合に、通知を実行する。これにより、ユーザが家の中にいる場合に文言が通知されることを抑止できる。なお、ユーザ端末4が家の内と外の何れに位置するかは、ユーザ端末4の位置情報によって判定されてよい。或いは、ユーザ端末4と監視装置2とが同じLANに接続されているか否かによって判定されてよい。
なお、通知処理部104は、ペットの姿が含まれる画像に文言を重畳した画像データを生成し、ユーザ端末4へ通知してもよい。
また、通知処理部104は、ユーザが利用するSNSのサーバ装置(図示しない)に対して、文言を通知してよい。SNSのサーバ装置は、通知された文言を、ユーザ端末4のSNSアプリケーションに転送する。これにより、ユーザは、ユーザ端末4のSNSアプリケーションを用いて、ペットの文言の通知を受け取ることができる。なお、文言は、SNSアプリケーションの画面において、時系列に表示(つまりタイムライン表示)されてよい。
<サーバ装置の動作>
次に、図8に示すフローチャートを参照し、サーバ装置3の動作例について説明する。
データ受信部101は、監視装置2から画像データ及び音声データを受信する(S101)。
状態判定部102は、S101で受信した画像データにペットの姿が含まれるか否かを判定する(S102)。画像データにペットの姿が含まれる場合(S102:YES)、サーバ装置3は、S104の処理を実行する。
画像データにペットの姿が含まれない場合(S102:NO)、状態判定部102は、S101で受信した音声データにペットの鳴き声が含まれるか否かを判定する(S103)。音声データにペットの鳴き声が含まれない場合(S103:NO)、サーバ装置3は、処理を終了する(END)。音声データにペットの鳴き声が含まれる場合(S103:YES)、サーバ装置3は、S104の処理を実行する。
状態判定部102は、画像データ及び/又は音声データに基づいて、ペットの状態情報及び感情情報を生成する(S104)。
感情判定部103は、通知文言DB105を参照して、S104で生成された感情情報に対応する文言を特定する(S105)。
通知処理部104は、通知条件を満たすか否かを判定する(S106)。通知条件を満たさない場合(S106:NO)、サーバ装置3は、処理を終了する(END)。
通知条件を満たす場合(S106:YES)、通知処理部104は、S105で特定された文言を、ユーザ端末4へ通知する(S107)。そして、サーバ装置3は、処理を終了する(END)。
<変形例>
次に、上述した実施の形態における変形例を説明する。なお、次に説明する変形例は互い組み合わせて実施されてもよい。
画像データは、動画像データであってよい。この場合、通知処理部104は、データ受信部101によって受信された動画像データに対して、感情判定部103によって特定された文言を重畳して、ユーザ端末4へ送信してよい。動画像データは、監視装置2がリアルタイムに撮影中の画像であってよい。或いは、動画像データは、監視装置2が過去に撮影して記録した画像(つまり録画画像)であってもよい。
状態判定部102及び感情判定部103は、画像データに複数のペットの姿が含まれる場合、ユーザ端末4から指定されたペットを判定の対象としてよい。
状態判定部102及び感情判定部103は、画像データに複数のペットの姿が含まれる場合、画像に占める割合が最も大きいペットを、判定の対象としてよい。
状態判定部102及び感情判定部103は、画像データに複数のペットの姿が含まれる場合、それぞれのペットを判定の対象としてよい。この場合、次の(B1)及び(B2)のうちの少なくとも1つが実現されてよい。
(B1)通知処理部104は、それぞれのペットの文言を、ユーザ端末4へ通知してよい。ユーザ端末4は、ユーザからの指示に応じて、表示させる文言を切り替えてよい。また、ユーザ端末4は、ユーザが画像データの一部をズームアップした場合、ズームアップされたペットの文言を表示してもよい。
(B2)通知処理部104は、それぞれのペットの名前と文言の組を、ユーザ端末4へ送信してよい。ユーザ端末4は、受信したそれぞれのペットの名前と文言の組を表示してよい。例えば、ユーザ端末4は、同じ組のペットの名前と文言を並べて表示してよい。例えば、ユーザ端末4は、異なる組のペットの名前と文言を、異なる色で表示してよい。
(実施の形態2)
図9を参照して、実施の形態2に係るサーバ装置3の機能を説明する。なお、実施の形態2の説明では、実施の形態1と共通の説明を省略する。
図9に示すように、実施の形態2に係るサーバ装置3は、監視装置制御部106をさらに有する。監視装置制御部106は、ユーザ端末4からの指示に基づいて、監視装置2を制御する。
次に、図10を参照して、監視装置制御部106の処理例1を説明する。図10に示すように、ユーザ端末4は、感情情報を表示すると共に、呼びかけボタン301を表示する。
ユーザUが呼びかけボタン301を押下した場合、ユーザ端末4は、呼びかけボタン301が押下された旨を示す情報(以下「呼びかけ情報」という)を、サーバ装置3へ送信する。サーバ装置3の監視装置制御部106は、呼びかけ情報の受信を検知した場合、監視装置2に対して、呼びかけ指示を送信する。監視装置2は、呼びかけ指示を受信した場合、受信した呼びかけ指示に応じた音声を、スピーカ29から出力する。
これにより、ユーザUは、ユーザ端末4に通知されたペットPの文言に応じて、監視装置2を通じてペットPに呼びかけることができる。
なお、呼びかけの方法は、呼びかけボタン301の押下に限られない。例えば、監視装置制御部106は、ユーザUがユーザ端末4に対して発した音声を受信し、受信した音声を監視装置2へ転送してもよい。そして、監視装置2は、転送された音声をスピーカ29から出力してよい。
次に、図11を参照して、監視装置制御部106の処理例2を説明する。図11に示すように、ユーザ端末4は、文言を表示すると共に、家電操作ボタン302を表示する。
ユーザUが家電操作ボタン302を押下した場合、ユーザ端末4は、家電操作ボタン302が押下された旨を示す情報(以下「家電操作情報」という)を、サーバ装置3へ送信する。サーバ装置3の監視装置制御部106は、家電操作情報の受信を検知した場合、監視装置2に対して、家電操作指示を送信する。監視装置2は、家電操作指示を受信した場合、受信した家電操作指示に応じて、家電303を操作する。
これにより、ユーザUは、ユーザ端末4に通知されたペットPの文言に応じて、監視装置2を通じて家電303を操作することができる。例えば、ユーザUは、暑いことを示すペットの文言が通知された場合、ユーザ端末4において、エアーコンディショナーをONにする旨の家電操作を行う。これにより、家の中のエアーコンディショナーがONになり、ペットPが快適に過ごせる。
(実施の形態3)
図12を参照して、実施の形態3に係る情報処理システムの構成例を説明する。なお、実施の形態3の説明では、実施の形態1と共通の説明を省略する。
図12に示すように、実施の形態3に係る情報処理システムでは、監視装置2が状態判定部102を有し、サーバ装置3が感情判定部103、通知処理部104、及び、通知文言DB105を有する。この場合、監視装置2の状態判定部102が、ペットの状態情報を生成し、生成した状態情報をサーバ装置3へ送信する。そして、サーバ装置3の感情判定部103が、監視装置2から受信した状態情報に基づいて、感情情報を生成する。
図12に示す情報処理システムによれば、状態判定部102の処理が各監視装置2に分散されるので、サーバ装置3の処理負荷を軽減できる。
(実施の形態4)
図13を参照して、実施の形態4に係る情報処理システムの構成例を説明する。なお、実施の形態5の説明では、実施の形態1と共通の説明を省略する。
図13に示すように、実施の形態4に係る情報処理システムでは、監視装置2が、状態判定部102、感情判定部103、通知処理部104、及び、通知文言DB105を有する。この場合、情報処理システムは、サーバ装置3を有さなくてもよい。
図13に示す情報処理システムによれば、サーバ装置3を用いずに、実施の形態1を実現できる。
(実施の形態5)
図14を参照して、実施の形態5に係る情報処理システムの構成例を示す。なお、実施の形態5の説明では、実施の形態1と共通の説明を省略する。
図14に示すように、実施の形態5に係る情報処理システムでは、監視装置2は、撮像部30及びマイク28に加えて、次のうちの少なくとも1つを備える。すなわち、監視装置2は、空気の温度を測定する温度センサ401、空気の湿度を測定する湿度センサ402、及び、ペットの体温を測定するサーモカメラ403、及び、ペットまでの距離を測定できる深度カメラ404のうちの少なくとも1つを備える。なお、撮像部30は、暗所又は夜間でもペットを撮影できるカメラ(例えば暗視カメラ又は赤外線カメラ)であってよい。また、深度カメラ404は、ToF(Time-of-Flight)カメラと呼ばれてもよい。
監視装置2は、センサデータとして、画像データ及び音声データに加えて、温度センサ401によって測定された温度データ、湿度センサ402によって測定された湿度データ、サーモカメラ403によって測定されたペットの体温データ、及び、深度カメラ404によって測定されたペットまでの距離データを、サーバ装置3へ送信する。
サーバ装置3における状態判定部102は、監視装置2から受信した、画像データ、音声データ、温度データ、湿度データ、及び、体温データのうちの少なくとも1つに基づいて、状態情報を生成する。ここで、状態判定部102は、体温データに基づいて、ペットの状態の一例であるペットのバイタルを分析する。例えば、状態判定部102は、体温データを分析して、ペットの体温が、「上昇」、「維持」及び「下降」のうちの何れであるかを判定する。この場合、状態判定部102は、姿勢分類、表情、鳴き声、環境音、及び、バイタルを組み合わせた状態情報を生成する。なお、ペットが心拍測定センサを付けている場合、状態判定部102は、ペットのバイタルの分析として、その心拍測定センサから受信した心拍データを分析してもよい。例えば、状態判定部102は、ペットの心拍が、「上昇」、「維持」及び「下降」のうちの何れであるかを判定してもよい。
通知文言DB105は、図15に示すように、状態情報の組み合わせ項目として、姿勢分類、表情、鳴き声、環境音に加えて、バイタルを有する。
感情判定部103は、通知文言DB105に基づいて、状態情報に対応する感情情報を判定する。すなわち、感情判定部103は、姿勢分類、表情、鳴き声、環境音、及び、バイタルの組み合わせに対応する感情情報を判定する。
これにより、実施の形態5に係る情報処理システムは、実施の形態1に係る情報処理システムと比較して、より多彩な通知を、ユーザ端末4へ通知できる。
(実施の形態6)
図16を参照して、実施の形態6を説明する。なお、実施の形態6の説明では、実施の形態1と共通の説明を省略する。
図16に示すように、ユーザ端末4は、ペットの姿を撮影した画像データ及びペットの鳴き声を拾った音声データを、サーバ装置3へ送信する。サーバ装置3は、ユーザ端末4から受信した画像データ及び音声データを、上述にて監視装置2から画像データ及び音声データを受信した場合と同様に処理する。そして、サーバ装置3は、ユーザ端末4に対して、通知文言を送信する。ユーザ端末4は、サーバ装置3から受信した文言を、画面に表示中のペットに重畳して表示する。
これにより、ユーザは、ユーザ端末4をペットに向けることで、ペットの感情を知ることができる。
なお、ユーザ端末4が、状態判定部102、感情判定部103、及び、通知文言DB105を備えてもよい。すなわち、ユーザ端末4は、撮影したペットの姿の画像データ及びペットの鳴き声を拾った音声データを、サーバ装置3へ送信せず、内部で感情情報を生成してよい。そして、ユーザ端末4は、生成した感情情報に対応する文言を、画面に表示中のペットに重畳して表示してよい。
(本開示のまとめ)
本開示に係る情報処理システム1は、動物が撮影された画像を用いて動物の状態を判定する状態判定部102と、動物の状態と感情との関係を示す通知文言DB105に基づいて、状態判定部102によって判定された動物の状態に対応する動物の感情を判定する感情判定部103と、感情判定部103によって判定された動物の感情を示す文言をユーザ端末4へ通知する通知処理部104と、を備える。これにより、動物を撮影した画像がサーバ装置3へ送信されることにより、その動物の感情を示す文言がユーザ端末4へ通知される。つまり、動物にセンサ装置を装着することなく、動物の感情を示す文言を、ユーザへ通知できる。
状態判定部102は、動物の状態として、動物を撮影した画像から、動物の姿勢及び表情のうちの少なくとも1つを判定してよい。これにより、動物の姿勢及び表情が判明するので、判明した分類に対応する感情情報を特定し、特定した感情情報に対応する文言を、端末に通知できる。
状態判定部102は、動物の発声音を用いて動物の状態を判定してもよい。この場合、状態判定部は、動物の状態として、動物の発声音から、動物の鳴き声を判定してよい。これにより、動物を撮影した画像と動物の発声音とを用いて動物の状態を判定するので、多様な文言を通知できる。
通知処理部104は、今回通知する文言が、前回通知した文言と異なる場合に、今回の文言を通知してよい。これにより、同じ文言の連続した通知が抑制されるので、適切な頻度で文言を通知できる。
通知処理部104は、文言と共に、動物が撮影された画像を通知してよい。これにより、ユーザは、動物が撮影された画像と文言とをまとめて確認できるので、動物の感情をより正しく認識できる。
なお、上述の「ペット」は動物の一例である。上述した実施の形態は、動物園で飼育されている動物又は畜産家によって飼育されている動物など、ペット以外にも適用できる。
また、上述した機能の全部又は一部が情報処理装置に含まれてよい。情報処理装置は、上述した監視装置2、サーバ装置3、及びユーザ端末4の何れであってもよいし、これらとは異なる装置であってもよい。
上記の実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、又は、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
本開示の一態様は、情報処理システムに有用である。
1 情報処理システム
2 監視装置
3 サーバ装置
4 ユーザ端末
6 ネットワーク
21 制御部
22 記憶部
23 操作部
24 パンモータ
25 チルトモータ
26 赤外線センサ
27 音声入出力制御部
28 マイク
29 スピーカ
30 撮像部
31 映像メモリ制御部
32 映像メモリ
33 無線LAN通信部
34 電源部
35 外部メモリI/F部
36 バス
41 制御部
42 記憶部
43 通信部
51 制御部
52 記憶部
53 タッチパネル
54 携帯電話通信部
55 音声入出力制御部
56 マイク
57 スピーカ
58 無線LAN通信部
59 USB通信部
60 二次電池
61 バス
101 データ受信部
102 状態判定部
103 感情判定部
104 通知処理部
105 通知文言DB
106 監視装置制御部

Claims (7)

  1. 動物が撮影された画像を用いて前記動物の状態を判定する状態判定部と、
    前記動物の状態と感情との関係を示す情報に基づいて、前記状態判定部によって判定された前記動物の状態に対応する前記動物の感情を判定する感情判定部と、
    前記感情判定部によって判定された前記動物の感情を示す文言を端末へ通知する通知処理部と、
    を備えた、情報処理装置。
  2. 前記状態判定部は、前記動物の状態として、前記動物が撮影された画像から、前記動物の姿勢及び表情のうちの少なくとも1つを判定する、
    請求項1に記載の情報処理装置。
  3. 前記状態判定部は、前記動物の発声音を用いて前記動物の状態を判定する、
    請求項1又は2に記載の情報処理装置。
  4. 前記状態判定部は、前記動物の状態として、前記動物の発声音から、前記動物の鳴き声を判定する、
    請求項3に記載の情報処理装置。
  5. 前記通知処理部は、前記文言が、前回通知した文言と異なる場合に、前記文言を通知する、
    請求項1に記載の情報処理装置。
  6. 前記通知処理部は、前記文言と共に、前記動物が撮影された画像を通知する、
    請求項1に記載の情報処理装置。
  7. 情報処理装置が、
    動物が撮影された画像を用いて前記動物の状態を判定し、
    前記動物の状態と感情との関係を示す情報に基づいて、判定された前記動物の状態に対応する前記動物の感情を判定し、
    判定された前記動物の感情を示す文言を端末へ通知する、
    情報処理方法。
JP2019070551A 2019-04-02 2019-04-02 情報処理装置、及び、情報処理方法 Pending JP2020170916A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019070551A JP2020170916A (ja) 2019-04-02 2019-04-02 情報処理装置、及び、情報処理方法
CA3077552A CA3077552A1 (en) 2019-04-02 2020-03-31 Information processing apparatus and information processing method
US16/837,192 US20200315141A1 (en) 2019-04-02 2020-04-01 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019070551A JP2020170916A (ja) 2019-04-02 2019-04-02 情報処理装置、及び、情報処理方法

Publications (1)

Publication Number Publication Date
JP2020170916A true JP2020170916A (ja) 2020-10-15

Family

ID=72663425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019070551A Pending JP2020170916A (ja) 2019-04-02 2019-04-02 情報処理装置、及び、情報処理方法

Country Status (3)

Country Link
US (1) US20200315141A1 (ja)
JP (1) JP2020170916A (ja)
CA (1) CA3077552A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022138839A1 (ja) * 2020-12-24 2022-06-30 Assest株式会社 動物意思判別プログラム
WO2022201293A1 (ja) * 2021-03-23 2022-09-29 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体
WO2023120675A1 (ja) 2021-12-23 2023-06-29 アニコム ホールディングス株式会社 感情判定システム及び感情判定方法
WO2023175931A1 (ja) * 2022-03-18 2023-09-21 日本電気株式会社 画像分類装置、画像分類方法、及び、記録媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH103479A (ja) * 1996-06-14 1998-01-06 Masaomi Yamamoto 動物等の意思翻訳方法および動物等の意思翻訳装置
JP2009118813A (ja) * 2007-11-16 2009-06-04 Panasonic Electric Works Co Ltd ペット用鳴き声診断システム
JP2017175476A (ja) * 2016-03-24 2017-09-28 佐藤 浩行 撮像装置、画像取得システム、画像提供サービス方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH103479A (ja) * 1996-06-14 1998-01-06 Masaomi Yamamoto 動物等の意思翻訳方法および動物等の意思翻訳装置
JP2009118813A (ja) * 2007-11-16 2009-06-04 Panasonic Electric Works Co Ltd ペット用鳴き声診断システム
JP2017175476A (ja) * 2016-03-24 2017-09-28 佐藤 浩行 撮像装置、画像取得システム、画像提供サービス方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022138839A1 (ja) * 2020-12-24 2022-06-30 Assest株式会社 動物意思判別プログラム
WO2022201293A1 (ja) * 2021-03-23 2022-09-29 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体
WO2023120675A1 (ja) 2021-12-23 2023-06-29 アニコム ホールディングス株式会社 感情判定システム及び感情判定方法
JP2023094426A (ja) * 2021-12-23 2023-07-05 アニコム ホールディングス株式会社 感情判定システム及び感情判定方法
JP7330258B2 (ja) 2021-12-23 2023-08-21 アニコム ホールディングス株式会社 感情判定システム及び感情判定方法
WO2023175931A1 (ja) * 2022-03-18 2023-09-21 日本電気株式会社 画像分類装置、画像分類方法、及び、記録媒体

Also Published As

Publication number Publication date
CA3077552A1 (en) 2020-10-02
US20200315141A1 (en) 2020-10-08

Similar Documents

Publication Publication Date Title
JP2020170916A (ja) 情報処理装置、及び、情報処理方法
US10674056B2 (en) Wearable apparatus and method for capturing image data using multiple image sensors
US10085423B2 (en) Remote interaction device with tracking of remote movement input
JP6573297B1 (ja) 監視カメラおよび検知方法
US20130216971A1 (en) Wireless intra-oral imaging system and method
JPWO2018025458A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN110706449A (zh) 一种婴幼儿监测方法、装置与摄像设备及存储介质
KR20130118510A (ko) 의료용 화상 대화 제공 시스템 및 이를 이용한 의료용 화상 대화 서비스 제공 방법
JP2015092646A (ja) 情報処理装置、制御方法、およびプログラム
CN105049807A (zh) 监控画面声音采集方法及装置
US20160034252A1 (en) Smart device control
CN110730330B (zh) 声音处理方法与装置、门铃和计算机可读存储介质
JP2019091233A (ja) 通知制御システム、通知制御方法およびプログラム
CN110178159A (zh) 具有集成式投影仪的音频/视频可穿戴式计算机系统
JP2013161098A (ja) サーバ装置及び監視システム
CN116959189A (zh) 基于摄像装置的宠物行为纠正方法及宠物行为纠正系统
LU100113B1 (en) Intelligent bracelet
CN105022291B (zh) 一种声音信号采集方法及设备
JP6477830B1 (ja) 首輪及び近接判定システム
CN203608288U (zh) 一种无线电子猫眼系统
KR102712161B1 (ko) 모니터링 디바이스 및 그 제어 방법
JP2019058514A (ja) 電子機器、電子機器の制御方法及びプログラム
JP7113253B2 (ja) 呼出装置、情報端末、情報端末の制御方法、プログラム
CN111275928A (zh) 一种用于监测人体活动的预警方法、电子设备、终端设备及预警系统
KR20230144482A (ko) 감성 기반 반려 동물 관리 서비스 제공 시스템 및 방법

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230627