KR101285648B1 - 비가시화정보 임베딩장치, 비가시화정보 인식장치, 비가시화정보 임베딩방법, 비가시화정보 인식방법 및 기록매체 - Google Patents

비가시화정보 임베딩장치, 비가시화정보 인식장치, 비가시화정보 임베딩방법, 비가시화정보 인식방법 및 기록매체 Download PDF

Info

Publication number
KR101285648B1
KR101285648B1 KR1020127014595A KR20127014595A KR101285648B1 KR 101285648 B1 KR101285648 B1 KR 101285648B1 KR 1020127014595 A KR1020127014595 A KR 1020127014595A KR 20127014595 A KR20127014595 A KR 20127014595A KR 101285648 B1 KR101285648 B1 KR 101285648B1
Authority
KR
South Korea
Prior art keywords
information
image
invisible
visible
embedding
Prior art date
Application number
KR1020127014595A
Other languages
English (en)
Other versions
KR20120128600A (ko
Inventor
나오토 한유
히로시 후쿠이
켄이치 사쿠마
타카쿠니 도우세키
카즈마 키타무라
Original Assignee
더 리츠메이칸 트러스트
가부시키가이샤 시세이도
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 더 리츠메이칸 트러스트, 가부시키가이샤 시세이도 filed Critical 더 리츠메이칸 트러스트
Publication of KR20120128600A publication Critical patent/KR20120128600A/ko
Application granted granted Critical
Publication of KR101285648B1 publication Critical patent/KR101285648B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32203Spatial or amplitude domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/005Robust watermarking, e.g. average attack or collusion attack resistant
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32203Spatial or amplitude domain methods
    • H04N1/32229Spatial or amplitude domain methods with selective or adaptive application of the additional information, e.g. in selected regions of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0051Embedding of the watermark in the spatial domain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0065Extraction of an embedded watermark; Reliable detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Record Information Processing For Printing (AREA)

Abstract

취득한 화상의 소정의 위치에 비가시화정보를 임베딩하는 비가시화정보 임베딩장치는 상기 화상에 포함되는 물체정보 및 위치정보를 취득하는 화상해석수단과, 상기 화상해석수단에 의해 얻어진 물체정보로부터 상기 화상이 임베딩대상인 화상인지를 판정하는 임베딩대상화상 판정수단과, 상기 임베딩대상화상 판정수단에 의해 얻어지는 판정결과에 기초하여 상기 화상에 상기 비가시화정보를 합성하는 화상합성수단을 갖는 것을 특징으로 한다.

Description

비가시화정보 임베딩장치, 비가시화정보 인식장치, 비가시화정보 임베딩방법, 비가시화정보 인식방법 및 기록매체{INVISIBLE INFORMATION EMBEDDING DEVICE, INVISIBLE INFORMATION RECOGNITION DEVICE, INVISIBLE INFORMATION EMBEDDING METHOD, INVISIBLE INFORMATION RECOGNITION METHOD, AND RECORDING MEDIUM}
본발명은 효율적인 정보취득에 의해 부가가치성이 우수한 정밀도 높은 화상을 제공하기 위한 비가시화정보 임베딩장치, 비가시화정보 인식장치, 비가시화정보 임베딩방법, 비가시화정보 인식방법 및 기록매체에 관한 것이다.
종래에는, 예를 들어, 모양 등이 그려진 카드를 촬영하고, 촬영한 카메라영상으로부터 검출되는 카드의 종류나 3차원 위치정보에 기초하여 악기를 제어하는 MIDI (Musical Instrument Digital Interface) 신호를 출력하거나 영상을 출력하는 기술이 알려져 있다(예를 들어, 특허문헌 1 참조).
또한, 카메라로 종이 매체의 도형을 인식하여 PC의 디스플레이상에 가상도형을 표시시키는 시스템 툴 등이 존재한다(예를 들어, 비특허문헌 1 참조).
나아가, 소정의 화상패턴에 대응하는 식별정보를 갖는 대상화상을 취득하고, 취득된 대상화상중에서 식별정보를 인식하고, 미리 등록된 복수의 처리중에서 인식된 식별정보에 대응하는 소정의 처리를 실행하고, 대상화상을 소정의 표시영역내에 표시하고, 표시된 대상화상내의 소정의 2개 이상의 위치의 위치정보를 취득하고, 취득된 2개 이상의 위치의 위치정보에 근거하는 방향 및 위치에 인식된 식별정보에 대응하는 화상을 묘화하는 화상처리기술이 알려져 있다(예를 들어, 특허문헌 2 참조).
또한, 종래에는 동영상에 인간의 지각(시각, 청각) 특성을 이용하여 정지화면, 동영상, 오디오 등의 디지털컨텐츠에 대하여 컨텐츠와는 다른 정보를 인간이 지각할 수 없도록 임베딩하는 디지털 워터마킹 (digital watermarking) 기술이 알려져 있다(예를 들어, 특허문헌 3, 4 참조).
일본공개특허공보 제2002-32076호 일본공개특허공보 제2000-82107호 국제공개 제2005/074248호 팜플렛 국제공개 제2007/015452호 팜플렛
그러나, 상기한 종래기술에서는 카드 등을 소정 방향(평행이나 회전)으로 이동시킴으로써 합성되는 화상에 움직임을 부여하여 표시할 수 있지만, 카드 등을 정지시킨 채로 합성시키는 화상을 변화시킬 수는 없었다.
그 때문에, 예를 들어 미리 제작된 동영상을 합성하는 등의 대응밖에 할 수 없고, 카드종별마다 어느 특정 동작밖에 할 수 없었으므로, 부가가치성이 우수한 정밀도 높은 화상이나 영상은 제공되지 않았다.
또한, 비특허문헌 1에 나타나 있는 가상도형 표시시스템에서는 일단 가상도형이 표시되면 도형을 변화시키는 것이 어려웠다. 즉, 외부 환경의 변화에 따라 도형을 변화시킬 수가 없었다. 나아가, 종래기술에서는, 표시시키는 화상은 식별정보를 포함하는 카드 등의 위치를 기준으로 표시시키는 것이므로, 표시의 방법에 제한이 있어, 예를 들어 3차원 영상 등을 표시시킬 수 없었다.
또한, 디지털 워터마킹 기술을 이용하여 정보를 화상에 임베딩하는 경우, 화면의 일부에 임베딩하여 버리면 화상내의 어느 부분에 디지털 워터마킹 정보가 들어가 있는지 판별할 수 없었으므로, 화상 전체에 데이터를 임베딩하지 않으면 안되었다. 그러한 경우, 예를 들어 텔레비젼에 표시된 영상에 포함되는 부분적인 물체(예를 들어, 꽃이나 사람 등)에 대하여만 정보를 임베딩할 수 없고, 결과적으로 화면상에 표시되어 있는 물체 모두에 대한 정보를 취득하여야 한다. 그 때문에, 사용자가 요구하지 않은 불필요한 정보도 취득할 수 밖에 없었다. 또한, 텔레비젼 화면 전체에 디지털 워터마킹이 임베딩된 경우에는, 그것을 휴대전화 등에 설치된 렌즈로 촬영하여 인식할 때에 상당히 떨어진 위치에서 촬영할 필요가 있었다.
본발명은 상기한 과제를 감안하여 이루어진 것으로서, 효율적인 정보의 취득에 의해 부가가치성이 우수한 정밀도 높은 화상을 제공하기 위한 비가시화정보 임베딩장치, 비가시화정보 인식장치, 비가시화정보 임베딩방법, 비가시화정보 인식방법 및 기록매체를 제공하는 것을 목적으로 한다.
상기의 과제를 해결하기 위하여, 본발명의 비가시화정보 임베딩장치는 취득한 화상의 소정의 위치에 비가시화정보를 임베딩하는 비가시화정보 임베딩장치로서, 상기 화상에 포함되는 물체정보 및 위치정보를 취득하는 화상해석수단과, 상기 화상해석수단에 의해 얻어진 물체정보로부터 상기 화상이 임베딩대상인 화상인지를 판정하는 임베딩대상화상 판정수단과, 상기 임베딩대상화상 판정수단에 의해 얻어지는 판정결과에 기초하여 상기 화상에 상기 비가시화정보를 합성하는 화상합성수단을 갖는 것을 특징으로 한다.
또한, 상기의 과제를 해결하기 위하여, 본발명의 비가시화정보 인식장치는 취득한 화상에 포함되는 비가시화정보를 인식하는 비가시화정보 인식장치로서, 상기 화상으로부터 비가시화정보를 추출하는 비가시화정보 추출수단과, 상기 비가시화정보 추출수단에 의해 상기 비가시화정보가 추출된 경우, 상기 비가시화정보로부터 얻어지는 상기 화상에 포함되는 물체의 부가정보를 해석하는 비가시화정보 해석수단과, 상기 비가시화정보 해석수단에 의해 얻어지는 부가정보로부터 화면으로 표시하는 표시정보를 생성하는 표시정보 생성수단을 갖는 것을 특징으로 한다.
본발명에 의하면 효율적인 정보취득에 의해 부가가치성이 우수한 정밀도 높은 화상을 제공할 수 있다.
도 1은 본실시형태에 있어서의 비가시화정보 임베딩장치의 기능 구성의 일례를 나타내는 도면이다.
도 2는 본실시형태에 있어서의 비가시화정보 인식장치의 기능 구성의 일례를 나타내는 도면이다.
도 3은 본실시형태에 있어서의 비가시화정보 임베딩처리 및 비가시화정보 인식처리가 실현가능한 하드웨어 구성의 일례를 나타내는 도면이다.
도 4는 본실시형태에 있어서의 비가시화정보 임베딩처리 순서의 일례를 나타낸 플로우차트이다.
도 5는 본실시형태에 있어서의 비가시화정보 인식처리 순서의 일례를 나타낸 플로우차트이다.
도 6은 화상의 일례를 나타내는 도면이다.
도 7은 비가시화정보의 일례를 나타내는 도면이다.
도 8은 부가정보의 구체적인 임베딩의 예에 대하여 설명하기 위한 도면이다.
도 9는 저주파부 또는 고주파부의 모양을 설명하기 위한 도면이다.
도 10은 코드 임베딩의 실시예를 나타내는 도면이다.
도 11은 그리드에 대한 코드 임베딩의 예를 나타내는 도면이다.
도 12는 저주파부의 코드 임베딩의 일례를 나타내는 도면이다.
도 13A는 고주파부의 코드 임베딩의 일례를 나타내는 도면이다.
도 13B는 고주파부의 코드 임베딩의 일례를 나타내는 도면이다.
도 14는 비가시화정보를 추출하기 위한 일례를 나타내는 도면이다.
도 15는 실제의 비가시화정보를 추출하는 예를 나타내는 도면이다.
도 16은 비가시화정보의 인식결과의 일례를 나타내는 도면이다.
도 17A는 비가시화정보가 부가된 화상예를 나타내는 도면이다.
도 17B는 비가시화정보가 부가된 화상예를 나타내는 도면이다.
도 17C는 비가시화정보가 부가된 화상예를 나타내는 도면이다.
도 17D는 비가시화정보가 부가된 화상예를 나타내는 도면이다.
도 17E는 비가시화정보가 부가된 화상예를 나타내는 도면이다.
도 17F는 비가시화정보가 부가된 화상예를 나타내는 도면이다.
도 17G는 비가시화정보가 부가된 화상예를 나타내는 도면이다.
도 17H는 비가시화정보가 부가된 화상예를 나타내는 도면이다.
도 18은 비가시화정보의 다른 실시예를 나타내는 도면이다.
도 19는 비교결과의 일례를 나타내는 도면이다.
도 20A는 비가시화 확인시험에 사용한 화상의 일례를 나타내는 도면이다.
도 20B는 비가시화 확인시험에 사용한 화상의 일례를 나타내는 도면이다.
본발명에서는, 예를 들어, 화면에 표시되는 화상이나 영상 또는 종이나 엽서, 포스터, 카드 등의 각종 인쇄매체 등에 대해 육안으로는 인식이 불가능한 가공에 의해 비가시화정보(마커)를 화상 전체에 대하여 부분적으로 임베딩하고, 디지털카메라나 휴대단말기에 형성된 카메라 등의 촬영수단으로 그 화상이나 영상, 인쇄매체 등의 일부를 촬영하고, 촬영된 화상이나 영상 등을 PC나 휴대단말기 등에 입력하고 필터 등을 이용하여 화상처리함으로써 임베딩된 마커를 인식한다. 또한, 본발명은, 예를 들어, 휴대단말기 등과 같이 용량이나 성능이 제한된 기종에서도 임베딩된 마커의 인식이 가능한 마커의 임베딩방법과 화상처리를 조합한 마커인식을 가능하게 한다. 나아가, 본발명에서는, 인식되어 마커의 정보로부터 촬영된 화상이나 영상 등에 대응하는 부가가치정보를 취득한다.
이하에, 본발명에 있어서의 비가시화정보 임베딩장치, 비가시화정보 인식장치, 비가시화정보 임베딩방법, 비가시화정보 인식방법 및 기록매체를 바람직하게 실시한 형태 에 대하여 도면을 이용하여 설명한다. 또한, 본실시형태에서 설명하는 「화상」이란, 사진 등의 1매의 화상도 포함되고, 영상에서의 연속한 프레임단위의 화상도 포함되는 것으로 한다.
다음으로, 본실시형태에 있어서의 비가시화정보 임베딩장치의 기능 구성예에 대하여 설명한다. 도 1은 본실시형태에 있어서의 비가시화정보 임베딩장치의 기능 구성의 일례를 나타낸다.
도 1에 나타낸 비가시화정보 임베딩장치(10)는 입력수단(11), 출력수단(12), 축적수단(13), 화상취득수단(14), 화상해석수단(15), 임베딩대상화상 판정수단(16), 비가시화정보 설정수단(17), 비가시화정보 생성수단(18), 화상합성수단(19), 송수신수단(20) 및 제어수단(21)을 갖도록 구성되어 있다.
입력수단(11)은 사용자 등으로부터의 화상취득의 지시나, 화상해석의 지시, 임베딩대상화상 판정의 지시, 임베딩정보 설정의 지시, 임베딩정보 생성의 지시, 화상합성의 지시, 송수신 지시 등의 각종 지시의 개시/종료 등의 입력을 받아들인다. 또한, 입력수단(11)은, 예를 들어, PC 등의 범용 컴퓨터이면 키보드나 마우스 등의 포인팅 디바이스로 이루어지고, 휴대단말기 등이면 각 조작버튼군 등으로 이루어진다. 또한, 입력수단(11)은, 예를 들어, 디지털카메라 등의 촬상수단 등에 의해 촬영된 화상이나 영상 등을 입력하는 기능도 갖는다. 또한, 상술한 촬상수단은 비가시화정보 인식장치(30)내에 형성되어 있어도 되고, 외부의 기능 구성이어도 된다.
출력수단(12)은 입력수단(11)에 의해 입력된 내용이나, 입력내용에 기초하여 실행된 내용 등의 출력을 실시한다. 구체적으로는, 출력수단(12)은 취득한 화상이나 화상해석결과, 임베딩대상화상 판정결과, 설정된 비가시화정보, 생성된 비가시화정보, 비가시화정보가 합성된 합성화상, 각 구성에 있어서의 처리결과 등의 화면표시나 음성출력 등을 실시한다. 또한, 출력수단(12)은 디스플레이나 스피커 등으로 이루어진다.
나아가, 출력수단(12)은 프린터 등의 인쇄기능을 갖고 있어도 되고, 상술한 각 출력내용을, 예를 들어, 종이나 엽서, 포스터 등의 각종 인쇄매체 등에 인쇄하여 사용자 등에 제공할 수도 있다.
축적수단(13)은 본실시형태에 있어서 필요한 각종 정보나 임베딩처리의 실행시 또는 실행후의 각종 데이터를 축적한다. 구체적으로는, 축적수단(13)은 입력 또는 미리 축적되어 있는 화상취득수단(14)에서 취득되는 촬영 등에 의해 얻어진 1 또는 복수의 화상 혹은 영상을 취득한다. 또한, 축적수단(13)은 화상해석수단(15)에서 해석된 결과나 임베딩대상화상 판정수단(16)에서의 판정결과, 비가시화정보 설정수단(17)에 의한 설정내용, 비가시화정보 생성수단(18)에 의해 생성된 임베딩정보, 화상합성수단(19)에 의해 합성된 화상 등을 축적한다. 또한, 축적수단(13)은 필요에 따라 축적되어 있는 각종 데이터를 읽어낼 수 있다.
화상취득수단(14)은 정보를 임베딩하는 대상이 되는 화상이나 영상 등을 취득한다. 또한, 화상이나 영상 등은, 예를 들어, 카메라 등의 촬상수단에 의해 얻어지는 화상이나 영상 등이어도 되고, 포스터나 사진, 카드, 시일 등에 적용되는 대상화상 등이어도 된다. 또한, 화상취득수단(14)은 송수신수단(20)을 통하여 통신네트워크상에 접속되는 외부장치에서 촬영된 정보나 데이터베이스 등에 축적된 화상이나 영상 등을 취득할 수도 있고, 또한, 입력수단(11)을 통하여 실제로 사용자 등이 카메라 등으로 촬영한 화상을 사용하여도 된다.
화상해석수단(15)은 화상취득수단(14)에서 취득한 화상을 해석하여 화상중에 포함되는 내용을 해석한다. 구체적으로는, 화상내의 어느 부분(위치, 영역)에 어떠한 물체가 나타나 있는지 또는 영상내에서 물체가 어떻게 이동하고 있는지 등, 물체정보 및 좌표 등으로 이루어지는 물체의 위치정보를 취득한다. 예를 들어, 물체가 인물인 경우, 화상해석수단(15)은 얼굴의 특징부분으로부터 얼굴을 검출하여도 되고, 또한, 얼굴의 특징량을 수치화하여 그 결과에 의해 인물을 특정하여도 된다.
임베딩대상화상 판정수단(16)은 화상해석수단(15)에 의해 해석된 결과에 기초하여 그 화상에 나타난 물체가 미리 설정된 비가시화정보의 임베딩대상인지의 여부를 판정한다. 또한, 임베딩대상화상 판정수단(16)에 있어서, 물체가 비가시화정보를 임베딩하는 정보인지 아닌지는 사용자 등에 의해 미리 임베딩 판정정보가 설정되고, 축적수단(13) 등에 축적하여 두고 그 임베딩 판정정보에 의해 판정하여도 되고, 또는, 그 물체에 대한 부가정보가 축적수단(13)에 축적되어 있는지를 검색하여 만약 부가정보가 축적되어 있는 경우에는 임베딩대상 물체라고 판정하여도 된다.
따라서, 예를 들어, 화상해석수단(15)에 의해 화상을 해석한 결과, 화상의 일부에 PC의 화상이 포함되어 있다고 해석된 경우, 임베딩대상화상 판정수단(16)은 PC에 관한 부가정보가 축적수단(13)에 축적되어 있는지 아닌지를 판단하고, PC에 관한 부가정보가 존재하는 경우에는 그 PC를 임베딩대상화상이라고 판정할 수 있다. 또한, 임베딩하는 내용(부가정보)은, 예를 들어, 비가시화정보 설정수단(17) 등에서 설정할 수 있다. 또한, 설정된 내용은 축적수단(13)에 축적된다.
*또한, 임베딩대상화상 판정수단(16)은 화상중에 복수의 물체가 존재하는 경우, 각각의 물체가 임베딩대상이라고 하여 출력한다. 또한, 화상중에 복수의 물체가 존재하는 경우에는 모든 물체를 임베딩대상으로 설정하여도 되고, 또한, 적어도 1개의 물체를 임베딩대상으로 설정하여도 된다. 이 경우에는, 물체에 대하여 미리 설정되는 우선도나 그 물체의 화면 전체에 대한 표시영역의 위치, 영상이라면 그 물체가 표시되어 있던 시간 등에 의해 임의로 설정할 수 있고, 그들 임베딩 상세정보도 축적수단(13)에 축적된다.
비가시화정보 설정수단(17)은 물체정보에 기초하여 어떠한 정보를 부가정보로서 임베딩할 것인지, 그 구체적인 정보의 내용을 설정한다. 예를 들어, 물체정보가 지갑이나 양복 등인 경우에는 그 브랜드명이나 상품명, 가격, 홈페이지 어드레스 등을 설정하고, 물체정보가 인물인 경우에는 그 인물의 이름, 연령, 성별, 신장, 취미, 경력 등을 설정하고, 물체정보가 책인 경우에는 그 책의 제목, 저자, 발행일, 가격, 저자에 관한 정보 등을 설정한다. 또한, 비가시화정보 설정수단(17)에서 설정되는 부가정보로서는 영상, 화상 등이 포함된다.
또한, 비가시화정보 설정수단(17)은 어떠한 형태로 정보를 부가하는지를 설정한다. 예를 들어, 부가정보는 특정의 암호화된 문자인지, 모양이나 기호, 코드정보 등인지 또는 표시사이즈 등을 설정한다. 또한, 코드정보 등의 경우에는, 비가시화정보 인식장치측에서, 그 코드에 대한 정보를 취득할 수 있도록 대응 데이터베이스가 형성되어 있는 것이 바람직하다. 상술한 바와 같이, 복수의 형태로부터 설정할 수 있으므로, 임베딩대상의 화상내용에 따라 적절한 임베딩정보를 선택하여 설정할 수 있다.
비가시화정보 생성수단(18)은 임베딩대상화상에 임베딩하는 화상을 생성한다. 비가시화정보 생성수단(18)은 직접 문자정보로서 생성하여도 되고, 코드정보로서 생성하여도 된다. 또한, 코드정보로서는, 예를 들어, QR코드 등의 2차원 바코드 등을 사용할 수 있다. 또한, 본실시형태에 있어서, 코드정보는 QR코드로 한정되지 않고, 예를 들어 JAN코드나, ITF코드, NW-7CODE39, CODE128, UPC, PDF417CODE49, Data Matrix, Maxi Code 등의 바코드를 사용할 수도 있다.
나아가, 비가시화정보 생성수단(18)은 임베딩한 정보가 실제로 사용자에 제공되는 화상에 대하여 보이기 어렵게 하기 위하여, 임베딩대상이 되는 정보를 원화상의 색정보를 기준으로 하여 저주파부와 고주파부를 사용한 화상 또는 저주파부만 혹은 고주파부만을 사용한 화상을 생성한다. 또한, 저주파부란, 비가시화정보를 임베딩하는 부분의 원화상의 명도를 기준으로 하여 그것보다 명도를 낮게 한 부분 또는 영역을 나타내고, 고주파부란, 원화상의 명도를 기준으로 하여 그것보다 명도를 높게 한 부분 또는 영역을 나타낸다. 비가시화정보 생성수단(18)에 있어서의 비가시화정보의 상세한 것에 대하여는 후술한다. 또한, 비가시화정보 생성수단(18)은 화상내의 어느 위치에 비가시화정보를 임베딩하는지를 좌표정보로서 취득한다.
또한, 본실시형태에 있어서 임베딩정보를 임베딩할 때에, 예를 들어, 화상중에 표시되어 있는 물체의 위치상에 또는 그 주변에 그 물체에 대응하는 임베딩정보가 임베딩되어 있는 것이 바람직하고, 이 경우에는 화상해석수단(15)에 의해 얻어진 물체위치정보를 기준으로 하여 대상화상에 임베딩화상의 합성을 실시한다. 즉, 본실시형태에 의하면, 화상 전체에 대하여 1개의 임베딩정보를 부여하는 것이 아니라 복수의 비가시화정보를 적절한 장소에 임베딩하는 것이 가능하다.
화상합성수단(19)는 화상해석수단(15)에 의해 얻어지는 화상과 그 화상의 물체정보 및 좌표정보 등으로 이루어지는 물체위치정보에 기초하여, 비가시화정보 생성수단(18)에서 생성된 비가시화정보를 소정의 위치에 임베딩하여 화상을 합성한다.
또한, 화상합성수단(19)은 합성대상의 화상이 영상인 경우, 재생중인 영상에 있어서의 물체의 이동을 따라 이동하고, 그 물체상에 비가시화정보가 임베딩되도록 할 수 있다. 즉, 화상합성수단(19)은 합성대상화상이 입력될 때마다 촬영화상에 대하여 합성처리를 실시하고, 그 합성화상을 순차적으로 표시시킬 수 있다.
송수신수단(20)은 통신네트워크 등을 이용하여 접속가능한 외부장치로부터 원하는 외부화상(촬영화상이나 합성화상 등)이나, 본발명에 있어서의 비가시화정보 임베딩처리를 실현하기 위한 실행프로그램 등을 취득하기 위한 인터페이스이다. 또한, 송수신수단(20)은 비가시화정보 임베딩장치(10)내에서 생성된 각종 정보를 외부장치에 송신할 수 있다.
제어수단(21)은 비가시화정보 임베딩장치(10)의 각 구성부 전체의 제어를 실시한다. 구체적으로는, 제어수단(21)은, 예를 들어, 사용자 등에 의한 입력수단(11)으로부터의 지시 등에 기초하여, 화상취득이나 화상해석, 임베딩대상화상인지 여부의 판단, 비가시화정보의 설정, 그리고 설정, 화상합성 등의 각 처리의 각 제어 등을 실시한다. 또한, 비가시화정보 설정수단(17)에서의 비가시화정보나, 비가시화정보 생성수단(18)에서의 비가시화정보는 미리 설정이나 생성을 해 두어 축적수단(13)에 축적시켜 두어도 된다.
다음으로, 본실시형태에 있어서의 비가시화정보 인식장치의 기능 구성예에 대하여 설명한다. 도 2는 본실시형태에 있어서의 비가시화정보 인식장치의 기능 구성의 일례를 나타낸다.
도 2에 나타낸 비가시화정보 인식장치(30)는 입력수단(31), 출력수단(32), 축적수단(33), 임베딩화상 취득수단(34), 비가시화정보 추출수단(35), 비가시화정보 해석수단(36), 표시정보 생성수단(37), 송수신수단(38) 및 제어수단(39)을 갖도록 구성되어 있다.
입력수단(31)은 사용자 등으로부터의 임베딩화상 취득의 지시나, 비가시화정보 추출의 지시, 비가시화정보 해석의 지시, 표시정보 생성의 지시, 송수신지시 등의 각종 지시의 개시/종료등의 입력을 받아들인다. 또한, 입력수단(31)은, 예를 들어, PC 등의 범용 컴퓨터이면 키보드나 마우스 등의 포인팅 디바이스로 이루어지고, 휴대단말기 등이면 각 조작버튼군 등으로 이루어진다. 또한, 입력수단(31)은, 예를 들어, 디지털카메라 등의 촬상수단 등으로 촬영된 화상이나 영상을 입력하는 기능도 갖는다. 또한, 상술한 촬상수단은 비가시화정보 인식장치(30)내에 형성되어 있어도 되고, 외부의 기능 구성이어도 된다.
또한, 입력수단(31)은 종이나 엽서, 포스터, 사진, 카드 등의 인쇄매체로부터 임베딩화상을 취득할 수 있다. 이 경우, 카메라 등의 촬상수단이나 스캐너기능 등을 이용하여 데이터를 판독하는 기능을 구비한다.
또한, 출력수단(32)은 입력수단(31)에 의해 입력된 내용이나 입력내용에 기초하여 실행된 내용 등의 출력을 실시한다. 구체적으로는, 출력수단(32)은 표시정보 생성수단(37)에 의해 얻어지는 화상이나 영상에 표시되는 물체에 대한 부가정보 등을 출력한다. 또한, 출력수단(32)은 디스플레이나 스피커 등으로 이루어진다.
나아가, 출력수단(32)은 프린터 등의 인쇄기능을 갖고 있어도 되고, 상술한 물체에 대한 부가정보 등의 각 출력내용을, 예를 들어, 종이 등의 각종 인쇄매체에 인쇄하여 사용자 등에 제공할 수도 있다.
축적수단(33)은 본실시형태에 있어서 필요한 각종 정보나 비가시화정보 인식처리의 실행시 또는 실행후의 각종 데이터를 축적한다. 구체적으로는, 축적수단(33)은 임베딩화상 취득수단(34)이 취득한 임베딩화상이나, 비가시화정보 추출수단(35)이 취득한 비가시화정보(마커), 비가시화정보 해석수단(36)에 의해 해석한 비가시화정보, 표시정보 생성수단(37)으로 생성된 표시내용 등을 축적한다.
나아가, 축적수단(33)은 비가시화정보 해석수단(36)에 의해 해석된 데이터에 대한 관련 정보를 축적할 수 있다. 예를 들어, 비가시화정보가 있는 코드정보(문자코드, 2차원 코드 등도 포함한다) 등인 경우에는, 그 코드정보에 대응하는 각종 데이터(예를 들어, 코드정보에 대응하는 물체에 대한 상세정보(문자, 영상, 화상, 음성 등), 데이터를 화면에 표시할 때의 사이즈, 색, 시간, 위치, 동작내용 등)을 축적수단(33)에 축적하여 둔다. 또한, 축적수단(33)은 코드 등을 취득한 때나 그 밖의 필요에 따라 축적되어 있는 각종 데이터를 읽어낼 수 있다.
임베딩화상 취득수단(34)은 축적수단(33)이나 송수신수단(38)을 통하여 통신네트워크에 접속되는 외부장치로부터 임베딩화상을 취득한다. 또한, 임베딩화상에는 영상도 포함된다.
비가시화정보 추출수단(35)은 추출된 임베딩화상에 포함되는 비가시화정보를 추출한다. 구체적으로는, 비가시화정보 추출수단(35)은 입력되는 임베딩화상에 대하여 어느 소정 주파수에 의한 필터링을 실시하고, 화상중에 임베딩된 비가시화정보를 취득한다. 또한, 화상중에 복수의 비가시화정보가 있는 경우에는 모든 비가시화정보를 추출한다.
또한, 비가시화정보 추출수단(35)은 어느 위치로부터 비가시화정보를 추출하였는지의 비가시화정보 추출위치정보도 취득한다. 또한, 비가시화정보 추출수단(35)은 취득한 각종 정보를 축적수단(33)에 축적시킨다.
비가시화정보 해석수단(36)은 비가시화정보 추출수단(35)에 의해 얻어진 비가시화정보에 실제로는 어떠한 부가가치 데이터가 포함되어 있는지를 해석한다. 또한, 본실시형태에 있어서의 비가시화정보 해석수단(36)은 바코드를 판독하는 바코드리더 등의 판독기능을 갖고 있고, 예를 들어, 비가시화정보가 2차원 바코드인 경우에는 그 2차원 바코드로부터 판독기능 등을 이용하여 정보를 취득하고, 그 취득한 내용(예를 들어, 코드 ID 등)을 키로 하여 축적수단(33)이나 송수신수단(38)을 통하여 통신네트워크에 접속되는 미리 설정된 서버나 데이터베이스 등의 외부장치 등을 검색하고, 검색한 결과 키에 대응하는 부가정보가 있으면 그 정보를 취득한다.
표시정보 생성수단(37)은 비가시화정보 해석수단(36)에 의해 얻어진 결과를 화면에 표시하는 표시정보를 생성한다. 또한, 표시방법으로서는 화면상에 별도의 프레임(별도의 윈도우)을 마련하여 설명하여도 되고, 대응하는 물체가 표시되어 있는 위치상에 표시하여도 되고, 음성으로 출력하여도 된다.
또한, 표시정보 생성수단(37)은 취득한 비가시화정보를 그대로 가시화하여 표시하여도 되고, 비가시화정보에 대응하는 부가정보를 축적수단(33)이나 외부장치 등으로부터 취득하고, 그 취득한 부가정보를 표시하여도 된다.
나아가, 표시정보 생성수단(37)은 비가시화정보 해석수단(36)에 의해 얻어진 결과를 표시하는 경우, 상기의 코드 ID 등에 기초하여 축적수단(33) 등으로부터 취득한 부가정보마다 설정되어 있는 화면에 표시할 때의 사이즈, 색, 시간, 위치, 동작내용 등에 기초하여 표시시키기 위한 표시정보를 생성한다. 또한, 영상으로서 대상물체가 이동 하고 있는 경우에는, 그 물체의 위치를 따라 표시하여도 되고, 또한, 최초로 화면에 표시한 위치에 고정하여 표시하여도 된다.
송수신수단(38)은 통신네트워크등을 이용하여 접속가능한 외부장치로부터 소망하는 외부화상(촬영화상 등)이나, 본발명에 있어서의 비가시화정보 인식처리를 실현하기 위한 실행프로그램 등을 취득하기 위한 인터페이스이다. 또한, 송수신수단(38)은 비가시화정보 인식장치(30)내에서 생성된 각종 정보를 외부장치에 송신할 수 있다.
제어수단(39)은 비가시화정보 인식장치(30)의 각 구성부 전체의 제어를 실시한다. 구체적으로는, 제어수단(39)은, 예를 들어, 사용자 등에 의한 입력수단(31)으로부터의 지시 등에 기초하여 임베딩화상의 취득이나 비가시화정보의 추출, 비가시화정보의 해석, 표시정보의 생성 등의 각 처리의 각 제어 등을 실시한다.
상기의 장치 구성에 의해 효율적인 정보취득에 의해 부가가치성이 우수한 정밀도가 높은 화상을 제공할 수 있다.
다음으로, 상기의 비가시화정보 해석수단(36)에 있어서의 부가정보취득의 예에 대하여 설명한다. 상술한 바와 같이, 비가시화정보 해석수단(36)은 비가시화정보로부터 얻어지는 정보가 코드 ID 등인 경우에는, 그 코드 ID 등을 키로 하여 축적수단(33)이나 송수신수단(38)을 통하여 통신네트워크에 접속되는 미리 설정된 서버나 데이터베이스 등의 외부장치를 검색하여 대응하는 부가정보를 취득한다.
구체적으로 설명하면, 예를 들어, 비가시화정보 인식장치(30)가 「스탠드얼론(stand-alone)형」인 경우에는, 비가시화정보로부터 취득한 코드 ID를 키로 하여 축적수단(33)을 검색하고, 검색된 결과를 취득한다. 또한, 비가시화정보 인식장치(30)가 통신네트워크에 의해 외부장치와 접속된 「네트워크형」인 경우에는, 비가시화정보로부터 취득한 코드 ID를 키로 하여 외부장치에 액세스하고, 외부장치내에 있는 데이터군으로부터 코드 ID에 대응하는 정보를 검색하고, 대응하는 부가정보를 외부장치로부터 취득한다.
비가시화정보 임베딩장치(10) 및 비가시화정보 인식장치(30)에 있어서는, 각 기능을 컴퓨터에 실행시킬 수 있는 실행프로그램(비가시화정보 임베딩 프로그램, 비가시화정보 인식 프로그램)을 생성하고, CD-ROM 등의 기록매체에 기록하여, 예를 들어, 범용의 퍼스널컴퓨터, 서버 등에 그 실행프로그램을 인스톨함으로써, 본발명에 있어서의 비가시화정보 임베딩처리 및 비가시화정보 인식처리 등을 실현할 수 있다.
다음으로, 본실시형태에 있어서의 비가시화정보 임베딩처리 및 비가시화정보 인식처리가 실현가능한 컴퓨터의 하드웨어 구성에 대하여 설명한다. 도 3은 본실시형태에 있어서의 비가시화정보 임베딩처리 및 비가시화정보 인식처리가 실현가능한 하드웨어 구성의 일례를 나타낸다.
도 3에 있어서의 컴퓨터 본체에는 입력장치(41), 출력장치(42), 드라이브장치(43), 보조기억장치(44), 메모리장치(45), 각종 제어를 실시하는 CPU(Central Processing Unit)(46) 및 네트워크 접속장치(47)를 갖도록 구성되어 있고, 이들은 시스템버스(B)로 서로 접속되어 있다.
입력장치(41)는 사용자 등이 조작하는 키보드 및 마우스 등의 포인팅 디바이스를 갖고 있어 사용자 등으로부터의 프로그램의 실행 등 각종 조작신호를 입력한다. 또한, 입력장치(41)는 카메라 등의 촬상수단으로부터 촬영된 화상을 입력하는 화상입력유닛을 갖고 있다.
출력장치(42)는 본발명에 있어서의 처리를 하기 위한 컴퓨터 본체를 조작하는데 필요한 각종 윈도우나 데이터 등을 표시하는 디스플레이를 갖고, CPU(46)가 갖는 제어프로그램에 의해 프로그램의 실행경과나 결과 등을 표시할 수 있다.
여기서, 본발명에 있어서 컴퓨터 본체에 인스톨되는 실행프로그램은, 예를 들어, USB메모리나 CD-ROM 등의 가반형 기록매체(48)등에 의해 제공된다. 프로그램을 기록한 기록매체(48)는 드라이브장치(43)에 세팅가능하고, 기록매체(48)에 포함되는 실행프로그램이 기록매체(48)로부터 드라이브장치(43)를 통하여 보조기억장치(44)에 인스톨된다.
보조기억장치(44)는 하드디스크 등의 스토리지 수단이며, 본발명에 있어서의 실행프로그램이나 컴퓨터에 형성된 제어프로그램 등을 축적하여 필요에 따라 입출력을 실시할 수 있다.
메모리장치(45)는 CPU(46)에 의해 보조기억장치(44)로부터 읽어내진 실행프로그램 등을 저장한다. 또한, 메모리장치(45)는 ROM(Read Only Memory)이나 RAM(Random Access Memory) 등으로 이루어진다.
CPU(46)는 OS(Operating System) 등의 제어프로그램 및 메모리장치(45)에 저장되어 있는 실행프로그램에 기초하여 각종 연산이나 각 하드웨어 구성부와의 데이터의 입출력 등 컴퓨터 전체의 처리를 제어하고, 합성화상표시에 있어서의 각 처리를 실현할 수 있다. 또한, 프로그램의 실행중에 필요한 각종 정보 등은 보조기억장치(44)로부터 취득할 수 있고, 또한, 실행결과 등을 저장할 수도 있다.
네트워크 접속장치(47)는 통신네트워크 등과 접속함으로써, 실행프로그램을 통신네트워크에 접속되어 있는 다른 단말 등으로부터 취득하거나 프로그램을 실행함으로써 얻어진 실행결과 또는 본발명에 있어서의 실행프로그램 자체를 다른 단말기 등에 제공할 수 있다.
상술한 바와 같은 하드웨어 구성에 의해 본발명에 있어서의 비가시화정보 임베딩처리 및 비가시화정보 인식처리를 실행할 수 있다. 또한, 프로그램을 인스톨함으로써, 범용의 퍼스널컴퓨터 등으로 본발명에 있어서의 비가시화정보 임베딩처리 및 비가시화정보의 인식처리가 용이하게 실현될 수 있다.
다음으로, 비가시화정보 임베딩처리 및 비가시화정보 인식처리에 대하여 구체적으로 설명한다.
먼저, 본실시형태에 있어서의 비가시화정보 임베딩처리 순서에 대하여 설명한다. 도 4는 본실시형태에 있어서의 비가시화정보 임베딩처리 순서의 일례를 나타낸 플로우차트이다.
도 4에 나타낸 비가시화정보 임베딩처리는 먼저 카메라 등의 촬상수단으로 촬영된 화상을 취득하고(S01), 화상해석을 실시하고(S02), 화상중에 포함되는 물체정보, 물체위치정보 등을 취득한다.
다음으로, S02의 처리에서 얻어진 정보에 기초하여 임베딩대상화상의 판정을 실시하고(S03), 그 물체에 대하여 비가시화정보(마커)를 임베딩할지 아닐지를 판단한다(S04). 여기서, 비가시화정보를 임베딩하는 경우(S04에서, YES), 비가시화정보를 설정하고(S05), S05의 처리에 의해 설정된 비가시화정보에 기초하여 화상에 합성하는 비가시화정보를 생성한다(S06).
또한, S06의 처리에서 생성된 비가시화정보를 화상의 소정 위치에 합성하여(S07), 합성화상을 디스플레이등의 출력수단에 의해 표시 또는 데이터로서 출력한다(S08).
S08의 처리종료후 또는 S04의 처리에서, 비가시화정보를 임베딩하지 않는 경우(S04에서, NO), 다른 화상에 비가시화정보를 임베딩할지 아닐지를 판단한다(S09). 다른 화상에 비가시화정보를 임베딩하는 경우(S09에서, YES), S01로 돌아와 이후의 처리를 반복하여 실행한다. 또한, S09의 처리에서, 다른 화상에 비가시화정보를 임베딩하지 않는 경우(S09 에 있어서, NO) 비가시화정보 임베딩처리를 종료한다.
다음으로, 본실시형태에 있어서의 비가시화정보 인식처리 순서에 대하여 설명한다. 도 5는 본실시형태에 있어서의 비가시화정보 인식처리 순서의 일례를 나타낸 플로우차트이다.
도 5에 나타낸 비가시화정보 인식처리는 임베딩화상을 취득하고(S11), 취득한 화상으로부터 비가시화정보를 추출한다(S12).
다음으로, S12의 처리에서, 화상으로부터 비가시화정보가 추출되었는지 아닌지를 판단하고(S13), 비가시화정보가 추출된 경우(S13에서, YES), 비가시화정보의 해석을 실시한다(S14). 또한, 비가시화정보의 해석결과에 의해 얻어진 정보로부터 화면 등에 표시하는 표시정보를 생성하고(S15), 생성한 내용을 표시한다(S16).
여기서, 다른 화상으로부터 비가시화정보를 인식할지 아닌지를 판단하고(S17), 다른 화상으로부터 비가시화정보를 인식하는 경우(S17에서, YES), S11로 돌아와 이후의 처리를 반복하여 실행한다. 또한, S17의 처리에서, 다른 화상으로부터 비가시화정보를 인식하지 않는 경우(S17 에 있어서, NO), 비가시화정보 인식처리를 종료한다.
상술한 처리에 의해, 효율적인 정보취득에 의해 부가가치성이 우수한 정밀도 높은 화상을 제공할 수 있다. 또한, 프로그램을 인스톨함으로써, 범용의 퍼스널컴퓨터 등으로 본발명에 있어서의 비가시화정보 임베딩처리를 용이하게 실현할 수 있다.
다음으로, 본실시형태에 있어서의 비가시화정보에 대하여 구체적으로 설명한다. 비가시화정보로서는 문자나 숫자, 기호, 마크, 모양, 색채, 1차원 코드, 2차원 코드 등을 사용할 수 있다. 여기서는 일례로서 2차원 코드를 이용하여 설명한다.
도 6은 화상의 일례를 나타낸다. 도 6에 나타낸 화상(50)에서는 책상(51) 위에 책(52), 지갑(53), 노트북컴퓨터(54), 손목시계(55)가 놓여져 있다. 본실시형태에서는, 화상해석수단(15)에서 화상에 포함되는 이들의 물체정보와 그들의 위치정보를 취득한다. 여기서, 임베딩대상화상 판정수단(16)에 있어서, 지갑(53), 노트북컴퓨터(54) 및 손목시계(55)에 관련 정보가 있고, 비가시화정보를 생성하는 것으로 한다. 또한, 비가시화정보를 생성할지 아닐지의 판단이나 어떤 물체정보를 생성할지는 사용자 등이 임의로 실시하여도 된다.
따라서, 도 6의 예에서는 지갑(53), 노트북컴퓨터(54) 및 손목시계(55)가 각각 표시되어 있는 위치상 또는 그 주변의 소정의 영역에 2차원 코드로 이루어지는 비가시화정보(56-1~56-3)가 중첩(overlapping)에 의해 합성되어 합성화상이 생성된다.
도 7은 비가시화정보의 일례를 나타낸다. 또한, 도 7에는 2차원 코드를 사용한 2종류의 비가시화정보(60-1, 60-2)가 나타나 있다. 도 7에 나타낸 비가시화정보(60-1)는 최외측선에는 저주파층(61-1)을 갖고, 그 내측에는 고주파층(62-1)을 갖고, 나아가 그 내측에 코드부(63-1)가 구성되어 있다.
통상, 화상의 일부에 정보를 임베딩하면 화상내의 어느 부분에 코드부가 임베딩되어 있는지를 판별할 수 없으므로 화상 전체에 코드를 임베딩하고 있었지만, 본실시형태에서는 코드부(63-1)를 저주파층(61-1)과 고주파층(62-1)으로 둘러싸므로, 주파수를 어느 소정의 주파수(예를 들어, HPF(High Pass Filter)나 LPF(Low Pass Filter) 등)로 필터링 하여 어느 쪽인지를 흑색 등의 단색 또는 화상의 색과는 상이한 복수색으로 표기함으로써 2차원 코드가 드러나게 된다. 따라서, 필터링을 실시함으로써 코드영역을 추출할 수 있고, 화상의 일부에 코드가 임베딩되어 있어도 효율적으로 2차원 코드를 판독할 수 있다.
또한, 본실시형태에서는 도 7의 비가시화정보(60-2)에 나타낸 바와 같이, 최외측선에 고주파층(62-2)을 갖고, 그 내측에는 저주파층(61-2)을 갖고, 나아가 그 내측에 코드부(63-2)가 구성되어 있어도, 상기한 비가시화정보(60-1)의 경우와 동일한 효과를 얻을 수 있다.
또한, 코드가 임베딩되는 영역은 정사각형이 바람직하지만, 본발명에 있어서는 이것으로 한정되는 것은 아니고, 직사각형, 마름모형, 원형 등의 미리 설정된 영역이면 어느 영역에도 적용할 수 있다.
또한, 2차원 코드에는 방향정보가 필요하지만, 본실시형태에서는 코드의 방향을 화상의 상하좌우에 맞추어 합성한다. 따라서, 예를 들어, 텔레비젼 화면상의 영상을 휴대단말기에 구비된 카메라로 촬영하는 경우, 통상, 휴대단말기의 방향은 텔레비젼 화면을 보도록 정렬시키기 때문에, 방향정보는 어느 특정의 방향으로 한정된다. 그 때문에 방향을 나타내는 정보를 2차원 코드에 부여할 필요가 없어진다. 이와 같이, 2차원 코드의 인식시에는 방향정보를 취득하지 않고, 입력된 화상이 고정된 방향을 나타내고 있으므로, 코드 자체에 방향정보를 넣을 필요가 없다. 그 때문에, 다른 많은 정보를 넣을 수 있고 나아가 코드인식시에도 방향정보를 해석할 필요가 없으므로, 효율적으로 코드인식을 실시할 수 있다. 따라서, 본실시형태에 의하면 비가시화정보를 고정밀도로 취득할 수 있다.
다음으로, 본실시형태의 화상합성수단(19)에 있어서의 부가정보의 구체적인 임베딩의 예에 대하여 설명한다. 도 8은 부가정보의 구체적인 임베딩의 예에 대하여 설명하기 위한 도면이다. 또한, 이하의 설명에서는 부가정보로서 2차원 코드 임베딩의 예에 대하여 설명한다. 도 8에 나타낸 원화상은 상술한 도 6에 나타낸 화상(50)과 동일하므로, 화상(50)에 대한 상세한 설명은 여기서는 생략한다. 도 8에 나타낸 화상(50)에 있어서, 상기의 노드형 PC용의 비가시화 영역(56-2)에서는, 확대하면 저주파부(64)와 고주파부(65)가 소정의 영역(예를 들어, 정사각형)내에서 소정의 조건에 기초하여 배열되어 있다. 여기서, 저주파부(64)를 「0」으로 하고, 고주파부(65)를 「1」로 하여 코드를 임베딩하다. 또한, 고주파부(65)는 짙은 색과 엷은 색을 소정 픽셀단위로 교대로 배열하고, 더욱 멀리서부터 보았을 때에는 평균하면 원화상 그 자체의 색이 되도록 조정한다.
다음으로, 본실시형태에 있어서의 저주파 및 고주파에 대하여 설명한다. 통상, 주파수에는 시간에 대한 주파수(시간 주파수)와 공간의 위치에 대한 주파수(공간 주파수)가 있지만, 본실시형태에 있어서는 특별히 언급하지 않는 한 공간 주파수를 가리키는 것으로 한다. 공간 주파수란, 「단위길이에 대한 화소값의 주기의 역수」로 정의된다.
본실시형태에 있어서의 주파수는 특별히 한정되는 것은 아니지만, 예를 들어, 고주파부에서는 0.2~2[cycle/화소], 저주파부에서는 0~1[cycle/화소]의 범위에서 설정하면 되고, 구체적으로는 저주파부보다 고주파부가 주파수가 높으면 된다.
또한, 고주파부에서 형성되는 소정의 화소영역(예를 들어, 4×4px(픽셀) 등)으로 이루어지는 그리드는 명부(밝은 부분)와 암부(어두운 부분)가 주기적으로 반복되어 있으면 되고, 예를 들어, 세로 줄무늬, 가로 줄무늬, 격자모양 등을 들 수 있다.
예를 들어,
명명명명
암암암암
명명명명
암암암암
또는,
명암명암
암명암명
명암명암
암명암명
등이다.
한편, 이 때의 명부와 암부의 명도차이는 10이상이면 되고, 바람직하게는 50이상이고, 더욱 바람직하게는 100이상이다. 또한, 본실시형태에 있어서의 명도차이는 상술한 바와 같이, 먼저 통상 표시되는 화상의 명도를 기준으로 하여 명부와 암부를 생성하고, 생성된 명부와 암부의 명도차이를 이용하고 있었지만, 본발명에서는 이것으로 한정되는 것은 아니다. 예를 들어, 통상적인 화상의 명도와, 그 명도에 대하여 저주파부 또는 고주파부의 명도에 있어서의 명도차이를 이용하고 있어도 된다.
이 경우, 예를 들어, 고주파부라고 간주되는 명암차이는 그레이스케일로 이웃하는 엘리먼트를 기준으로 하여 약 15이상이면 고주파부로 간주할 수 있다. 구체적으로는, 약 15~35 정도의 명도차이가 고주파부로서 주로 사용할 수 있는 영역이다. 또한, 엘리먼트란, 종횡 1px이상의 픽셀로 구성된 것으로서, 본실시형태에서는, 예를 들어, 1엘리먼트를 2×2px로 할 수 있다.
여기서, 예를 들어 카메라 등의 촬상장치로 읽어낼 수 있는 명도차이의 최소치가 15인 경우, 명도차이가 35를 초과하면 인간의 눈으로도 용이하게 인식가능하게 된다. 반대로, 임베딩하는 화상의 부분이 극단적으로 어두운 경우나 밝은 경우에는, 카메라 등에 의한 판독정밀도를 형상시키기 위하여, 예를 들어, 35이상의 명도 차이를 내는 것도 필요하다. 따라서, 본실시형태에서는 임베딩하는 위치의 화상(배경)의 명도나 휘도 등이나 촬영되는 카메라의 성능 등에 따라 임의로 명도차이에 변화를 가하여 비가시화정보의 코드를 생성한다.
또한, 상기의 부가정보에 있어서의 사용가능한 픽셀사이즈는, 예를 들어, 그 화상과 화상을 보는 사람의 거리에 따라 변화하므로, 특별히 한정되는 것은 아니지만, 예를 들어, 약 1m의 거리이면 약 0.05~2mm정도가 바람직하고, 약 10m의 거리이면 약 0.5 mm~20mm정도가 바람직하다. 더욱 떨어진 거리에서 사용하는 경우에도 동일한 픽셀사이즈와 거리비율을 유지하고 있는 것이 바람직하다.
본실시형태에 있어서는, 저주파부 또는 고주파부의 어느 하나를 화상에 부여하는 경우, 소정의 화상의 소정의 임베딩 장소에 대해 특정 모양을 갖고 있는 것이 바람직하다. 도 9는 저주파부 또는 고주파부의 모양을 설명하기 위한 도면이다. 또한, 도 9(a)~(e)의 1매스는 엘리먼트를 나타내고 있다.
본실시형태에 있어서, 저주파부 또는 고주파부에 의해 임베딩정보를 생성하는 경우에는, 예를 들어, 도 9에 나타낸 바와 같이, 체크무늬(도 9(a))나 가로 줄무늬 모양(도 9(b)), 세로 줄무늬 모양(도 9(c)), 오른쪽 아래로 경사진 선(도 9(d)), 왼쪽 아래로 경사진 선(도 9(e)) 등의 미리 설정된 모양을 생성한다. 또한, 본실시형태에 있어서는 상기 모양으로 한정되는 것이 아니고, 예를 들어, 도 9(a)~(e)중 복수의 모양을 부분적으로 조합하여도 된다.
또한, 도 9(a)~(e)에 나타낸 모양에 있어서, 예를 들어, 종이에 임베딩하는 경우에는, 도 9(a)에 나타낸 바 같은 체크무늬가 제일 잘 안보이고, 또한, 눈에 띄기 어려운 점에서도 배경에 관계없이 체크무늬가 가장 눈에 띄지 않는다. 반대로, 도 9(d), 도 9(e)에 나타낸다 경사진 선은 가장 눈에 잘 띈다.
그러나, 모니터상에서 보는 화상이나 동영상에 모양을 임베딩하는 경우에는, 도 9(a)에 나타낸 바와 같은 체크무늬라면 패턴이 너무 섬세하여 카메라가 고주파부로 인식할 수 없다. 그 때문에, 가로선이나 경사진 선으로 고주파부를 구성할 필요가 있다. 또한, 모니터상에서도 종이와 같이 경사진 선으로 구성한 고주파부가 가장 눈에 띈다.
이로써, 저주파부 또는 고주파부를 카메라 등으로 촬영하여 임베딩정보를 취득할 때에, 도 9(a)~(e)에 나타낸 얻어진 정보를 기준으로 하여 원화상(배경화상)에 대하여 적절한 비가시화정보를 임베딩함으로써, 용이하고 또한 확실하게 임베딩정보를 판독할 수 있다. 또한, 상기의 모양은 저주파만이나 고주파만을 사용한 경우나, 저주파와 고주파를 모두 사용한 경우에도 적용할 수 있다.
다음으로, 본실시형태의 화상합성수단(19)에 있어서의 코드 임베딩의 실시예에 대하여 구체적으로 설명한다. 도 10은 코드 임베딩의 실시예를 나타낸다. 도 10에 나타낸 화상(50)은 도 6 및 도 8과 동일하므로 중복되는 설명은 생략한다.
도 10에 나타낸 예는 손목시계(55)에 대한 비가시화정보(56-3)에 대한 임베딩 수법을 설명하는 것이다. 먼저, 화상(50)으로부터 코드를 임베딩하는 부분을 추출한다. 추출하는 부분은 1개의 그리드의 크기에 기초하여 설정되고, 예를 들어, 한 변이 소정 픽셀(도 10에서는, 일례로서 8px)의 정사각형으로 할 수 있다. 또한, 도 10에 있어서의 1엘리먼트는 2×2px로 하고 있다.
또한, 이 범위는 일례이며, 그리드의 크기는 이와 달라도 되는데, 너무 작거나 너무 큰 경우에는, 「0」과 「1」의 코드가 판독하기 어려워지므로, 예를 들어, 한 변이 3~9px인 정사각형이 바람직하다. 또한, 형상은 정사각형으로 한정되지 않고 상기 범위내의 직사각형이어도 된다. 나아가, 코드부(63)에 있어서의 그리드의 수도 특별히 제한은 없지만 정사각형인 것이 바람직하다. 도 10의 예에서는, 그리드 사이즈가 10×10으로 되어 있다.
다음으로, 도 11은 그리드에 대한 코드 임베딩의 예를 나타낸다. 비가시화정보 생성수단(18)은, 도 11에 나타낸 바와 같이, 비가시화정보(56-3)인 코드부(63)내의 그리드(71)에 포함되는 픽셀을 명도값으로 수치화한다. 여기서, 각 픽셀은 적, 녹, 청의 각 소자로 구성되어 있고, 각 색의 휘도(0~255)를 평균한 것을 픽셀의 명도로 한다.
또한, 명도의 정의는 「명도=(R+G+B)/3」의 관계가 성립되는 상태를 말하고, 예를 들어, 도 11에 나타낸 바와 같이, R:200, G:100B:0일 때, 이 픽셀의 명도는 「(200+100+0)/3=100」이 된다.
다음으로, 상기의 저주파부의 코드 임베딩의 예에 대하여 설명한다. 도 12는 저주파부의 코드 임베딩의 일례를 나타낸다. 도 12에 나타낸 바와 같은 그리드가 형성되어 있는 경우, 예를 들어, 도 12에 나타낸 바와 같이 가우시안필터(Gaussian Filter) 에 의한 필터링처리에 의해 그리드 전체에 소위 디퓨징필터(diffusing filter)를 설치하여 그리드내의 명도값을 평활화한다. 즉, 도 12의 예에서는 그리드(71)의 명도가 130 전후로 평활화된다.
다음으로, 상기한 고주파부의 코드 임베딩의 예에 대하여 설명한다. 도 13A 및 도 13B는 고주파부의 코드 임베딩의 일례를 나타낸다. 도 13A에 나타낸 그리드에서는 고주파부를 임베딩하기 위하여 줄무늬를 생성한다. 그 때문에, 그리드(71)의 짝수행의 각 엘리먼트에 대하여서는 명도를 증가시키고, 홀수행의 각 엘리먼트에 대하여서는 명도를 감소시키는 처리를 실시한다. 각 엘리먼트에 대한 명도의 증감치는, 도 13B에 나타낸 대응표와 같이, 배경의 명도에 따라 그 증감치가 결정된다. 이와 같이, 배경의 명도에 대응하여 증감치를 설정함으로써 임베딩정보를 효율적으로 생성할 수 있고, 또한, 임베딩정보를 보다 눈에 띄지 않게 할 수 있다. 또한, 도 13B의 대응표와 같은 값은, 예를 들어, 축적수단(13) 등에 축적되어 있다.
예를 들어, 도 13B의 대응표를 참조하면, 도 13A의 그리드(71)의 좌측 상단 모서리의 엘리먼트의 경우, 홀수행에 해당하므로 명도가 작아지는 처리를 실시하고, 증감치는 도 13B의 대응표에 의해 「-35」를 이용하여 「152」로부터 「117」이 된다. 또한, 도 13A의 그리드(71)의 좌측 하단 모서리의 엘리먼트의 경우, 짝수행에 해당하므로 명도가 증가하는 처리를 실시하고, 증감치는 도 13B의 대응표에 의해 「+30」을 이용하여 「120」으로부터 「150」이 된다. 도 12, 도 13A, 도 13B에 나타낸 바와 같은 저주파부, 고주파부의 코드 임베딩처리를 비가시화 영역에 대하여 실시함으로써 2차원 코드를 생성할 수 있다.
다음으로, 상기한 비가시화정보 추출수단(35)에 있어서의 비가시화정보의 추출예에 대하여 플로우차트를 이용하여 설명한다. 도 14는 비가시화정보를 추출하기 위한 일례를 나타낸다. 또한, 이하의 처리에서는 고주파부만을 이용하여 생성된 비가시화정보를 촬영화상으로부터 추출하는 예에 대하여 설명하지만, 본발명에 있어서의 추출수법은 이것으로 한정되는 것은 아니다.
도 14에 나타낸 비가시화정보의 추출예로서는, 먼저, 비가시화정보가 임베딩되어 있는 영상이나 화상을 촬영한 촬영화상을 취득한다(S21). 다음으로, 취득한 화상에 대하여 소벨 라플라시안필터(Sobel Laplacian filter)를 실시하고, 화상에서 에지(명도변화의 격렬한 부분)를 추출하고, 에지부분은 백색으로 그 이외는 흑색으로 변환한다(S22). 즉, 촬영화상에 소벨 라플라시안필터를 이용함으로써 코드부분(고주파 화상의 경우에는 에지의 모임)과 배경의 에지의 양쪽(Image edges)을 추출할 수 있다.
또한, 상기한 「고주파 화상의 경우에는 에지의 모임」이라고 하는 것은, 기본적으로 명암이 급격하게 변화하는 부분을 에지로 하고 있지만, 고주파 화상의 경우, 가로방향 또는 세로방향으로 명도를 보면 엘리먼트마다 명암이 반전한다. 그 때문에, 고주파 화상의 경우에는 엘리먼트 경계가 모두 에지가 된다.
또한, S21의 처리에서 취득한 촬영화상에 대하여, DCT(Discrete Cosine Transform;이산코사인변환)를 행하고(S23), 촬영화상을 공간영역으로부터 주파수영역으로 변환한다. 다음으로, S23의 처리에 의해 얻어진 주파수화상에 대하여 고주파영역에 존재하는 값을 0으로 함으로써 화상내에서 고주파성분을 없애기 위한 주파수필터링을 실시한다(S24).
다음으로, S24의 처리에 의해 필터를 가한 화상을 주파수영역에서 공간영역으로 되돌리는 IDCT(역 이산코사인변환)를 실시한다(S25). 또한, 상기의 S23~S25의 처리는 LPF(Low Pass Filter) 처리를 실시하는 것을 의미하고 있다.
또한, S25의 처리에 의해 얻어진 화상에 대하여 소벨 라플라시안필터를 실시하고, 화상내로부터 에지(명도변화가 격렬한 부분)를 추출하고, 에지부분은 백색으로 그 이외는 흑색으로 변환한다(S26).
다음으로, 소벨 라플라시안필터로 얻어진 에지를 한층 더 굵은 것으로 팽창시키는 팽창처리를 실시한다(S27). 구체적으로는, 예를 들어, 얻어진 에지를 상하좌우로 3픽셀(px)씩 외측을 향해 넓힌다.
그 후, S22의 처리에서 얻어진 화상(에지+코드 화상)으로부터, S27의 처리에서 얻어진 배경화상(배경화상의 에지)을 빼는 차분처리를 실시한다(S28). 이로써, 비가시화정보의 화상만을 추출할 수 있다.
다음으로, S28의 처리에서 얻어진 화상으로부터 화상에 포함되는 노이즈 성분을 없애는 미디언필터처리를 실시한다(S29). 구체적으로는, 예를 들어 주목 화소의 주위의 3×3=9 화소내의 중앙치를 주목 화소의 값으로 치환환다.
그리고, S29의 미디언필터처리가 끝난 시점에서 화상으로부터 비가시화정보를 추출한다(S30). 구체적으로는, S29의 미디언필터처리가 끝난 시점에서는, 비가시화정보만이 포함되어 있으므로, 비가시화정보를 추출하고, (1) 형상(사각형)추출, (2) 투영변환, (3) 코드의 「1」, 「0」판정의 3가지를 실시한다.
여기서, 상기(1) 형상추출에서는, 예를 들어, 화상내로부터 사각형(코드)의 4모서리의 좌표를 산출하는 처리를 실시한다. 또한, 산출하는 좌표의 위치는는 사각형으로 한정되는 것은 아니고, 미리 설정되는 형상에 따라 적절히 설정할 수 있고, 예를 들어 삼각형이나 별모양 등이면 각 정점의 좌표를 산출하도록 한다.
또한, 상기 (2) 투영변환에서는, 얻어진 4점의 좌표를 이용하하여 일그러진 코드를 정사각형으로 되돌리는 처리를 실시한다. 나아가, 상기 (3) 코드의 「1」, 「0」판정에서는, 코드에 포함되는 데이터 비트가 「1」인지, 「0」인지를 판정하는 처리를 실시한다. 구체적으로는, 1bit를 구성하는 블록에 포함되는 픽셀중에서 흑색 픽셀이 많으면 「0」이라고 판정하고, 백색 픽셀이 많으면 「1」이라고 판정한다. 상술한 바와 같은 처리를 실시함으로써 촬영화상에 포함되는 1 또는 복수의 비가시화정보를 높은 정밀도로 취득할 수 있다.
다음으로, 도 15는 실제의 비가시화정보를 추출하는 예를 나타낸다. 도 15에 나타낸 예에서는, 「R」의 문자화상(Image) 에 대하여 비가시화정보(Code)가 임베딩되어 있는 촬영화상으로부터 비가시화정보를 추출하는 예를 나타내고 있다.
도 15(a)에 나타낸 촬영화상으로부터 에지검출을 실시하고, 도 15(b)에 나타낸 코드(Code)+이미지에지(Image edges)의 화상을 취득한다. 또한, 도 15(a)에 나타낸 촬영화상으로부터 코드제거(Code removal)를 실시하고, 15(c)에 나타낸 바와 같이, 이미지로부터 코드부분을 제거한 화상(Image-Code)을 취득한다.
또한, 도 15(c)에 나타낸 화상(Image-Code)에 대하여 에지검출을 실시하고, 도 15(d)에 나타낸 바와 같이, 이미지에지로부터 코드를 제거한 화상(Image edges-Code)을 취득한다.
다음으로, 도 15(b)에 나타낸 화상과 도 15(d)에 나타낸 화상의 차분을 취함으로써, 도 15(e)에 나타낸 바와 같은 코드(Code)를 취득할 수 있다. 또한, 도 14에 있어서의 S23~S25의 처리로 얻어진 결과가 도 15(c)에 대응하고, S27의 처리로 얻어진 결과가 도 15(d)에 대응하며, 도 29의 처리로 얻어진 결과가 도 15(e)에 대응한다.
상기의 수법에 의해 본실시형태에 있어서 촬영화상으로부터 비가시화정보를 고정밀도로 추출할 수 있다. 또한, 상기의 비가시화정보의 추출처리는 촬영된 화상 전체에 대하여 실시하여도 되고, 미리 비가시화정보가 임베딩되어 있는 화상의 위치가 특정되어 있다면 그 특정 영역에만 상기의 추출처리를 실시하여도 된다.
다음으로, 도 16은 비가시화정보의 인식결과의 일례를 나타낸다. 도 16에 나타낸 바와 같이, 본실시형태에서는 예를 들어 비가시화정보가 합성된 합성화상(81)에 HPF에 의한 필터링처리를 실시함으로써, 비가시화정보 인식장치(30)에 있어서의 표시정보 생성수단에 의하여, 도 16에 나타낸 바와 같이, 2차원 코드를 원화상에 표시시킬 수 있고, 이 정보를 읽어 내어 2차원 코드 내용의 정보를 표시시킬 수도 있다.
다음으로, 도 17A~도 17H는 각각 비가시화정보가 부가된 화상예를 나타낸다. 도 17A~도 17H에 나타낸 각 영역(91)내에는 비가시화정보가 임베딩되어 있다. 이와 같이, 본실시형태를 적용함으로써 비가시화정보를 화상중의 적절한 장소에만 부가하고, 화상중의 일부에 나타나 있는 물체 등에 관한 상세정보 등을 적확하게 제공할 수 있다.
또한, 도 17A~도 17C에 나타낸 화상에 부가된 영역(91)내에 나타난 비가시화정보의 코드에는, 예를 들어, 그 상품의 명칭, 재료, 맛의 평가, 가격, 판매하고 있는 가게에 관한 정보 또는 그 정보가 축적된 서버 등에 대한 어드레스정보(예를 들어, URL 등)를 축적할 수 있다. 또한, 도 17D에 나타낸 화상에 부가된 영역(91)내에 나타나는 비가시화정보의 코드에는, 예를 들어, 그 꽃의 명칭, 촬영장소, 피는 시기 등의 정보를 축적할 수 있다. 또한, 도 17E에 나타낸 화상에 부가된 영역(91)내에 나타난 비가시화정보의 코드에는, 예를 들어, 그 조각의 이름, 촬영장소, 설치한 유래 등의 정보를 축적할 수 있다. 나아가, 도 17F에 나타낸 화상에 부가된 영역(91)내에 나타난 비가시화정보의 코드에는, 예를 들어, 그 비행기의 명칭이나 비행속도, 촬영장소 등의 정보를 축적할 수 있다.
*또한, 도 17G와 도 17H는 각각 동일한 화상을 나타내고 있지만, 각각의 영역(91)내에는 상이한 수법으로 생성된 비가시화정보의 코드가 임베딩되어 있다. 구체적으로는, 도 17G의 영역(91)내에는 상기의 고주파부와 저주파부를 이용하여 생성된 비가시화정보의 코드가 임베딩되어 있고, 도 17H의 영역(91)내에는 고주파부만을 이용하여 생성된 비가시화정보가 임베딩되어 있다. 즉, 도 17G에 나타낸 저주파부와 고주파부를 포함하는 비가시화정보의 코드의 경우, 원화상에 따라서는 저주파부에 화상의 흐려짐이 발생하는 경우가 있다. 그 때문에, 도 17H에 나타낸 바와 같이 고주파부만을 사용한 비가시화정보의 코드를 사용함으로써, 보다 잘 보이지 않는 비가시화정보를 원화상에 임베딩할 수 있다.
또한, 본실시형태에 있어서는, 1개의 화상중에 복수의 비가시화정보를 부분적으로 부가시킬 수 있다. 또한, 본실시형태에 있어서의 비가시화정보가 부가가능한 대상은 텔레비젼화면이나 PC화면 등에 비추어지는 화상뿐만이 아니라, 예를 들어, 화면에 표시되는 영상이나, 종이, 카드, 엽서, 포스터 등의 각종 인쇄매체 등에 대하여서도 적용할 수 있다.
나아가, 코드의 면적이 큰 쪽이 임베딩할 수 있는 데이터량도 크므로, 본실시형태에서는 임베딩하는 데이터량에 따라 원화상에 임베딩하는 코드의 사이즈나 수를 적절히 조정할 수 있다.
도 18은 비가시화정보의 다른 실시예를 나타낸다. 도 18의 예에서는, 고주파부 또는 저주파부의 어느 하나를 흑색 등의 소정의 색으로 컬러표시한다. 이와 같이, 다른 문자정보를 직접 비가시화정보로서 임베딩하여 둠으로써, 임베딩된 문자(도 18의 예에서는, 「RITS」)를 그대로 표시정보로서 출력할 수 있다. 또한, 도 18에 나타낸 수법을 사용함으로써, 예를 들어, 상기한 코드 ID 등을 키로서 대응하는 부가정보를 검색하는 등의 처리를 실시할 필요가 없고, 신속히 부가정보를 화면에 표시할 수 있다.
다음으로, 본실시형태인 주파수법과 종래 수법인 임베딩정보가 임베딩된 화상과 원화상과의 차분정보로부터 정보를 취득하는 차분법을 비교한 결과에 대하여 설명한다. 도 19는 비교결과의 일례를 나타낸다. 또한, 도 19의 예에서는, 본실시형태에 있어서의 저주파부와 고주파부를 이용하여 코드화된 비가시화정보를 생성하는 수법을 도 19에 나타낸 주파수법으로 했다.
또, 도 19에 있어서, 판독시간이란, 코드부를 인식하고 난 후 디코드가 완료할 때까지의 시간이다. 또한, 실행명령수란, 일례로서 「Intel core 2 duo」의 MIPS(Million Instructions Per Second)를 22,058M로 한 때의 값이다.
도 19에 나타낸 바와 같이, 본실시형태에 의하면 판독시간, 실행명령수, CPU사용율, 메모리사용량의 모든 항목에 있어서 차분법보다 양호한 결과를 얻을 수 있었다.
또한, 도 19에는 나타내지 않았지만, 예를 들어, 고주파부만을 이용하여 생성한 비가시화정보의 오드(ode)의 경우, 그 판독시간은 0.272초(실행시간)였다. 또한, 그 때의 실행환경은 OS가 MacOSX10.6, CPU가 2GHz Core 2 Duo, 메모리가 2G바이트이다. 이로써, 고주파부 또는 저주파부의 어느 하나만을 사용한 경우에도 효율적이고 또한 적절하게 촬영화상으로부터 코드를 판독할 수 있다.
다음으로, 본실시형태를 적용한 비가시화정보를 부가한 화상에 대한 비가시화 확인시험의 결과에 대하여 설명한다. 도 20A 및 도 20B는 비가시화 확인시험에 사용한 화상을 나타낸다. 도 20A는 아직 비가시화정보가 임베딩되지 않은 화상을 나타내고, 도 20B는 본실시형태에 있어서의 비가시화정보인 2차원 코드가 임베딩되어 있는 화상을 나타낸다. 도 20B의 화상에 부가된 2차원 코드는 도 6에 나타낸 화상(50)의 비가시화정보(56-1~56-3)와 동일한 위치에 부가되어 있다.
이 확인시험에서는 피험자 9명에 대하여 코드없는 화상(도 20A)과 코드(25mm×25 mm)가 들어 있는 화상(도 20B)(각각의 사이즈는 180mm×135mm)을 배열하여 모니터상에 표시하고, 1m 떨어진 곳에서 15초간 보고 2매간의 차이를 조사하였다.
그 결과, 9인중 1명이 「키보드위에 가로선이 들어가 있다」라고 대답했다. 또한, 그 외 8명은 「차이를 모르겠다」고 대답하였다. 또한, 동일한 화상을 본실시형태에 있어서의 비가시화정보 인식장치(30)을 통해 본 것, 비가시화정보(마커)가 보이는 것이 확인되었다.
상술한 바와 같이, 본발명에 의하면 효율적인 정보취득에 의해 부가가치성이 우수한 정밀도 높은 화상을 제공할 수 있다.
지금까지 본발명의 바람직한 실시형태에 대하여 기술하였지만, 본발명은 이러한 특정의 실시형태로 한정되는 것이 아니고 특허청구범위내에 기재된 본발명의 요지의 범위내에 있어서 여러 가지 변형, 변경이 가능하다.
본국제출원은 2009년 12월 8일에 출원된 일본특허출원 제2009-278883호 및 2010년 8월 27일에 출원된 일본특허출원 제2010-191267호에 근거한 우선권을 주장하는 것으로서, 일본특허출원 제2009-278883호 및 일본특허출원 제2010-191267호의 모든 내용을 본국제출원에 원용한다.

Claims (14)

  1. 취득한 화상의 소정의 위치에 비가시화정보를 임베딩하는 비가시화정보 임베딩장치에 있어서,
    상기 화상에 포함되는 물체정보를 취득하는 화상해석수단과,
    상기 화상해석수단에 의해 얻어지는 물체정보 또는 상기 물체정보에 대한 부가정보가 축적수단에 미리 축적되어 있는가에 따라 상기 화상이 상기 비가시화정보의 임베딩대상인 화상인지를 판정하는 임베딩대상화상 판정수단과,
    상기 임베딩대상화상 판정수단에 의해 얻어지는 판정결과에 기초하여 상기 화상에 상기 물체정보 또는 상기 부가정보에 대응하는 비가시화정보를 합성하는 화상합성수단을 갖고,
    또한, 상기 화상해석수단은 상기 화상에 포함되는 물체의 위치정보를 취득하고,
    상기 화상합성수단은 상기 화상해석수단에 의해 취득되는 상기 물체의 위치정보에 기초하여 상기 물체에 대응하는 비가시화정보를 합성하는 것을 특징으로 하는 비가시화정보 임베딩장치.
  2. 청구항 1에 있어서,
    상기 화상합성수단에 의해 합성되는 상기 비가시화정보의 형태를 설정하는 비가시화정보 설정수단과,
    상기 비가시화정보 설정수단에 의해 설정된 비가시화정보로부터 합성용 화상을 생성하는 비가시화정보 생성수단을 갖는 것을 특징으로 하는 비가시화정보 임베딩장치.
  3. 청구항 2에 있어서,
    상기 비가시화정보 설정수단은
    상기 비가시화정보의 형태를 2차원 코드로 하고, 상기 2차원 코드의 코드부를 원화상의 명도에 대한 저주파부 및 고주파부 중 적어도 하나로 구성하는 것을 특징으로 하는 비가시화정보 임베딩장치.
  4. 취득한 화상에 포함되는 비가시화정보를 인식하는 비가시화정보 인식장치에 있어서,
    상기 화상에 포함되는 모든 비가시화정보 및 상기 비가시화정보의 추출위치를 추출하는 비가시화정보 추출수단과,
    상기 비가시화정보 추출수단에 의해 상기 비가시화정보가 추출된 경우, 추출된 각 비가시화정보로부터 상기 비가시화정보의 추출위치 또는 상기 추출위치의 주변에 표시된 상기 화상 중의 물체에 대응하는 부가정보를 해석하는 비가시화정보 해석수단과,
    상기 비가시화정보 해석수단에 의해 얻어지는 부가정보로부터 화면에 표시하는 표시정보를 생성하는 표시정보 생성수단을 갖는 것을 특징으로 하는 비가시화정보 인식장치.
  5. 청구항 4에 있어서,
    상기 비가시화정보 추출수단은 상기 화상을 소정의 주파수를 이용하여 필터링처리를 실시하고, 취득한 주파수에 대응하는 영역으로부터 비가시화정보를 추출하는 것을 특징으로 하는 비가시화정보 인식장치.
  6. 취득한 화상의 소정의 위치에 비가시화정보를 임베딩하는 비가시화정보 임베딩방법에 있어서,
    상기 화상에 포함되는 물체정보를 취득하는 화상해석단계와,
    상기 화상해석단계에 의해 얻어진 물체정보 또는 상기 물체정보에 대한 부가정보가 축적수단에 미리 축적되어 있는가에 따라 상기 화상이 상기 비가시화정보의 임베딩대상인 화상인지를 판정하는 임베딩대상화상 판정단계와,
    상기 임베딩대상화상 판정단계에 의해 얻어지는 판정결과에 기초하여 상기 화상에 상기 물체정보 또는 상기 부가정보에 대응하는 비가시화정보를 합성하는 화상합성단계를 포함하고,
    또한, 상기 화상해석단계는 상기 화상에 포함되는 물체의 위치정보를 취득하고,
    상기 화상합성단계는 상기 화상해석단계에 의해 취득되는 상기 물체의 위치정보에 기초하여 상기 물체에 대응하는 비가시화정보를 합성하는 것을 특징으로 하는 비가시화정보 임베딩방법.
  7. 청구항 6에 있어서,
    상기 화상합성단계에 의해 합성되는 상기 비가시화정보의 형태를 설정하는 비가시화정보 설정단계와,
    상기 비가시화정보 설정단계에 의해 설정된 비가시화정보로부터 합성용 화상을 생성하는 비가시화정보 생성단계를 포함하는 것을 특징으로 하는 비가시화정보 임베딩방법.
  8. 청구항 7에 있어서,
    상기 비가시화정보 설정단계는
    상기 비가시화정보의 형태를 2차원 코드로 하고, 상기 2차원 코드의 코드부를 원화상의 명도에 대한 저주파부 및 고주파부 중 적어도 하나로 구성하는 것을 특징으로 하는 비가시화정보 임베딩방법.
  9. 취득한 화상에 포함되는 비가시화정보를 인식하는 비가시화정보 인식방법에 있어서,
    상기 화상에 포함되는 모든 비가시화정보 및 상기 비가시화정보의 추출위치 정보를 추출하는 비가시화정보 추출단계와,
    상기 비가시화정보 추출단계에 의해 상기 비가시화정보가 추출된 경우, 추출된 각 비가시화정보로부터 상기 비가시화정보의 추출위치 또는 상기 추출위치의 주변에 표시된 상기 화상 중의 물체에 대응하는 부가정보를 해석하는 비가시화정보 해석단계와,
    상기 비가시화정보 해석단계에 의해 얻어지는 부가정보로부터 화면의 상기 비가시화정보의 추출위치에 표시하는 표시정보를 생성하는 표시정보 생성단계를 포함하는 것을 특징으로 하는 비가시화정보 인식방법.
  10. 청구항 9에 있어서,
    상기 비가시화정보 추출단계는 상기 화상을 소정의 주파수를 이용하여 필터링처리를 실시하고, 취득한 주파수에 대응하는 영역으로부터 비가시화정보를 추출하고, 추출한 영역을 소정의 화소로 하는 것을 특징으로 하는 비가시화정보 인식방법.
  11. 컴퓨터에 제 6 항에 기재된 비가시화정보 임베딩방법을 실행시키기 위한 프로그램을 기록한 것을 특징으로 하는 컴퓨터로 읽을 수 있는 기록매체.
  12. 컴퓨터에 제 9 항에 기재된 비가시화정보 인식방법을 실행시키기 위한 프로그램을 기록한 것을 특징으로 하는 컴퓨터로 읽을 수 있는 기록매체.
  13. 삭제
  14. 삭제
KR1020127014595A 2009-12-08 2010-12-08 비가시화정보 임베딩장치, 비가시화정보 인식장치, 비가시화정보 임베딩방법, 비가시화정보 인식방법 및 기록매체 KR101285648B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2009278883 2009-12-08
JPJP-P-2009-278883 2009-12-08
JPJP-P-2010-191267 2010-08-27
JP2010191267A JP5021061B2 (ja) 2009-12-08 2010-08-27 非可視化情報埋込装置、非可視化情報認識装置、非可視化情報埋込方法、非可視化情報認識方法、非可視化情報埋込プログラム、及び非可視化情報認識プログラム
PCT/JP2010/072039 WO2011071081A1 (ja) 2009-12-08 2010-12-08 非可視化情報埋込装置、非可視化情報認識装置、非可視化情報埋込方法、非可視化情報認識方法、及び記録媒体

Publications (2)

Publication Number Publication Date
KR20120128600A KR20120128600A (ko) 2012-11-27
KR101285648B1 true KR101285648B1 (ko) 2013-07-12

Family

ID=44145626

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127014595A KR101285648B1 (ko) 2009-12-08 2010-12-08 비가시화정보 임베딩장치, 비가시화정보 인식장치, 비가시화정보 임베딩방법, 비가시화정보 인식방법 및 기록매체

Country Status (6)

Country Link
US (1) US8891815B2 (ko)
EP (1) EP2512115B1 (ko)
JP (1) JP5021061B2 (ko)
KR (1) KR101285648B1 (ko)
CN (1) CN102648623A (ko)
WO (1) WO2011071081A1 (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5948842B2 (ja) * 2011-12-14 2016-07-06 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP6001275B2 (ja) * 2012-02-15 2016-10-05 学校法人立命館 非可視化情報埋込装置、非可視化情報埋込方法、及び非可視化情報埋込プログラム
JP5986422B2 (ja) * 2012-05-15 2016-09-06 学校法人立命館 オブジェクト抽出方法、オブジェクト抽出装置、及びオブジェクト抽出プログラム
CN103886548B (zh) * 2013-07-04 2017-09-15 百度在线网络技术(北京)有限公司 一种用于将二维码与图像融合的方法和装置
US20150026608A1 (en) * 2013-07-17 2015-01-22 Marvell World Trade Ltd. Systems and Methods for Application Management on Mobile Devices
JP6152787B2 (ja) 2013-11-29 2017-06-28 富士通株式会社 情報埋め込み装置、情報検出装置、情報埋め込み方法、及び情報検出方法
JP5536951B1 (ja) * 2013-12-26 2014-07-02 進 辻 表示コードが付された物品、表示コード読取装置および情報伝達方法
CN103886628B (zh) * 2014-03-10 2017-02-01 百度在线网络技术(北京)有限公司 二维码图像生成方法和装置
CN103886353B (zh) * 2014-03-10 2017-02-01 百度在线网络技术(北京)有限公司 二维码图像的生成方法和装置
JP2017168925A (ja) * 2016-03-14 2017-09-21 ソニー株式会社 信号処理装置、撮像装置および信号処理方法
JP6296319B1 (ja) * 2016-09-30 2018-03-20 国立大学法人 奈良先端科学技術大学院大学 情報処理装置、表示方法、読取方法、およびコンピュータ読み取り可能な非一時的記憶媒体
JP6729708B2 (ja) * 2016-10-12 2020-07-22 富士通株式会社 信号調整プログラム、信号調整装置、及び信号調整方法
CN110214262A (zh) * 2017-01-25 2019-09-06 国立研究开发法人产业技术综合研究所 图像处理方法
JP7159911B2 (ja) * 2019-02-27 2022-10-25 京セラドキュメントソリューションズ株式会社 画像処理装置及び画像形成装置
CN112560530B (zh) * 2020-12-07 2024-02-23 北京三快在线科技有限公司 一种二维码处理方法、设备、介质及电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2043041A1 (en) * 2007-09-27 2009-04-01 Kabushiki Kaisha Toshiba Image processing method and image processing device

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6411725B1 (en) * 1995-07-27 2002-06-25 Digimarc Corporation Watermark enabled video objects
US8379908B2 (en) * 1995-07-27 2013-02-19 Digimarc Corporation Embedding and reading codes on objects
JPH1141453A (ja) * 1997-07-24 1999-02-12 Nippon Telegr & Teleph Corp <Ntt> 電子透かし埋め込み読み出し処理方法,電子透かし埋め込み処理プログラム記憶媒体および電子透かし読み出し処理プログラム記憶媒体
JP3786166B2 (ja) 1998-06-30 2006-06-14 ソニー株式会社 画像処理装置、画像処理方法、および画像処理プログラム
WO2001080169A1 (en) * 2000-04-17 2001-10-25 Digimarc Corporation Authentication of physical and electronic media objects using digital watermarks
JP2002032076A (ja) 2000-07-19 2002-01-31 Atr Media Integration & Communications Res Lab 楽器インタフェース
JP2002118736A (ja) * 2000-10-10 2002-04-19 Konica Corp 電子透かし挿入装置および電子透かし抽出装置ならびに電子透かしシステム
JP3431593B2 (ja) * 2000-10-31 2003-07-28 株式会社東芝 コンテンツ生成装置、電子透かし検出装置、コンテンツ生成方法、電子透かし検出方法及び記録媒体
WO2003049007A1 (en) 2001-11-30 2003-06-12 International Barcode Corporation System and method for validating a digital image and corresponding data
JP2004178446A (ja) * 2002-11-28 2004-06-24 Ntt Docomo Inc 特定領域抽出装置及び特定領域抽出方法
JPWO2004090794A1 (ja) 2003-04-07 2006-07-06 ボーダフォン株式会社 情報処理方法
JP2005142836A (ja) * 2003-11-06 2005-06-02 Hitachi Ltd 電子透かし埋め込みプログラム及び情報処理装置
EP2410726B1 (en) 2004-02-02 2014-12-03 Nippon Telegraph And Telephone Corporation Digital watermark detection apparatus, method and program
US7796776B2 (en) * 2004-03-29 2010-09-14 Panasonic Corporation Digital image pickup device, display device, rights information server, digital image management system and method using the same
US7925042B2 (en) * 2004-07-15 2011-04-12 Mitsubishi Electric Corporation Information processing apparatus and information processing method
WO2007004534A1 (ja) * 2005-07-04 2007-01-11 Ibm Japan, Ltd. 不可視情報を印刷するためのデータを生成するためのシステム、方法、プログラム、および不可視情報が印刷された物理的媒体を製造する方法
CN101866475B (zh) 2005-08-04 2012-11-21 日本电信电话株式会社 电子水印检测方法及装置
JP4676852B2 (ja) * 2005-09-22 2011-04-27 日本放送協会 コンテンツ送信装置
JP4645457B2 (ja) * 2006-01-24 2011-03-09 富士ゼロックス株式会社 透かし入り画像生成装置、透かし入り画像解析装置、透かし入り画像生成方法、媒体及びプログラム
US8090141B2 (en) * 2006-01-31 2012-01-03 Xerox Corporation System and method to automatically establish preferred area for image-wise watermark
US8369688B2 (en) * 2006-06-19 2013-02-05 Panasonic Corporation Information burying device and detecting device
JP2008172662A (ja) * 2007-01-15 2008-07-24 Seiko Epson Corp 画像データ変換装置および画像データ変換方法
JP4697189B2 (ja) * 2007-05-30 2011-06-08 村田機械株式会社 デジタル複合機
CN101072340B (zh) * 2007-06-25 2012-07-18 孟智平 流媒体中加入广告信息的方法与系统
US20090050700A1 (en) 2007-08-26 2009-02-26 Noboru Kamijoh Adding and detecting bar code printed with ink invisible to human eye onto printed medium
JP4747305B2 (ja) 2008-05-20 2011-08-17 株式会社丸昌 ガゴメ昆布食品の製造方法およびガゴメ昆布食品
US20100045701A1 (en) * 2008-08-22 2010-02-25 Cybernet Systems Corporation Automatic mapping of augmented reality fiducials
JP2010191267A (ja) 2009-02-19 2010-09-02 Fuji Xerox Co Ltd 画像表示媒体および画像表示装置
CN101504760A (zh) * 2009-02-27 2009-08-12 上海师范大学 一种数字图像隐密信息检测与定位的方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2043041A1 (en) * 2007-09-27 2009-04-01 Kabushiki Kaisha Toshiba Image processing method and image processing device

Also Published As

Publication number Publication date
EP2512115A4 (en) 2013-03-06
US20120237079A1 (en) 2012-09-20
US8891815B2 (en) 2014-11-18
JP5021061B2 (ja) 2012-09-05
EP2512115B1 (en) 2016-10-19
KR20120128600A (ko) 2012-11-27
EP2512115A1 (en) 2012-10-17
WO2011071081A1 (ja) 2011-06-16
JP2011142607A (ja) 2011-07-21
CN102648623A (zh) 2012-08-22

Similar Documents

Publication Publication Date Title
KR101285648B1 (ko) 비가시화정보 임베딩장치, 비가시화정보 인식장치, 비가시화정보 임베딩방법, 비가시화정보 인식방법 및 기록매체
JP5318122B2 (ja) バーコードに含まれている情報を読み出す方法及び装置
JP5802997B2 (ja) 隠された画像のシグナリング
US10469701B2 (en) Image processing method that obtains special data from an external apparatus based on information multiplexed in image data and apparatus therefor
KR101330811B1 (ko) 인스턴트 마커를 이용한 증강 현실 장치 및 방법
JP4556813B2 (ja) 画像処理装置、及びプログラム
JP4972712B1 (ja) 非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラム
Pramila et al. Increasing the capturing angle in print-cam robust watermarking
CN101009755B (zh) 带水印图像的生成装置及方法、和分析装置
US9626934B2 (en) Display format using display device for machine-readable dot patterns
US20110075945A1 (en) Graphic arrangement deciding method, recording medium and information processing apparatus
JP2010211498A (ja) 画像処理プログラム及び画像処理システム
JP4323453B2 (ja) 情報取得方法、及び情報取得プログラム
JP6806955B1 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP6001275B2 (ja) 非可視化情報埋込装置、非可視化情報埋込方法、及び非可視化情報埋込プログラム
KR101918513B1 (ko) 게임 카드의 증강현실 표시 방법
CN108712570B (zh) 增强智能移动设备检测隐藏图像的实况性与真实性的方法
JP2017072958A (ja) 画像処理装置および画像に多重化された情報の復号方法およびプログラム
KR20120087232A (ko) 증강 현실 기반의 콘텐츠 표현 시스템 및 그 방법
JP4725473B2 (ja) 携帯端末装置、情報表示方法、及びプログラム
KR20170058517A (ko) 증강 현실을 이용한 포토존 촬영 장치
JP2007318341A (ja) 印刷物上の位置算出装置、印刷物上の位置算出システム、印刷物上の位置算出方法及び印刷物
JP2005143063A (ja) 映像形成方法
Zhu et al. Systolic array implementations for Chebyshev nonuniform sampling
JP2005104003A (ja) 隠し情報を含む印刷物、および隠し情報処理装置

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160701

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170704

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180612

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190620

Year of fee payment: 7