From Design pattern
Jump to: navigation, search
(Flying the Birdly Virtual Reality Simulator)
 
(3 intermediate revisions by one user not shown)
Line 15: Line 15:
 
  [http://www.ixpatterns.com/Category:Context_Recognition Context Recognition]의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다.  
 
  [http://www.ixpatterns.com/Category:Context_Recognition Context Recognition]의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다.  
 
>> 네, 그렇게 하는 게 좋겠어요.
 
>> 네, 그렇게 하는 게 좋겠어요.
 +
----
 +
 +
===Neo Smartpen N2===
 +
* 펜 모양의 기기의 움직임을 인식하여 사용자가 필기하고 있는 내용을 데이터화 한다.
 +
{{#Widget:Youtube|id=II_W9Fiz9eQ|width=665|height=374}}
 +
[http://www.ixpatterns.com/Category:Context_Recognition Context Recognition]의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다.
 +
 +
>> 네, Getting Input은 아닌 것 같고, 모션 인식하는 패턴을 만들죠.
  
 
----
 
----
Line 40: Line 48:
 
내 생각에는 Dealing with Data에 Change Mode 중분류가 생겨야 하다고 봅니다. 그 안에 Text to Voice / Image to Text 등의 패턴이 생길 수 있겠지요.  
 
내 생각에는 Dealing with Data에 Change Mode 중분류가 생겨야 하다고 봅니다. 그 안에 Text to Voice / Image to Text 등의 패턴이 생길 수 있겠지요.  
 
이것도 연대 팀과 상의하겠습니다.  
 
이것도 연대 팀과 상의하겠습니다.  
----
 
 
 
>> 콜!
 
 
----
 
 
===Room Racers===
 
* 실제 환경을 배경으로 가상의 자동차들이 경주를 즐긴다.
 
{{#Widget:Youtube|id=BNquGMrxN1U|width=665|height=374}}
 
[http://www.ixpatterns.com/Control_AR_object_in_AR_environment Mixed Reality > Control AR object in AR environment]에 비슷한 사례들이 있긴하지만, in Real environment 의 느낌이 더 큽니다.
 
 
>> 재미있는 사례네요. 애매하긴 하지만, AR이라기 보다는(다른 AR 사례들은 별도 장치를 통해서 그 효과를 볼 수 있는 경우라서) 위쪽에서 자동차 이미지를 뿌려주는  Interactive Projection인 것 같아요.
 
----
 
 
===Neo Smartpen N2===
 
* 펜 모양의 기기의 움직임을 인식하여 사용자가 필기하고 있는 내용을 데이터화 한다.
 
{{#Widget:Youtube|id=II_W9Fiz9eQ|width=665|height=374}}
 
[http://www.ixpatterns.com/Category:Context_Recognition Context Recognition]의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다.
 
 
>> 네, Getting Input은 아닌 것 같고, 모션 인식하는 패턴을 만들죠.
 
 
----
 
 
===Room Alive===
 
* 프로젝션을 통해 출력된 가상의 오브제를 이용하여 다양한 인터랙션을 경험한다.
 
 
{{#Widget:Youtube|id=ILb5ExBzHqw|width=665|height=374}}
 
[http://www.ixpatterns.com/Interactive_projection_image Interactive projection image] 패턴에 들어가는데 좋을것 같습니다.
 
 
>> 콜!
 
----
 
 
===Gravity Sketch makes 3D===
 
* x,y,z 축의 조작에 따른 스케치의 변화를 고글 형태의 기기를 착용하여 확인한다.
 
{{#Widget:Vimeo|id=92618967|width=665|height=374}}
 
[http://www.ixpatterns.com/VR_by_head-mounted_display VR by head-mounted display] 내에 세분류(VR by HMD _ Drawing)를 추가하여 등록하는것이 좋을 것 같습니다.
 
 
>> 현재 VR by HMD 패턴이 Viewing과 Interactive로 구분되어 있어서, 크게 그 구분 중, Interactive에 넣으면 좋겠습니다. 굳이 어떤 Interactive인지(예: Drawing)를 따지자면, 다른 사례들도 세분화된 그룹명이 필요할 것 같아서요.
 
  
그와 동시에 AR 중분류에 하나의 패턴으로도 추가될 수 있을 것 같은데 아직은 drawing 사례가 하나라서 나중으로 보류하죠. (현재 AR 패턴 중에선 "Control AR object in AR environment"가 가장 유사한 것 같은데, "Control"이 아니라서....) 
 
 
----
 
----
  

Latest revision as of 19:18, 10 February 2015

Smart Sensor - Mother

  • 다양한 사물에 부착 가능한 스마트 센서를 통해 사물의 움직임을 인식하여 사용상태, 빈도, 시간 등을 추측한다.

Mother 엄마가 다 보고있다

Playground의 IoT 쪽에 넣어두거나 Context Recognition의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다. 

>> 센싱 방법으로 보기 보다는 IoT로 넣는 것이 원래의 컨셉(네트워킹)을 더 의미있게 볼 수 있는 것 같네요. 현재 IoT에 있는 사례들과 유사성이 있기도 하구요.


Lego X

  • 블럭의 개별적인 움직임을 인식하여 블럭의 조합과 분해, 연결구조 등을 데이터화 한다.

""

Context Recognition의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다. 

>> 네, 그렇게 하는 게 좋겠어요.


Neo Smartpen N2

  • 펜 모양의 기기의 움직임을 인식하여 사용자가 필기하고 있는 내용을 데이터화 한다.

""

Context Recognition의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다.

>> 네, Getting Input은 아닌 것 같고, 모션 인식하는 패턴을 만들죠.


Google Image Translation

  • 이미지 내의 언어를 인식하여 번역해준다.

""

 Context Recognition 쪽이지만 들어갈 곳이 없습니다. 예전에 삭제한 사례중에 위와 비슷한 사례가 있었으나 그때에서 화면상의 정보를 인식하는 것을 포괄할 중분류가 없어서 삭제했었습니다. 

>> 주위를 인식한 측면이나 번역 기능의 측면 보다는,

텍스트 데이터를 입력하는 방법(이렇게 보면 Getting Input > Input Text/Image > 이미지를 텍스트로 변환 입력하는 패턴이 생성되어야) 또는 이미지 데이터 중 일부를 문질러서 선택하는 방법(이렇게 보면 Dealing with Data > Edit > Select) 에 특징이 있는 것 같습니다.

일단 남겨둬보세요. 연대 팀과 상의해보겠습니다.


Finger Reader _ Wearable Text Reading Device

  • 텍스트 정보를 인식하여 인식한 내용을 소리로 전환시켜 알려준다.

 Context Recognition 쪽이지만 들어갈 곳이 없습니다. 텍스트 정보를 인식하는 패턴(Recognize language)을 만들어야 할것 같지만, 마땅히 들어갈 만한 중분류가 없습니다. 

>> 주위 상태를 인식한다기 보다는, 텍스트 정보를 입력하고(이렇게 보면 Getting Input), 정보를 voice로 변환하는(이렇게 보면 Dealing with Data : "다양한 행동을 통해 데이터를 검색, 수정, 저장, 변환") 인터랙션 패턴인 것 같네요. 내 생각에는 Dealing with Data에 Change Mode 중분류가 생겨야 하다고 봅니다. 그 안에 Text to Voice / Image to Text 등의 패턴이 생길 수 있겠지요. 이것도 연대 팀과 상의하겠습니다.


Fiducial marker

Fiducial marker


3D Tracking Interface

""


>> Recognize agent information > 새로운 패턴으로 "Recognize location of agent"를 추가할 수 있을 것 같아요. 너무 포괄적인 것 같기도 한데...

패턴 안의 그룹으로 2D location / 3D location 나누어서 2D에는 GPS 인식 사례를 몇개 넣고(Mixed Reality의 GPS 기반 VR 사례들 보다는 스마트 홈이나 IoT 쪽 사례들이 있으면 좋겠는데... 한번 찾아봐주세요), 3D location 에는 이 사례를 넣으면 좋겠습니다.