(→Lego X) |
|||
(41 intermediate revisions by 2 users not shown) | |||
Line 4: | Line 4: | ||
[http://navercast.naver.com/magazine_contents.nhn?rid=2832&attrId=&contents_id=79178&leafId=2832 Mother 엄마가 다 보고있다] | [http://navercast.naver.com/magazine_contents.nhn?rid=2832&attrId=&contents_id=79178&leafId=2832 Mother 엄마가 다 보고있다] | ||
{{#Widget:Vimeo|id=80887929|width=665|height=374}} | {{#Widget:Vimeo|id=80887929|width=665|height=374}} | ||
− | Playground의 IoT 쪽에 넣어두거나 [http://www.ixpatterns.com/Category:Context_Recognition Context Recognition]의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다. | + | Playground의 IoT 쪽에 넣어두거나 [http://www.ixpatterns.com/Category:Context_Recognition Context Recognition]의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다. |
+ | |||
+ | >> 센싱 방법으로 보기 보다는 IoT로 넣는 것이 원래의 컨셉(네트워킹)을 더 의미있게 볼 수 있는 것 같네요. 현재 IoT에 있는 사례들과 유사성이 있기도 하구요. | ||
+ | |||
+ | ---- | ||
===Lego X=== | ===Lego X=== | ||
* 블럭의 개별적인 움직임을 인식하여 블럭의 조합과 분해, 연결구조 등을 데이터화 한다. | * 블럭의 개별적인 움직임을 인식하여 블럭의 조합과 분해, 연결구조 등을 데이터화 한다. | ||
{{#Widget:Youtube|id=fs6sjxjk5x0|width=665|height=374}} | {{#Widget:Youtube|id=fs6sjxjk5x0|width=665|height=374}} | ||
+ | [http://www.ixpatterns.com/Category:Context_Recognition Context Recognition]의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다. | ||
+ | >> 네, 그렇게 하는 게 좋겠어요. | ||
+ | ---- | ||
+ | |||
+ | ===Neo Smartpen N2=== | ||
+ | * 펜 모양의 기기의 움직임을 인식하여 사용자가 필기하고 있는 내용을 데이터화 한다. | ||
+ | {{#Widget:Youtube|id=II_W9Fiz9eQ|width=665|height=374}} | ||
[http://www.ixpatterns.com/Category:Context_Recognition Context Recognition]의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다. | [http://www.ixpatterns.com/Category:Context_Recognition Context Recognition]의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다. | ||
+ | |||
+ | >> 네, Getting Input은 아닌 것 같고, 모션 인식하는 패턴을 만들죠. | ||
+ | |||
+ | ---- | ||
===Google Image Translation=== | ===Google Image Translation=== | ||
* 이미지 내의 언어를 인식하여 번역해준다. | * 이미지 내의 언어를 인식하여 번역해준다. | ||
{{#Widget:Youtube|id=KeHPYpyhtJI|width=665|height=374}} | {{#Widget:Youtube|id=KeHPYpyhtJI|width=665|height=374}} | ||
− | [http://www.ixpatterns.com/Category:Context_Recognition Context Recognition] 쪽이지만 들어갈 곳이 없습니다. 예전에 삭제한 사례중에 위와 비슷한 사례가 있었으나 그때에서 화면상의 정보를 인식하는 것을 포괄할 중분류가 없어서 삭제했었습니다. | + | [http://www.ixpatterns.com/Category:Context_Recognition Context Recognition] 쪽이지만 들어갈 곳이 없습니다. 예전에 삭제한 사례중에 위와 비슷한 사례가 있었으나 그때에서 화면상의 정보를 인식하는 것을 포괄할 중분류가 없어서 삭제했었습니다. |
− | + | >> 주위를 인식한 측면이나 번역 기능의 측면 보다는, | |
− | + | ||
+ | 텍스트 데이터를 입력하는 방법(이렇게 보면 Getting Input > Input Text/Image > 이미지를 텍스트로 변환 입력하는 패턴이 생성되어야) 또는 | ||
+ | 이미지 데이터 중 일부를 문질러서 선택하는 방법(이렇게 보면 Dealing with Data > Edit > Select) 에 특징이 있는 것 같습니다. | ||
− | + | 일단 남겨둬보세요. 연대 팀과 상의해보겠습니다. | |
− | + | ||
− | + | ---- | |
− | + | ||
+ | ===Finger Reader _ Wearable Text Reading Device=== | ||
+ | * 텍스트 정보를 인식하여 인식한 내용을 소리로 전환시켜 알려준다. | ||
+ | {{#Widget:Vimeo|id=86912300|width=665|height=374}} | ||
+ | [http://www.ixpatterns.com/Category:Context_Recognition Context Recognition] 쪽이지만 들어갈 곳이 없습니다. 텍스트 정보를 인식하는 패턴(Recognize language)을 만들어야 할것 같지만, 마땅히 들어갈 만한 중분류가 없습니다. | ||
− | + | >> 주위 상태를 인식한다기 보다는, 텍스트 정보를 입력하고(이렇게 보면 Getting Input), 정보를 voice로 변환하는(이렇게 보면 Dealing with Data : "다양한 행동을 통해 데이터를 검색, 수정, 저장, 변환") 인터랙션 패턴인 것 같네요. | |
− | + | 내 생각에는 Dealing with Data에 Change Mode 중분류가 생겨야 하다고 봅니다. 그 안에 Text to Voice / Image to Text 등의 패턴이 생길 수 있겠지요. | |
− | + | 이것도 연대 팀과 상의하겠습니다. | |
− | + | ---- | |
− | + | ||
− | + | ||
− | + | ===Fiducial marker=== | |
− | + | ||
− | + | [http://silbot.tistory.com/70 Fiducial marker] | |
− | + | ||
− | + | ---- | |
− | + | ||
− | + | ===3D Tracking Interface=== | |
− | {{#Widget:Youtube|id= | + | {{#Widget:Youtube|id=ikD_3Vemkf0|width=665|height=374}} |
− | |||
− | |||
− | + | >> Recognize agent information > 새로운 패턴으로 "Recognize location of agent"를 추가할 수 있을 것 같아요. 너무 포괄적인 것 같기도 한데... | |
− | + | ||
+ | 패턴 안의 그룹으로 2D location / 3D location 나누어서 2D에는 GPS 인식 사례를 몇개 넣고(Mixed Reality의 GPS 기반 VR 사례들 보다는 스마트 홈이나 IoT 쪽 사례들이 있으면 좋겠는데... 한번 찾아봐주세요), 3D location 에는 이 사례를 넣으면 좋겠습니다. | ||
[[category:Sandbox]] | [[category:Sandbox]] |
Playground의 IoT 쪽에 넣어두거나 Context Recognition의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다.
>> 센싱 방법으로 보기 보다는 IoT로 넣는 것이 원래의 컨셉(네트워킹)을 더 의미있게 볼 수 있는 것 같네요. 현재 IoT에 있는 사례들과 유사성이 있기도 하구요.
""
Context Recognition의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다.
>> 네, 그렇게 하는 게 좋겠어요.
""
Context Recognition의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다.
>> 네, Getting Input은 아닌 것 같고, 모션 인식하는 패턴을 만들죠.
""
Context Recognition 쪽이지만 들어갈 곳이 없습니다. 예전에 삭제한 사례중에 위와 비슷한 사례가 있었으나 그때에서 화면상의 정보를 인식하는 것을 포괄할 중분류가 없어서 삭제했었습니다.
>> 주위를 인식한 측면이나 번역 기능의 측면 보다는,
텍스트 데이터를 입력하는 방법(이렇게 보면 Getting Input > Input Text/Image > 이미지를 텍스트로 변환 입력하는 패턴이 생성되어야) 또는 이미지 데이터 중 일부를 문질러서 선택하는 방법(이렇게 보면 Dealing with Data > Edit > Select) 에 특징이 있는 것 같습니다.
일단 남겨둬보세요. 연대 팀과 상의해보겠습니다.
Context Recognition 쪽이지만 들어갈 곳이 없습니다. 텍스트 정보를 인식하는 패턴(Recognize language)을 만들어야 할것 같지만, 마땅히 들어갈 만한 중분류가 없습니다.
>> 주위 상태를 인식한다기 보다는, 텍스트 정보를 입력하고(이렇게 보면 Getting Input), 정보를 voice로 변환하는(이렇게 보면 Dealing with Data : "다양한 행동을 통해 데이터를 검색, 수정, 저장, 변환") 인터랙션 패턴인 것 같네요. 내 생각에는 Dealing with Data에 Change Mode 중분류가 생겨야 하다고 봅니다. 그 안에 Text to Voice / Image to Text 등의 패턴이 생길 수 있겠지요. 이것도 연대 팀과 상의하겠습니다.
""
>> Recognize agent information > 새로운 패턴으로 "Recognize location of agent"를 추가할 수 있을 것 같아요. 너무 포괄적인 것 같기도 한데...
패턴 안의 그룹으로 2D location / 3D location 나누어서 2D에는 GPS 인식 사례를 몇개 넣고(Mixed Reality의 GPS 기반 VR 사례들 보다는 스마트 홈이나 IoT 쪽 사례들이 있으면 좋겠는데... 한번 찾아봐주세요), 3D location 에는 이 사례를 넣으면 좋겠습니다.