(→Finger Reader _ Wearable Text Reading Device) |
|||
(17 intermediate revisions by 2 users not shown) | |||
Line 6: | Line 6: | ||
Playground의 IoT 쪽에 넣어두거나 [http://www.ixpatterns.com/Category:Context_Recognition Context Recognition]의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다. | Playground의 IoT 쪽에 넣어두거나 [http://www.ixpatterns.com/Category:Context_Recognition Context Recognition]의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다. | ||
− | >> 센싱 방법으로 보기 보다는 IoT로 넣는 것이 더 | + | >> 센싱 방법으로 보기 보다는 IoT로 넣는 것이 원래의 컨셉(네트워킹)을 더 의미있게 볼 수 있는 것 같네요. 현재 IoT에 있는 사례들과 유사성이 있기도 하구요. |
---- | ---- | ||
Line 15: | Line 15: | ||
[http://www.ixpatterns.com/Category:Context_Recognition Context Recognition]의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다. | [http://www.ixpatterns.com/Category:Context_Recognition Context Recognition]의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다. | ||
>> 네, 그렇게 하는 게 좋겠어요. | >> 네, 그렇게 하는 게 좋겠어요. | ||
+ | ---- | ||
+ | |||
+ | ===Neo Smartpen N2=== | ||
+ | * 펜 모양의 기기의 움직임을 인식하여 사용자가 필기하고 있는 내용을 데이터화 한다. | ||
+ | {{#Widget:Youtube|id=II_W9Fiz9eQ|width=665|height=374}} | ||
+ | [http://www.ixpatterns.com/Category:Context_Recognition Context Recognition]의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다. | ||
+ | |||
+ | >> 네, Getting Input은 아닌 것 같고, 모션 인식하는 패턴을 만들죠. | ||
---- | ---- | ||
Line 40: | Line 48: | ||
내 생각에는 Dealing with Data에 Change Mode 중분류가 생겨야 하다고 봅니다. 그 안에 Text to Voice / Image to Text 등의 패턴이 생길 수 있겠지요. | 내 생각에는 Dealing with Data에 Change Mode 중분류가 생겨야 하다고 봅니다. 그 안에 Text to Voice / Image to Text 등의 패턴이 생길 수 있겠지요. | ||
이것도 연대 팀과 상의하겠습니다. | 이것도 연대 팀과 상의하겠습니다. | ||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
---- | ---- | ||
Line 94: | Line 61: | ||
+ | >> Recognize agent information > 새로운 패턴으로 "Recognize location of agent"를 추가할 수 있을 것 같아요. 너무 포괄적인 것 같기도 한데... | ||
− | + | 패턴 안의 그룹으로 2D location / 3D location 나누어서 2D에는 GPS 인식 사례를 몇개 넣고(Mixed Reality의 GPS 기반 VR 사례들 보다는 스마트 홈이나 IoT 쪽 사례들이 있으면 좋겠는데... 한번 찾아봐주세요), 3D location 에는 이 사례를 넣으면 좋겠습니다. | |
[[category:Sandbox]] | [[category:Sandbox]] |
Playground의 IoT 쪽에 넣어두거나 Context Recognition의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다.
>> 센싱 방법으로 보기 보다는 IoT로 넣는 것이 원래의 컨셉(네트워킹)을 더 의미있게 볼 수 있는 것 같네요. 현재 IoT에 있는 사례들과 유사성이 있기도 하구요.
""
Context Recognition의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다.
>> 네, 그렇게 하는 게 좋겠어요.
""
Context Recognition의 Recognize device information 중분류의 하단에 Recognize motion of device 라는 새로운 패턴을 만드는게 좋을것 같습니다.
>> 네, Getting Input은 아닌 것 같고, 모션 인식하는 패턴을 만들죠.
""
Context Recognition 쪽이지만 들어갈 곳이 없습니다. 예전에 삭제한 사례중에 위와 비슷한 사례가 있었으나 그때에서 화면상의 정보를 인식하는 것을 포괄할 중분류가 없어서 삭제했었습니다.
>> 주위를 인식한 측면이나 번역 기능의 측면 보다는,
텍스트 데이터를 입력하는 방법(이렇게 보면 Getting Input > Input Text/Image > 이미지를 텍스트로 변환 입력하는 패턴이 생성되어야) 또는 이미지 데이터 중 일부를 문질러서 선택하는 방법(이렇게 보면 Dealing with Data > Edit > Select) 에 특징이 있는 것 같습니다.
일단 남겨둬보세요. 연대 팀과 상의해보겠습니다.
Context Recognition 쪽이지만 들어갈 곳이 없습니다. 텍스트 정보를 인식하는 패턴(Recognize language)을 만들어야 할것 같지만, 마땅히 들어갈 만한 중분류가 없습니다.
>> 주위 상태를 인식한다기 보다는, 텍스트 정보를 입력하고(이렇게 보면 Getting Input), 정보를 voice로 변환하는(이렇게 보면 Dealing with Data : "다양한 행동을 통해 데이터를 검색, 수정, 저장, 변환") 인터랙션 패턴인 것 같네요. 내 생각에는 Dealing with Data에 Change Mode 중분류가 생겨야 하다고 봅니다. 그 안에 Text to Voice / Image to Text 등의 패턴이 생길 수 있겠지요. 이것도 연대 팀과 상의하겠습니다.
""
>> Recognize agent information > 새로운 패턴으로 "Recognize location of agent"를 추가할 수 있을 것 같아요. 너무 포괄적인 것 같기도 한데...
패턴 안의 그룹으로 2D location / 3D location 나누어서 2D에는 GPS 인식 사례를 몇개 넣고(Mixed Reality의 GPS 기반 VR 사례들 보다는 스마트 홈이나 IoT 쪽 사례들이 있으면 좋겠는데... 한번 찾아봐주세요), 3D location 에는 이 사례를 넣으면 좋겠습니다.