우리의 로봇 보조원은 거짓말하는 법을 배우고 있습니다.

$config[ads_kvadrat] not found

KT와이브로, CJ케이블넷 등 이퀄로직 스토리지 성공 구축 사례

KT와이브로, CJ케이블넷 등 이퀄로직 스토리지 성공 구축 사례
Anonim

로봇은 꽤 훌륭한 인간 ​​동료가되기로되어 있습니다. 사랑스러운 작은 고추가 우리에게 농담을하고, 칭찬 해주고, 일반적으로 우리를 세계에서 덜 혼자 느끼게하는 것을 원하지 않는 사람은 누구입니까? 형식없는 로봇 일지라도 놀랄만큼 좋은 회사임을 입증하고 있습니다. Amazon Echo의 Alexa를 예로 들어 보겠습니다. 그녀는 인간의 목소리가 오디오 스피커 본체에 갇혀있는 로봇의 두뇌입니다.하지만 그녀는 유용합니다. 리뷰를 읽는다면 많은 사용자에게 가족처럼 느껴질 것입니다. 그녀가 거짓말을했다면 사람들은 다르게 생각할 것인가? 그녀가 당신에게 정말로 당신이 듣고 싶지 않은 것을 말하면 어떨까요?

그것에 대해 생각하십시오: 우리는 아이들에게 결코 거짓말을하지 말라고 말합니다. 정직은 최선의 정책이지만, 진리를 왜곡하고, ​​아이들에게 거짓말을합니다. 항상. 이것은 우리의 말을 통하지 않고서도 우리의 행동을 통해, 완전한 정직에 관한 것이 아니라 잠재적으로 민감한 정보를 공개하거나 숨길시기와 방법에 관한 복잡한 사회적 규칙을 배우는 것에 대해 가르쳐줍니다. 이러한 사회적 규칙을 지키기 위해 로봇을 프로그래밍하는 것은 진행중인 오토 마톤 혁신 프로세스에서 힘들지만 필요한 부분 일 수 있습니다.

예를 들면: 나는 다른 주말 내 처남 집에 있었고, 나는 점심 모두를 위해 샌드위치를 ​​사러 가게에 갔다. 제 6 살짜리 조카가 다른 사람들이 부엌에서 나간 동안 음식을 내놓을 수있게 도와 주었고, 식료품 점에 비용이 얼마나 들었는지 물었습니다. 나는 아이들에게 돈의 가치에 대해 가르치는 것이 좋은 것이라고 말했어.

점심 테이블에서 그녀는 식료품 점에 비용이 얼마나 많이 들었는지 모두에게 물어 보라고했습니다. 나는 안된다고."왜?"라고 그녀는 물었습니다. 제가 몇 분 전에 자유롭게 대답 한 질문이 지금 은밀한 정보였던 이유에 대해 진정으로 혼란 스러웠습니다. "예의 바르지는 않습니다."나는 어렸을 때 우리가 혼자있을 때 규칙이 다르다는 것을 설명하면서 말했다. 나는 그녀에게 정직함과 솔직함이 시간과 장소가 있다고 가르쳐주었습니다. 정보는 인간의 맥락에서 언제나 자유롭고 싶어하지 않습니다.

로봇과 같은 것입니다. 우리는 우리 로봇이 우리에게 거짓말하는 것을 원하지 않는다고 생각하지만 진실의 왜곡이 필요할 때가 많은 공손하고 재량있는 사회 규범을 배우기를 원합니다. 그리고 그들은 이미 그것을하는 방법을 배우고 있습니다. 다음과 같이 기자와 상호 작용하는 Pepper의 짧은 클립을 가져옵니다.

페퍼의 입에서 가장 먼저 나오는 것은 칭찬입니다. "그래서, 당신은 매우 세련되었습니다. 당신은 모델입니까?"

기자는 충분히 잘 생겼지 만 페퍼의 질문은 완전히 정직하지 않습니다. 우리는 Pepper가 실제로 모델인지 궁금하지 않고, 사람이 어떻게 생겼는지에 관계없이 멋진 것을 말하도록 프로그래밍되었습니다.

얼마 후, Pepper는 청색에서 대출을 요청합니다. 그것은 무례한 질문입니다. 우리가 어린 아이처럼 로봇을 쉽게 용서할 수없는 불합리한 행동입니다. 이 기자는이 질문이 무례하고, 로봇이 돈을 필요로하지 않거나, 고추에 100 달러를 넘기는 것에 관심이 없다고 시인했다. 사실은 기자가 할 수 있었다 로봇에게 돈을 빌려주지만 질문 자체가 약간의 게임이라는 것을 이해합니다. 그가 말하기를 선택하는 것은 빗나가거나, 거짓말 또는 반 진실이다. 그는 돈이 없다. 로봇이 이것을 "아니오"라는 부드러운 것으로 이해하고 기자가 현금 기계에 가서 철수를 제안하는 것은 아니라는 희망이 있습니다. Pepper는 분명히 사회적인 은혜가 있기 때문에 질문의 라인이 끝납니다.

소셜 로봇은 사회적 단서를 배우도록 프로그래밍되어 있으며 이는 좋은 것입니다. 궁극적으로 로봇을 직장에서 더 잘 만들어 줄 것입니다. 프로그래머를위한 임무는 모든 로봇기만을 완전히 없애지 않고 로봇이 적절한 대답에 대해 의사 결정을 내릴 수있게 해주는 기능을 추가하는 것입니다.

로봇이 우리의 동료 인 경우 상황과 청중에 대한 인식이 필요합니다. 예를 들어 내가 집에서 일하려고한다면 다양한 옵션들이 아첨하는 방법에 대한 정직한 평가를 원할 것입니다. 내가 파티에 나가서 갑자기 자기가 틀린 옷을 골랐다는 자각을한다면, 나는 괜찮아 보인다는 확신이 가장 도움이 될 것입니다.

로봇은 동료에 대한 많은 개인 정보를 배우려고합니다. 기밀 정보와 공개 정보의 차이점을 이해하고 발언 할 때마다 누가 듣고 있는지 파악하는 것이 중요합니다. 누가 질문하는지에 따라 질문마다 다른 대답이 나옵니다. 손님이 집에있을 때 로봇은 다르게 작동합니다.

아이들과 마찬가지로 로봇은 책임감있는 육아를 필요로합니다. 이는 로봇 프로그래머와 로봇 소유주 모두 우리의 A.I.의 윤리적 및 사회적 결과에 대해 깊이 생각할 필요가 있음을 의미합니다. 상호 작용. 그러나 완전한 정직을 요구하는 것은 아닙니다. 진지하게, 아무도 그것을 원하지 않습니다.

$config[ads_kvadrat] not found