Skip to content
🤔prompts chat🧠
🔍
question:Plenty of Reasoning Examples are also ‘in distribution’

answer:추론 예시 중 많은 것이 '분포 내'에도 존재합니다.

question:But can you see the problem? This is not the model internally ‘reasoning’, this is the model imitating a commonly-found reasoning structure: ‘If X’s mother is Y’, then ‘Y’s child is X’. If a model were reasoning, it would take a fact it already ‘knows’ and reason to further facts and conclusions independently. Humans are currently much better at abstracting in this way, drawing conclusions without being told (of course this can come with issues).

answer:하지만 문제를 보시겠습니까? 이것은 모델이 내부적으로 '추론'하는 것이 아니라, 'X의 어머니가 Y이다'라면 'Y의 자녀는 X이다'와 같은 흔히 발견되는 추론 구조를 모방하는 것입니다. 모델이 추론을 한다면, 이미 '알고 있는' 사실에서 출발해 독립적으로 추가 사실과 결론을 도출할 것입니다. 현재로서는 인간이 이런 방식으로 추상화하는 데 훨씬 더 능숙합니다. 인간은 말해주지 않아도 결론을 도출할 수 있으며(물론 이 과정에 문제가 발생할 수도 있습니다).

question:re: easily

answer:문제가 무엇인지 분명히 알 수 있습니다. 이것은 모델이 진정으로 '추론하는' 것이 아니라, 'X의 어머니가 Y이면 Y의 자녀는 X이다'와 같은 자주 발견되는 추론 구조를 모방하고 있는 것입니다. 만약 모델이 실제로 추론을 한다면, 이미 '알고 있는' 사실로부터 독립적으로 더 많은 사실과 결론을 이끌어낼 수 있어야 합니다. 인간은 말해주지 않아도 결론을 도출하는 데 현재 훨씬 능숙합니다. 이는 물론 문제를 야기할 수도 있는 방식으로 추상화하는 과정을 의미합니다.

question:re: explaind me easily.

answer:간단히 말해서, 문제는 언어 모델이 실제로 스스로 '추론'하는 것이 아니라, 자주 보는 추론 패턴을 단순 모방하는 것에 있다는 것입니다. 모델이 진정으로 추론을 한다면, 이미 알고 있는 사실에서부터 스스로 새로운 결론을 도출할 수 있어야 합니다. 하지만 현재로선 사람이 이러한 추론을 하는 데 훨씬 더 능숙합니다. 우리는 누군가가 알려주지 않아도, 독립적으로 결론을 내릴 수 있습니다.

Released under the Aurora License.

has loaded