Human in the Loop: Rethinking Ethics in the Age of AI
Dogyung Lee, Deputy Editor
In an era when artificial intelligence is reshaping how we learn, work, and create, opinions on its use remain divided. Some professors strictly forbid ChatGPT, while others encourage students to experiment with it — sometimes even requiring them to attach their prompt logs. Yet beneath these contrasting rules lies a shared belief: AI must not replace human thought. We are expected to question its answers, reinterpret them in our own language, and add our perspective. This principle embodies the idea of Human-in-the-Loop (HITL) — a philosophy of ethical collaboration between human intelligence and machine intelligence.
HITL belongs to a broader framework that classifies how much control humans retain in AI systems. At one extreme is AI-in-the-loop (AITL), where humans lead the entire process and use AI as a subordinate tool. Next comes Human-in-the-loop (HITL), the middle ground of mutual partnership, where humans and AI share complementary roles. A step further is Human-on-the-loop (HOTL), in which humans merely monitor automated decisions. The final stage, Human-out-of-the-loop (HOOTL), represents full automation — a scenario in which machines act and decide entirely on their own.
Among these four, HITL represents the most balanced and human-centered model. It does not view humans as passive supervisors, but as active collaborators who bring creativity, intuition, and moral judgment into the algorithmic process. In machine learning, humans label data, verify predictions, and refine outcomes through feedback loops. In fields such as medicine, aviation, or education, human experts ensure that automation operates within ethical and contextual boundaries. Rather than competing with machines, humans complete them.
The ethical foundation of HITL lies in recognizing that intelligence divorced from humanity is incomplete. Machines may surpass us in speed and precision, but they lack empathy, context, and conscience. By remaining within the loop, humans safeguard fairness, transparency, and accountability — principles that keep technology aligned with moral values. In education, this translates into “thinking with AI,” not “thinking by AI.” Students learn not to copy outputs but to transform them into their own reasoning, making the machine a partner in inquiry rather than a substitute for intellect.
At a societal level, HITL is a response to a growing fear: that automation could strip away human agency. When systems make decisions faster than humans can comprehend, ethical reasoning risks being left behind. HITL insists on the opposite — that progress must include reflection, not just acceleration. It reframes intelligence as co-intelligence, a synthesis of computational accuracy and human understanding. The goal is not to eliminate human fallibility, but to guide algorithms with empathy and wisdom.
Of course, this philosophy is not without challenges. Human oversight can slow efficiency and introduce new biases. Designing the “right amount” of human intervention is complex: too little invites moral risk, too much hinders scalability. Yet these tensions are precisely what make HITL valuable — it forces us to define what kind of intelligence, and what kind of humanity, we wish to preserve. Ultimately, “human-in-the-loop” is more than a technical term; it is a moral declaration. It states that no matter how advanced machines become, the final responsibility — the power to question, interpret, and decide — must remain with people. The most capable individual in the AI age will not be the one who automates everything, but the one who knows when and why to intervene.
HITL reminds us that intelligence is not measured by calculation alone, but by conscience. The future of AI will not belong solely to machines or to humans, but to the partnership between them — a loop that keeps the human heart at the center of progress.
인공지능(AI)이 학습과 업무, 창작의 방식을 재편하고 있는 시대에, 그 활용을 둘러싼 의견은 여전히 분분하다. 과제를 할 때, 어떤 교수님은 ChatGPT의 사용을 금지하지만, 다른 교수님은 오히려 실험적으로 활용하라며 대화 기록 제출까지 요구한다. 그러나 이런 상반된 지침 속에서도 공통된 믿음이 존재한다. AI는 인간의 사고를 대체해서는 안 되며, 우리는 그 결과를 비판적으로 분석하고, 자신의 언어로 재해석해야 한다는 것이다. 이러한 원칙은 인간 지능과 기계 지능의 윤리적 협력을 강조하는 철학, “휴먼 인 더 루프(Human-in-the-Loop, HITL)”로 이어진다.
HITL은 인공지능 시스템에서 인간이 얼마나 통제권을 유지하느냐를 기준으로 한 네 단계 중 하나이다. 가장 인간 중심적인 AI 인 더 루프(AITL)는 인간이 주도하고 AI가 보조 도구로 작동한다.
그다음 단계인 휴먼 인 더 루프(HITL)는 인간과 AI가 상호 협력하며 역할을 분담하는 ‘파트너십’ 구조다.
휴먼 온 더 루프(HOTL)는 인간이 AI의 결정을 단순히 감시만 하는 단계이며, 마지막 휴먼 아웃 오브 더 루프(HOOTL)는 인간의 개입 없이 AI가 스스로 판단하고 행동하는 완전 자동화 단계다.
이 네 단계 중 HITL은 가장 균형 잡힌 형태로 평가된다. 인간은 단순한 감독자가 아니라 창의력, 직관, 윤리적 판단을 기계의 계산 과정에 더하는 적극적 협력자로서 참여한다. 머신러닝에서는 사람이 데이터를 라벨링하고 예측을 검증하며, 피드백을 통해 모델을 개선한다. 의학, 항공, 교육 분야에서도 인간 전문가의 개입은 자동화가 윤리적·맥락적 한계를 벗어나지 않도록 보장한다. 즉, 인간은 기계와 경쟁하는 존재가 아니라 기계를 완성하는 존재다.
HITL의 윤리적 근거는 “인간성과 분리된 지능은 불완전하다”는 인식에 있다. 기계는 속도와 정확성에서 인간을 능가하지만, 공감·맥락·양심은 가질 수 없다. 인간이 루프 안에 머무름으로써 공정성, 투명성, 책임성이 유지되고, 기술이 도덕적 가치와 일치하도록 방향을 잡는다. 교육에서 이것은 ‘AI로 생각하기(Thinking by AI)’가 아니라 ‘AI와 함께 생각하기(Thinking with AI)’를 의미한다. 학생들은 AI의 답변을 복사하지 않고, 그것을 비판적으로 재구성해 자신의 사고를 확장한다. AI는 생각을 대신하는 존재가 아니라, 사유를 촉진하는 동반자가 된다.
사회적 차원에서 HITL은 자동화가 인간의 주체성을 약화시킬 수 있다는 불안을 향한 응답이기도 하다. 시스템이 인간의 이해 속도를 넘어 결정을 내릴 때, 윤리적 숙고는 종종 뒤로 밀린다. HITL은 그 흐름을 거슬러 “진보란 단순한 가속이 아니라 성찰을 포함해야 한다”고 주장한다. 이 개념은 지능을 ‘공존 지능(co-intelligence)’으로 재정의하며, 계산의 정확성과 인간적 통찰의 융합을 추구한다. 목표는 인간의 불완전함을 없애는 것이 아니라, 그 불완전함을 지혜와 공감으로 보완하는 것이다.
물론 이 철학은 한계도 갖고 있다. 인간의 개입은 효율성을 떨어뜨리고, 새로운 편향을 낳을 수 있다. 또한 얼마나, 언제, 어떤 방식으로 개입할 것인지 결정하는 일은 복잡하다. 그러나 바로 그 긴장이야말로 HITL의 가치다. 그것은 우리가 어떤 지능을 만들고, 어떤 인간성을 지켜야 하는지를 스스로 묻게 만든다.
결국 ‘휴먼 인 더 루프’는 단순한 기술 용어가 아니라 윤리적 선언이다. 아무리 발전한 기계라도, 질문하고 해석하고 결정하는 최종 책임은 인간에게 남아야 한다. AI 시대의 진정한 능력자는 모든 것을 자동화하는 사람이 아니라, 언제 그리고 왜 개입해야 하는지를 아는 사람이다. 지능의 본질은 계산이 아니라 양심이며, 미래의 AI는 인간과의 협력 속에서 완성될 것이다. 그리고 그 중심에는 언제나 인간이 있어야 한다.