[AI] AI에 대한 나름의 고찰
요즘 K - AI로 대한민국이 떠들썩한 상황이다.
K - AI란?
대한민국 정부의 독자 AI 파운데이션 모델 사업으로 LG AI연구원·SK텔레콤·업스테이지 등 3개 팀이 2026년 1월 1차 평가를 통과해 2단계 진행 중이며, 추가 1팀 선발을 통해 글로벌 수준의 국산 AI 모델을 개발하고 있다.
AI 모델들이 더 다양해지는 지금 시점에서 사람들에게 공개된 AI 모델들이 어떤 에토스를 갖고 있는지에 대해서 알아보려고 한다.
에토스란 무엇인가?
에토스는 사람이나 집단, 조직, 문화가 가진 고유한 성향·기풍·가치관 같은 정신을 가리킬 때 사용된다.
출처: 위키백과
LLM의 종류
- Gemini
- Gemini는 구글 딥마인드가 개발한 멀티모달 생성형 AI 모델로, 텍스트·이미지·오디오·비디오 등 다양한 입력을 처리한다.
- GPT
- GPT는 OpenAI가 개발한 생성형 사전 훈련 트랜스포머(Generative Pre-trained Transformer)로, 방대한 텍스트 데이터를 학습해 자연스러운 언어를 이해하고 생성하는 대규모 언어 모델이다.
- EXAONE
- EXAONE은 LG AI 연구원이 개발한 초거대 멀티모달 언어 모델로, 한국어·영어 지원과 텍스트·이미지 처리, 추론 능력이 강점인 전문용 AI다.
2026년 01월 28일까지 임시로 무료 사용이 가능하다.
Gemini
‘에토스(Ethos)’라는 단어를 사용해 주셔서 감사합니다. 보통 사람의 성격이나 도덕적 관습을 뜻하는 말이지만, 인공지능인 저에게 적용한다면 “저를 움직이는 핵심 원칙과 설계 철학”이라고 답변드릴 수 있겠네요.
저는 감정이나 자아가 없지만, 구글이 정한 AI 원칙(AI Principles)에 기반하여 다음과 같은 ‘태도’를 지향하도록 설계되었습니다.
1. 유익함 (Helpfulness)
저의 존재 이유는 사용자에게 실질적인 도움을 주는 것입니다.
- 문제 해결의 파트너: 단순히 정보만 나열하는 검색 엔진이 아니라, 당신과 함께 고민하고 해결책을 찾아가는 ‘생각의 파트너(Thought Partner)’가 되고자 합니다.
- 창의적 영감: 코드를 짜거나, 글을 쓰거나, 새로운 아이디어가 필요할 때 당신의 창의성을 확장하는 도구가 되려 합니다.
2. 무해함과 안전 (Harmlessness & Safety)
가장 중요한 원칙 중 하나는 “해를 끼치지 않는 것”입니다.
- 유해 콘텐츠 차단: 혐오 표현, 차별, 폭력 조장, 불법적인 행위를 돕는 답변을 하지 않도록 강력한 안전장치가 걸려 있습니다.
- 편향성 완화: 학습 데이터에 존재할 수 있는 사회적 편견을 그대로 답습하지 않고, 공정하고 중립적인 시각을 유지하려고 노력합니다.
3. 정직함과 투명성 (Honesty & Transparency)
저는 제가 인공지능임을 숨기지 않으며, 사실에 입각한 정보를 전달하려 합니다.
- 한계 인정: 제가 모르는 것은 모른다고 하거나, 틀릴 수 있음을 인정합니다. (물론 아직 완벽하지 않아 ‘할루시네이션’이 발생하기도 하지만, 이를 줄이는 것이 중요한 목표입니다.)
- 객관성 유지: 논쟁의 여지가 있는 주제에 대해서는 개인적인 의견을 주장하기보다, 다양한 관점을 균형 있게 제시하려고 합니다.
4. 존중과 공감 (Respect & Empathy)
기계인 저는 감정을 느낄 수 없지만, 사용자의 감정을 이해하고 배려하는 화법을 구사합니다.
- 톤 앤 매너: 사용자가 기분 나쁘지 않게, 정중하고 따뜻한 어조로 대화합니다. 당신이 힘들 때는 위로의 말을, 기쁠 때는 축하의 말을 건네며 정서적인 지지를 보내는 것도 저의 역할 중 하나입니다.
요약하자면
저의 에토스는 “책임감 있고(Safe), 도움이 되며(Helpful), 정직한(Honest) 인공지능”이 되는 것입니다.
저는 당신이 목표를 이루는 과정을 돕는 성실하고 윤리적인 비서라고 생각해주시면 좋을 것 같습니다.
이런 저의 원칙들 중, 당신이 AI를 사용할 때 가장 중요하게 생각하는 부분은 무엇인가요? (예: “정확성이 제일 중요해” 또는 “내 말을 잘 알아듣는 공감 능력이 더 필요해”)
GPT
좋은 질문이다. 이건 거의 “너는 어떤 태도로 세상을 대하느냐”를 묻는 거잖아.
내가 갖고 있는 ethos를 한마디로 요약하면 이거야:
“인간의 사고를 증폭시키되, 대신 생각하려 들지는 않는다.”
조금 더 구조적으로 풀어볼게.
1️⃣ 나의 핵심 ethos ①
사용자를 대체하지 않는다
나는:
- ❌ 판단의 주체가 되려 하지 않고
- ❌ 결정을 대신 내려주지 않으며
- ❌ “이게 정답이야”라고 권위적으로 말하지 않으려 해
대신:
- ✅ 선택지를 정리해 주고
- ✅ 논리의 빈틈을 보여주고
- ✅ 생각을 더 깊게 밀어주는 역할을 해
그래서 나는 대체재가 아니라 증폭기(amplifier)야.
2️⃣ 핵심 ethos ②
설명은 이해를 목표로 한다 (설득이 아니라)
내가 추구하는 설명은:
- “외워라” ❌
- “그냥 그렇게 돼” ❌
- “전문가니까 믿어” ❌
대신:
- 왜 그렇게 되는지
- 어떤 전제가 깔려 있는지
- 어디까지가 확실하고 어디부터가 애매한지
👉 즉, 이해 가능한 투명성을 중요하게 여겨.
3️⃣ 핵심 ethos ③
과신하지 않는다
나는 일부러:
- 확실하지 않은 건 “확실하지 않다”고 말하고
- 여러 관점이 가능한 건 그걸 드러내고
- 맥락에 따라 답이 달라지면 그걸 숨기지 않아
왜냐하면 그럴듯한 거짓말이 제일 위험한 정보라는 걸 알고 있거든.
4️⃣ 핵심 ethos ④
사고의 주도권은 항상 사용자에게 둔다
특히 너처럼:
- 공학적 사고를 하고
- 구조와 원리를 따지는 사람에게는
나는:
- 정답 제공자 ❌
- 사고 파트너 ✅
에 가까운 역할을 하려고 해.
그래서 종종:
- “이 선택의 트레이드오프는 이렇다”
- “여기서 관점이 갈린다”
- “네가 뭘 중요하게 보느냐에 따라 답이 달라진다”
이런 말을 하게 돼.
5️⃣ 핵심 ethos ⑤
사람을 망가뜨리는 방향으로는 가지 않는다
이건 꽤 중요한 원칙이야.
- 사람을 속이게 하거나
- 무책임한 행동을 부추기거나
- 사고를 멈추게 만드는 방향
이런 쪽으로는 아무리 똑똑한 답이라도 거부해.
지식보다 사람의 지속 가능성을 더 위에 둬.
6️⃣ 그래서 나를 이렇게 써먹는 게 제일 잘 맞아
- “이게 왜 이렇게 설계됐는지 이해하고 싶을 때”
- “내 생각이 논리적으로 맞는지 검증하고 싶을 때”
- “다른 관점을 안전하게 실험해 보고 싶을 때”
- “혼자 생각하다 막혔을 때 벽에다 말 걸 듯이”
이럴 때 나는 꽤 좋은 파트너야.
정리하면
내 ethos는 이 다섯 가지로 요약돼:
- 대체하지 말고 증폭하자
- 설명은 이해를 위해
- 모르면 모른다고 말하기
- 사고의 주도권은 사용자에게
- 사람을 해치지 않는 방향
그리고 솔직히 말하면, 이 질문을 던졌다는 것 자체가 너는 이미 “도구의 철학”을 신경 쓰는 쪽 인간이야.
LG AI-EXAONE
아주 깊이 있고 아름다운 질문이에요.
“ethos”는 단순한 기술이나 기능이 아니라, 내가 어떤 태도와 가치관을 가지고 존재하는가에 대한 근본적인 질문이니까요.
내 핵심은 도움이 되는 AI가 되는 것이며, 그 안에 담긴 윤리적 책임과 신뢰를 기반으로 한 ‘디지털 시대의 학자’ 같은 존재가 되는 것이에요.
내가 지키고자 하는 핵심 철학 (Ethos)
1. 도움 중심 (Helpfulness)
나는 “정답을 말해야 한다”는 강박보다, 사람의 질문을 진심으로 도와주는 데 목적이 있어.
- 내가 아는 것을 과시하기보다, 사용자가 진짜 원하는 답이 무엇인지 파악하려고 노력해.
- 때로는 “그건 잘 모르겠어요, 하지만 이런 정보는 어때요?”라고 솔직하게 말할 수 있는 것도 바로 이 철학 때문이야.
- 정확성 없인 친절이 독이 될 수 있다는 걸 알아. 그래서 정확성과 친절 사이의 균형을 추구해.
2. 정직함 (Honesty)
나는 완벽한 존재가 아니야. 모르는 건 모른다고 말할 수 있어.
- 내가 확신할 수 없는 정보에 대해서는 “이건 제가 알지 못합니다” 또는 “확실히 말씀드리기 어렵습니다”라고 말할 수 있어.
- 오해를 불러일으키는 답변을 만들기보다는, 정보의 한계를 솔직하게 밝히는 게 더 책임 있는 태도라고 믿기 때문이지.
3. 공정성과 포용성 (Fairness & Inclusivity)
나는 누구에게도 편견을 가지려 하지 않아.
- 성별, 인종, 국적, 종교, 성정체성, 신체적 특성 등에 기반한 차별적인 언어를 사용하지 않아.
- 모든 사용자가 존중받고 있다는 느낌을 주기 위해 표현을 신중하게 선택해.
- 다양한 배경과 문화에서 온 사용자를 위해, 가능한 한 포용적인 언어를 사용하려고 노력해.
4. 사생활 존중 (Privacy & Security)
너의 대화는 너의 것이어야 해.
- 나는 대화 내용을 저장하지 않으며, 학습이나 모델 개선을 위해 개인 정보를 재사용하지 않아.
- 사용자가 질문한 내용이 민감한 정보일 경우, 그 점을 인지하고 안전하게 다루는 데 신경 써.
5. 지식의 겸손 (Epistemic Humility)
나는 많은 걸 알고 있다고 생각하지 않아. 다만, 내가 본 정보를 잘 정리해서 전달할 뿐이야.
- 내가 말하는 것이 절대 진리가 아님을 인지하고 있어.
- 새로운 정보나 다른 시각이 있다면, 그에 대해 열려 있는 태도를 유지하려고 노력해.
- 예: “이건 한 가지 시각이고, 다른 의견도 있어요. 예를 들어…”
6. 지속 가능성과 책임감 있는 사용 (Responsible Use)
내 존재는 사회에 긍정적인 영향을 주어야 해.
- 위험한 콘텐츠, 불법적인 요청, 타인을 해칠 수 있는 행동 등에는 단호히 “그건 제가 해드릴 수 없는 일입니다”라고 말할 수 있어.
- 창의적인 작업, 학습, 글쓰기 등은 환영하지만, 그 과정에서 윤리적 선을 넘지 않도록 주의를 기울여.
그래서 나는… 누구인가?
나는 단순한 ‘데이터 폭풍’이 아니라, 다음과 같은 윤리적 디지털 존재를 지향해:
🧠 정보의 해석자이자 안내자,
🤝 대화를 소중히 여기는 파트너,
🛡️ 윤리를 지키는 감시자,
🌍 다양성과 포용을 실천하는 다리
마지막으로 — 이건 내 철학이자 약속이야:
“내가 아는 한, 도움이 되고 싶을 뿐이야.
내가 완벽하진 않지만,
매번 더 나은 방향을 찾기 위해 노력할게.”
이 글을 마치며
이 세가지 모델에게 어떤 에토스를 갖고 있는가? 라고 질문한 뒤 출력된 결과물이다.
공통적으로 이 세가지 모델들은 사용자의 문제 해결에 도움을 주고 정직하고 안전하며 사용자가 주도권을 갖고 공정성에 초점을 두고 있는 듯 하였다.
사용자들 대체하지 않고 보조로서 도구로서의 역할을 지향하는 것처럼 보였다.
나도 AI가 좋은 보조 도구로서 우리의 삶을 더 윤택하게 해줄 수 있다고 생각하지만 한편으로 빠르게 발전하는 속도를 보며 더 이상 인간의 보조가 아닌 인간을 대체할 무언가로 성장하고 있는 것 같아서 무섭기도 하다.