Post

AI는 우리의 업무를 얼마나 대체할 수 있을까?

들어가며

최근 몇 년간 AI는 우리가 일하는 방식에 큰 변화를 가져왔습니다.

AI는 단순한 도구를 넘어, 업무 효율성을 극대화하고 복잡한 문제 해결 능력을 강화하는 핵심 기술로 자리 잡았습니다.

오늘날 기업은 AI를 통해 더욱 빠르게 정보를 수집하고, 다양한 업무에서 자동화의 이점을 누리고 있습니다.

이 글에서는 AI가 어떻게 업무 환경을 변화시키고, 그로 인해 나타난 다양한 변화와 영향에 대해 살펴보겠습니다.

AI의 빠른 성장

학부생 시절, 이미지를 애니메이션 캐릭터처럼 바꿔준다는 U-GAT-IT(Selfie2Anime)으로 생성형 AI를 처음 접하였습니다.

Desktop View

U-GAT-IT

당시에 뛰어난 성능을 보여준 것은 아니었지만 이미지를 생성하는 기술 자체가 굉장히 신선했는데요.

해당 기술이 등장하고 4년이 지난 지금, 오늘날의 AI는 단순 이미지 생성을 넘어 영상까지 만들어낼 수 있는 기술로 발전했습니다.

이러한 AI의 발전은 4차 산업혁명의 중심에 있으며, 빠르게 변화하는 기술 환경에 대응하기 위한 필수적인 요소로 자리 잡았습니다.

AI는 단순 반복 작업을 넘어 복잡한 데이터 분석과 의사결정, 그리고 고객 응대와 같은 다양한 업무 분야에도 적용되며, 일상적인 업무에서부터 고도의 전문적인 작업까지 널리 사용되고 있습니다.

AI를 활용한 기술 사례

현재 사내 업무Copilot, ChatGPT4, Figma Plugins 등의 다양한 도구를 활용하고 있습니다.

이는 회사 측에서 적극적으로 도입을 고민하기에 가능했는데요.

실제로 업무를 진행하면서 다음 과정이 굉장히 빠르게 진행됩니다.

  • interface를 설계 후 mockup 데이터 생성
  • UI 레이아웃을 빠르게 생성
  • 기존 코드의 리팩토링 유도
  • 각 라이브러리 사용 예제 검토 등

이와 같은 장점으로 개발하면서 개인 비서를 두고 업무를 처리하는 느낌을 받을 수 있습니다.

사례: 네이버 클린봇 (AI 댓글 관리자 봇)

소셜 미디어에서 공격적이거나 비방 목적의 댓글을 쉽게 접할 수 있습니다.

이를 사람이 하나하나 검토하는 데에는 한계가 있습니다.

이러한 문제를 해결하기 위해 네이버는 AI 봇을 활용해 이를 대처하고 있습니다.

Desktop View

네이버 클린봇

단순히 기능을 두 가지로 정의하고 이를 대처한다고 판단하였습니다.

  • 댓글을 AI로 분석해서 공격성 지수를 판단한다.
  • 일정 수준이 넘어가면 해당 사용자는 댓글 경고가 제공되며 높은 수준의 반복 시 일정 기능이 제한된다.

Desktop View

네이버 클린봇 제재

  1. AI가 공격적인 댓글을 분석한 후, 일정 수준 이상일 때는 사용자에게 경고를 보낼 수 있습니다.

  2. 반복해서 공격적인 댓글을 남기는 경우, 일정 시간 동안 댓글 작성 기능을 제한하는 식으로 제재할 수 있습니다.

  3. 일정 기간 동안 사용자의 활동을 제한함으로써 과격한 댓글을 줄일 수 있을 것입니다.

이러한 방법은 AI의 자동화로 기업은 이를 통해 인력 비용을 절감할 수 있게 되었고,

직원들이 더 창의적이고 전략적인 업무에 집중할 수 있거나 이를 관리하는 한 단계 높은 업무를 수행할 수 있게 됩니다.

AI의 한계

AI는 많은 장점을 제공하지만, 여전히 한계가 존재합니다.

AI는 데이터를 기반으로 학습하고 결정을 내리지만, 인간의 감정적 판단이나 창의적인 문제 해결 능력을 완벽히 대체하지 못합니다.

또한, AI의 결정이 항상 옳은 것은 아니며, 잘못된 데이터나 알고리즘 오류로 인해 잘못된 결론을 도출할 수 있습니다.

잘못된 필터링

Desktop View

잘못된 필터링 사례 - 리그 오브 레전드 (게임)

위 이미지는 인기 게임 리그 오브 레전드에서 잘못된 필터링을 적용한 사례입니다.

게임 내의 “쉬바나”라는 캐릭터 이름이 욕설로 오인하여 필터링하는 문제가 발생했습니다.

이와 같은 고유명사의 경우는 AI가 제제하는 데 한계가 있습니다.

새로운 트렌드나 어휘적 창의성은 AI가 학습하기 전에 이미 세상에 등장할 수 있어, AI의 적용에 한계를 초래할 수 있습니다.

부족한 신뢰성

Desktop View

AI 도구의 정확성 - Stack Overflow 2024 AI 설문

위 이미지는 Stack Overflow에서 AI 도구의 정확성에 대한 설문 결과입니다.

43%는 AI의 정확성에 대해 긍정적이지만, 나머지 57% 응답자들은 AI의 신뢰성에 대해 회의적이거나 부정적입니다.

이는 AI가 항상 정확하지 않다는 현실을 보여주며, 저 역시 AI 도구를 사용할 때 이러한 문제를 체감하고 있습니다.

AI가 잘못된 정보를 사실처럼 제시하거나 반복적인 오류를 낼 가능성이 있다는 점은 중요한 도전 과제입니다.

마치며

AI는 업무의 자동화와 효율성을 크게 향상시키는 도구로 자리 잡았지만, 그 한계 또한 명확합니다.

네이버 클린봇과 같은 사례는 AI가 실생활에서 어떻게 비용 절감과 효율성 증대에 기여하는지를 보여주지만, AI의 감정적 판단 능력 부족과 신뢰성 문제는 여전히 극복해야 할 과제로 남아 있습니다.

결국, AI가 대체할 수 있는 업무의 범위는 어느정도 제한적인 부분이 존재하며 이러한 결과를 사람이 검토하는 것은 필수적입니다.

AI는 보조 도구로서 사람의 업무를 보완하는 역할을 충실히 수행하고 있으며, AI가 보여준 성장세와 같이 향후 사람의 검토 범위를 점차 좁혀나갈 것으로 보입니다.

AI와 함께 일하는 환경은 앞으로 더 큰 변화를 맞이할 것이며, 우리는 그 변화에 적응하고 발전해야 할 것입니다.

레퍼런스

This post is licensed under CC BY 4.0 by the author.