(이미지제공_클루커스)
[웨비나 중계] AI와 Cyber Security – Microsoft Security로 안전한 AI 전환
가끔 신문을 보면 “국내 모 기업이 조직 내에서 챗GPT 사용을 금했다”라는 보도가 나오곤 한다. 기업의 내부 정보가 외부로 유출될 것을 우려하기 때문에 생기는 조치다. 예를 들어 개발자가 자신의 코드를 챗GPT에 올리고 “코드를 리뷰해줘”라고 요구했다고 가정하자. 기업의 핵심 정보가 담겼을지도 모를 이 코드를 인터넷에 무방비로 올리는 행위에 불안감을 느끼지 않은 조직은 없을 것이다.
이처럼 챗GTP 등장 이후 생성형 AI가 비즈니스 혁신을 가져올 것이라는 점은 분명하더라도 정보 유출에 대한 두려움이 사라지지 않는다면, AI 기술의 발전은 그림의 떡이 될 수밖에 없다.
지난 8일 <바이라인플러스>에서 진행된 ‘AI와 사이버 시큐리티 – 마이크로소프트 시큐리티로 안전한 AI 전환’이라는 주제의 웨비나에서는 오픈AI의 최대 파트너인 마이크로소프에서 안전하게 AI 환경을 이용할 수 있는 방안이 소개됐다.
국내 클라우드 관리 기업 클루커스의 박항서 (Managed Service Center) 센터장은 마이크로소프트 애저의 주요 보안 서비스를 활용해 애저 AI를 안전하게 이용할 수 있도록 ▲클라우드 보안 전략, ▲AI 도입의 필요성과 위험성, ▲애저 AI의 보안 장점, ▲안전한 AI 전환을 위한 아키텍처 등을 소개했다. 박 센터장의 발표 내용을 정리했다.
클라우드 보안 전략과 마이크로소프트 애저의 보안 서비스
클라우드 보안 전략은 워크로드와 네트워크를 생성해서 사용해야 하는 ▲인프라 관점의 보안, 워크로드에서 발생하는 ▲데이터에 대한 보안, 사용자의 행위나 설정에 취약점이 없는지 관리하는 ▲정책 영역 및 모니터링으로 나눌 수 있다.
클라우드 이용자의 보안 책임은 계정을 생성하고 권한을 부여하는 영역에서 시작된다. 간혹 클라우드 이용자 중에 보안 침해 사고가 일어나면 클라우드 공급자가 책임을 져야 하는 것 아니냐는 생각을 하기도 한다. 그러나 계정 권한이나 보안 서비스를 제대로 설정하지 않은 탓에 벌어지는 침해는 이용자의 책임이다.
이용자에 따라 적절한 권한이 잘 설정됐다면 데이터 보안을 신경써야 한다. 애저 클라우드의 AI를 이용한다고 가정해보자. 단순히 AI 서비스에 접속해서 이용하는 것이 아니다. AI 모델과 통신을 하는 앱 서버도 있고, 컨테이너도 연결될 수 있다. DB가 애저 AI와 연결될 때도 있다.
이럴 때 가장 손쉽게 보안을 강화시킬 수 있는 방법은 취약점을 점검해주는 도구인 ‘마이크로소프트 디펜더 클라우드(MDC)’다. 운영체제와 같은 인프라부터 애플리케이션까지 특별한 에이전트를 설치하지 않고도 취약점을 찾아낼 수 있다.
그 다음에 보안 정책이다. 애저 폴리시를 활용하면 보안 규정 점검과 차단 기능을 갖추고 있고 자체적인 정책을 생성해서 클라우드에 배포하고 마치 프라이빗 클라우드처럼 기능을 제한할 수 있다. 누군가 정책을 지키지 않는 이상 행위를 했을 경우에는 관리자에게 알람을 전송하게 된다. 에저 센티넬을 이용하면 SIEM(보안 정보 및 이벤트 관리)을 구성할 수도 있다. 클라우드 구성 로그, 행동 로그, VM 등에 설치된 OS 이기종 방화벽 로그까지 모두 수집해서 점검할 수 있다.
보안 문제를 한 방에 해결하는 ‘애저 AI’
가트너는 2024년 10대 전략 기술 트렌드 첫번째 키워드로 ‘AI 신뢰 리스크 보안 관리(AI TRiSM)’을 꼽은 바 있다. AI 트리즘은 퍼블릭 AI를 안전하게 사용하고, 모델의 성능을 모니터링 및 개선해 나가는 활동을 의미한다.
예를 들어 한 회사 내에서 누구나 AI에 접근할 수 있다면 무차별적으로 질문을 남발해서 비용이 증가할 수도 있고, 정제되지 않는 질문으로 AI가 오염될 수도 있다. 사내 기밀 자료를 퍼블릭 AI에 업로드할 수도 있다. 이런 일을 막기 위해서는 AI 역시 적합한 권한을 가진 사람이 주어진 업무 범위만큼 AI를 사용할 수 있도록 하는 접근 제어가 필요하다.
애저 AI는 이를 위한 다양한 기능을 제공한다. 서드파티 툴을 구매하거나 오픈소스를 도입하는 번거로운 과정을 거칠 필요가 없다. 그리고 절반 정도는 무료로 제공되며, 과금이 되는 경우 사용량 기반으로 진행된다.
애저 AI를 통해 오픈AI의 GPT 모델을 사용한다고 가정하자. 오가는 질문이나 데이터는 오픈AI에 전달되지 않는다. 인터넷 공간에 공유되지도 않는다. 각 조직만의 LLM을 사용하는 것과 마찬가지 효과를 가진다. 에저 AI는 특히 미세조정(파인 튜닝, Fine Tuning)을 거친 모델은 반드시 해당 기업에만 제공하도록 정책적으로 명시되어 있다.
애저 AI를 통해 GPT 모델을 사용하면 인터넷이 아닌 전용선이나 사설망을 사용할 수 있다. 기업 데이터는 암호화된 통신망으로 전송이 되고 애저 AI에서 제공하는 별도의 URL을 사용할 수 있다. 또 클라우드의 보안과 접근 제어를 통해 권한 있는 사용자만 GPT 모델에 접근할 수 있다. 챗GPT 모델을 가장 안전하게 사용하는 가장 현실적인 방법이다.
애저 AI는 API 매니지먼트 서비스를 통해 사용량을 모니터링할 수 있고, 콘텐츠를 필터링하거나 어뷰징 모니터링을 통해 불미스러운 사고를 예방할 수 있다.
AI도 데이터를 다루는 서비스인 만큼 다양한 관점에서 보안 요건 기준들이 있는데, 애저 AI를 활용하게 되면 이러한 보안 요건을 손쉽게 해결할 수 있다.
[보도자료 문의]
클루커스 마케팅팀 안지연 (jiyon@cloocus.com / 010-3218-7903)
[관련기사 보기]
기업이 GPT 모델을 가장 안전하게 이용하는 법 – 바이라인