클라우드 전문정보
| 제목 | [2부] 클라우드와 SaaS를 위한 AI 기술과 비즈니스 모델 | ||
|---|---|---|---|
| 등록일 | 2025-10-08 | 조회수 | 383 |

상명대학교 / 서광규 교수
5. AI 향상된 옵저버빌리티와 자가 치유 시스템
5-1. 클라우드 환경에서의 옵저버빌리티의 진화
클라우드 컴퓨팅 환경이 고도화됨에 따라, 서비스의 상태를 가시적으로 관찰하고 분석하는 옵저버빌리티(observability)는 시스템 운영의 핵심 요소로 자리매김하였다. 과거의 옵저버빌리티는 로그, 메트릭, 이벤트 수집 및 시각화를 중심으로 한 정적 모니터링 도구에 의존했으며, 문제 발생 후 탐지하고 대응하는 사후 처리(Post-mortem)가 일반적이었다. 하지만, 마이크로서비스 구조의 복잡성 증가, 멀티 클라우드 및 하이브리드 환경의 확산, 그리고 실시간 서비스 요구가 높아짐에 따라, 기존의 수동적 모니터링만으로는 안정적인 운영을 보장할 수 없게 되었다.
이러한 한계를 극복하고자 최근에는 AI를 활용한 옵저버빌리티의 고도화, 즉 AI-Enhanced 옵저버빌리티(observability)가 본격적으로 도입되고 있다. 이는 단순히 수많은 지표를 수집하는 것을 넘어, 이질적인 데이터 간의 상관관계를 자동으로 식별하고, 이상 징후를 실시간으로 감지하며, 심지어 자동으로 대응 조치를 수행하거나 제안하는 기능을 포함한다. 이러한 시스템은 단순한 알람 체계를 넘어, 문제 발생 이전에 사전 예방이 가능한 차세대 인프라 운영 체계의 기초가 되고 있다.
5-2. AI 옵저버빌리티가 만들어내는 자가 치유 클라우드
AI 기반 옵저버빌리티는 단순한 성능 감시 이상의 기능을 수행한다. 예를 들어, 제조 분야에서 클라우드 기반으로 연결된 설비의 성능을 모니터링할 때, AI는 온도, 진동, 전력 사용량, 네트워크 지연 시간 등 다양한 센서 데이터를 통합 분석하여 이상 징후를 식별할 수 있다. 갑작스러운 온도 상승, 일정한 진동 패턴의 일탈 등은 일반적인 조건에서는 발견하기 어려운 미세한 이상일 수 있지만, AI는 이러한 복합 신호의 비정상적 조합을 빠르게 감지한다.
이러한 이상 징후 탐지가 이루어지면, 시스템은 사전에 설정된 정책에 따라 자가 치유(Self-Healing) 메커니즘을 작동시킬 수 있다. 예를 들어, 냉각 시스템의 이상이 감지되면, AI는 우선 냉각 매개변수를 조정하여 문제를 완화하고, 상황이 개선되지 않으면 유지보수 팀에 실시간으로 알림을 보낸다. 이러한 이중 안전장치는 다운타임 없이 시스템을 보호하며, 지속적인 가용성을 보장한다.
이러한 자가 치유 기능은 클라우드 서비스 운영자에게는 운영 자동화와 안정성 확보, 사용자에게는 중단 없는 서비스 경험을 제공하는 큰 장점이 된다. 특히 금융, 헬스케어, 전자상거래처럼 무중단 운영이 필수적인 산업군에서 AI 기반 자가 치유 시스템은 필수적인 경쟁력으로 간주되고 있다.
5-3. 기술적 구성 요소와 작동 방식
I 향상 옵저버빌리티는 다음과 같은 주요 기술 요소들을 통해 구현된다.
- 스트리밍 데이터 수집 및 통합 플랫폼: 다양한 인프라 요소로부터 로그, 메트릭, 트레이스 정보를 실시간으로 수집하고, 하나의 데이터 레이크나 분석 플랫폼에 통합한다.
- 머신러닝 기반 이상 탐지 모델: 정상 패턴을 학습하고, 이를 벗어나는 이상 데이터를 자동으로 식별한다. 지도학습, 비지도학습, 강화학습 등의 기법이 혼합 사용된다.
- 원인 분석(Root Cause Analysis, RCA) 엔진: 복잡한 이슈의 원인을 실시간으로 추적하고 계층화하여, 최적의 대응 방안을 제시한다.
- 자동화된 대응 스크립트 및 API 연동: 탐지된 이상에 대해 자동화된 조치를 취하거나 외부 시스템과 연동하여 후속 작업을 트리거한다.
이러한 기술 스택을 통해 시스템은 단순 경고 기반이 아닌, 인텔리전트하고 선제적인 운영 환경을 제공하게 된다.
5-4. 도전 과제와 현실적 한계
AI 기반 옵저버빌리티의 도입은 기술적으로 혁신적이지만, 현실적인 여러 도전과제를 수반한다.
첫째, AI의 판단을 신뢰하는 데 따른 학습 곡선이 존재한다. 전통적인 운영자는 시스템의 이상을 사람이 직접 분석하고 판단해 왔기 때문에, AI가 내린 결론이나 대응 조치를 쉽게 수용하지 못하는 경우가 많다. 특히, AI가 제시하는 대응이 ‘왜 그렇게 판단했는지’를 설명하지 못한다면, 신뢰도는 더욱 낮아질 수 있다. 이는 설명 가능한 AI(Explainable AI, XAI) 기술의 필요성과도 연결된다.
둘째, 거짓 양성(False Positive)과 거짓 음성(False Negative)의 위험이 존재한다. 잘못된 이상 징후 탐지로 인해 불필요한 조치를 취하거나, 실제 문제를 놓칠 경우, 오히려 시스템 운영에 혼란을 줄 수 있다. 이 문제는 AI 모델의 학습 데이터 품질, 이상 기준 설정의 정교함, 사용자 피드백 기반의 지속적 개선이 요구되는 부분이다.
셋째, 복잡한 도구 및 알고리즘에 대한 전문가 역량 부족 역시 도전 과제다. 운영자는 AI 알고리즘이 어떤 방식으로 패턴을 인식하고, 어떻게 이상을 판단하며, 해당 대응을 어떻게 도출했는지를 이해할 수 있어야 한다. 그렇지 않으면 시스템에 대한 통제력을 상실하게 된다. 따라서 전문가들은 AI 기반 모니터링 도구의 내부 작동 원리와 설정 방법을 충분히 숙지해야 하며, 필요시에는 AI의 판단을 효과적으로 검증하거나 무시할 수 있는 능력도 갖추어야 한다.
5-5. 전략적 대응과 향후 방향
AI 기반 옵저버빌리티와 자가 치유 시스템의 성공적 도입을 위해서는 기술뿐만 아니라 조직 문화와 운영 전략의 변화도 필요하다. 첫째, 조직은 AI가 제공하는 추천을 맹신하기보다는, 이를 보조 도구로 활용하는 ‘AI-휴먼 협업 기반 운영 체계’를 수립해야 한다. 초기에는 AI의 경고와 추천을 사람이 검토하는 방식으로 시작하고, 점차 신뢰성이 확보되면 자율화를 확대하는 방식이 효과적이다.
둘째, 시스템 거버넌스와 책임 체계를 명확히 해야 한다. AI 기반 운영에서 문제가 발생했을 때, 그 원인을 파악하고 책임 소재를 분명히 할 수 있는 체계가 필요하다. 이는 내부 규정 정비와 함께, 외부 감사 및 규제 대응을 위한 준비도 병행되어야 한다.
셋째, 설명 가능성과 피드백 루프의 강화가 중요하다. 운영자는 AI가 어떤 근거로 이상을 탐지했는지를 확인할 수 있어야 하며, 잘못된 판단에 대해서는 피드백을 통해 AI 모델을 개선할 수 있어야 한다. 이를 통해 AI 시스템은 지속적으로 정교화되고, 조직의 신뢰 또한 확보할 수 있다.
6. 노코드와 서비스로서의 AI를 통한 AI의 민주화
6-1. AI 접근성의 혁신적 전환
최근 인공지능(AI)의 가장 주목할 만한 변화 중 하나는 바로 접근성의 민주화이다. 과거에는 AI 기술을 실제 비즈니스에 적용하기 위해서는 고급 수학 지식, 모델링 기술, 대규모 연산 자원, 그리고 전담 데이터 사이언스 팀이 필요했지만, 이제는 기술 발전과 서비스 혁신을 통해 비전문가도 AI를 활용할 수 있는 시대가 도래했다. 그 중심에는 노코드 AI 플랫폼과 서비스로서의 AI(AI as a Service, AIaaS)가 자리 잡고 있다.
노코드 AI 플랫폼은 사용자에게 프로그래밍 없이도 모델을 설계하고, 데이터 분석을 수행하며, 예측 기능을 시스템에 통합할 수 있는 도구를 제공한다. 이러한 플랫폼은 직관적인 사용자 인터페이스(UI), 드래그 앤 드롭 기반의 시각적 워크플로우, 사전 훈련된 모델 템플릿 등을 제공하여, AI의 진입 장벽을 획기적으로 낮춘다. 동시에, 클라우드 기반으로 제공되는 AIaaS는 머신러닝 알고리즘, 데이터 저장소, 분석 API 등을 구독 형태로 제공함으로써 기업들이 인프라 부담 없이 고급 AI 기능을 활용할 수 있도록 지원한다.
이러한 기술 발전은 단순한 기술적 편의성 이상의 의미를 갖는다. 실제로 중소기업, 스타트업, 전통 제조업체 등 IT 전문 인력이 부족한 조직들도 AI를 통해 데이터 기반 의사결정과 프로세스 자동화를 구현할 수 있게 되었고, 이는 SaaS 시장의 판도를 바꾸는 촉진제가 되고 있다.
6-2. 사례: AI를 활용한 스마트 유틸리티 운영
노코드 AI와 AIaaS가 실제로 어떻게 비즈니스 환경을 바꾸는지는 유틸리티 산업의 사례를 통해 명확하게 드러난다. 예를 들어, 한 지역 전력 회사는 과거에는 수요 예측을 수작업으로 처리하거나 단순 통계에 의존했다. 하지만 이제는 노코드 기반 AI 플랫폼을 활용하여, 전력 소비 데이터를 실시간으로 수집, 분석하고, 그 결과를 바탕으로 자동화된 수요 예측 모델을 구축할 수 있다.
이러한 시스템은 드래그 앤 드롭 방식으로 구성되며, 특정 지역의 날씨 변화, 시간대별 사용 패턴, 산업별 수요 트렌드를 자동 학습한다. 결과적으로, AI는 피크 시간대를 예측하고, 특정 시간에 어떤 지역에 전력을 우선 배분해야 할지에 대한 운영 결정을 자동화할 수 있다. 기존의 단순 모니터링 도구가 “무슨 일이 일어났는가”를 설명하는 데 그쳤다면, AI 기반 시스템은 “무엇이 일어날 것인가”를 예측하고 “어떻게 대응해야 하는가”까지 제공한다.
이와 같은 사례는 SaaS 플랫폼이 단순한 소프트웨어 제공자에서 벗어나, 비즈니스 전략과 운영 전반을 지원하는 인텔리전스 파트너로 진화하고 있음을 보여준다. 더 나아가, AI 기능이 SaaS 플랫폼에 통합될 경우, AI는 그 자체로 제품의 일부가 되어 사용자의 창의성과 문제 해결 능력을 증폭시키는 코파일럿 역할을 하게 된다.
6-3. 도전 과제: 민주화의 명암
AI 민주화의 확산은 환영할 만한 발전이지만, 현실적으로는 다양한 위험 요소와 오용 가능성을 내포하고 있다. 그 중 가장 큰 문제는 바로 AI에 대한 이해 부족이다. AI는 본질적으로 확률 기반 시스템이며, 모델의 품질은 데이터의 편향, 학습 과정, 피처 선택 등에 따라 달라진다. 하지만 사용자들이 이를 충분히 이해하지 못한 채 결과만 신뢰하게 되면, 잘못된 의사결정으로 이어질 수 있다.
예를 들어, 노코드 플랫폼을 통해 거래 데이터를 분류하거나 고객 이탈을 예측하는 모델을 만든다고 했을 때, 잘못된 데이터 입력이나 비현실적인 가설 설정으로 인해 편향된 결과가 도출될 수 있다. 이 결과가 아무런 검토 없이 시스템에 반영되면, 오히려 조직의 손실을 키울 수도 있다. 따라서 이러한 자동화된 의사결정 시스템에는 반드시 승인 워크플로우, 예외 처리 로직, 결과 검토 체계가 병행되어야 한다.
또한, AI 결과의 감사를 위한 시스템적 지원이 필요하다. 사용자 또는 감사자는 AI가 어떤 근거로 의사결정을 내렸는지 추적할 수 있어야 하며, 이를 통해 책임성과 투명성을 확보해야 한다. 특히 금융, 의료, 공공 분야와 같이 높은 규제가 요구되는 환경에서는 설명 가능성과 검증 가능성이 반드시 뒷받침되어야 한다.
6-4. 전략적 대응: 책임 있는 AI 활용을 위한 방향
AI의 민주화를 긍정적인 방향으로 발전시키기 위해, 조직과 전문가들이 취해야 할 전략은 다음과 같다.
1) 교육 및 리터러시 향상
기술 도구만 제공하는 것이 아니라, 사용자에게 AI의 개념, 한계, 데이터 해석 방법에 대한 기본 교육을 제공해야 한다. 이를 통해 AI 결과에 대한 맹목적인 수용이 아니라, 비판적 수용이 가능해진다.
2) 자동화 의사결정에 대한 승인 체계 구축
중요한 의사결정이 자동으로 이뤄지기 전에, 관리자 또는 담당자가 이를 승인하도록 하는 휴먼 인더 루프(Human-in-the-Loop) 구조를 설계해야 한다. 이는 특히 전략적 판단이나 윤리적 판단이 필요한 영역에서 유용하다.
3) AI 결과에 대한 정기적 감사와 피드백 루프 운영
AI 모델은 고정된 존재가 아니라 계속해서 변화하는 환경에서 성능이 달라질 수 있기 때문에, 정기적인 성능 평가 및 개선 루프가 필요하다. 사용자가 직접 피드백을 제공하고, 이를 학습 데이터로 반영하는 구조가 이상적이다.
4) 노코드 플랫폼 및 AIaaS의 기술적 한계 인식
모든 문제가 노코드로 해결 가능한 것은 아니다. 특정 문제는 여전히 전문가의 분석과 정교한 커스터마이징이 필요하다. 따라서 노코드의 활용 범위를 명확히 규정하고, 복잡한 문제는 전문가의 손에 맡기는 하이브리드 운영 전략이 중요하다.
AI의 민주화는 기술 민주주의(democratization of technology)라는 거대한 흐름 속에서 반드시 필요한 단계이다. 하지만, 이는 단지 기술을 모두에게 개방하는 데서 끝나지 않고, 책임 있게 사용할 수 있는 문화와 제도, 기술 리터러시가 병행되어야만 진정한 가치를 실현할 수 있다.
노코드와 AIaaS는 SaaS 기업과 사용자 모두에게 기회를 제공하지만, 동시에 데이터 해석, 윤리, 책임의식이라는 새로운 과제를 요구하고 있다. 미래의 AI는 모든 사람의 손에 쥐어지겠지만, 그것을 어떻게 사용할 것인지는 여전히 인간의 몫이다. 그리고 그 해답은 기술 자체가 아닌, 기술을 다루는 사람과 조직의 역량에 달려 있다.
7. 인간-AI 파트너십: 모든 것을 위한 코파일럿
7-1. SaaS와 클라우드 환경 속에서의 AI 코파일럿의 부상
최근 클라우드 및 SaaS(Software as a Service) 환경에서 가장 눈에 띄는 변화 중 하나는 바로 AI 코파일럿(Copilot)의 등장이며, 이는 단순한 기능적 보조를 넘어 사람과 AI 간의 협업 구조를 실현하는 핵심 동력으로 자리 잡고 있다. 과거의 SaaS 플랫폼이 주로 사용자의 명시적 입력을 기다리는 수동적 도구(passive tool)였다면, 오늘날의 플랫폼은 AI를 통해 사용자와 능동적으로 상호작용하며 문제 해결을 도모하는 생산성의 파트너(productivity partner)로 진화하고 있다.
이러한 변화는 AI가 더 이상 "사용자의 명령을 처리하는 기계"가 아니라, "사용자의 의도를 예측하고 대응하는 조력자"로서의 역할을 수행함을 의미한다. 예를 들어, 기술자가 장비를 수리할 때, AI 코파일럿은 단계별 수리 가이드를 제공하고, 적합한 도구를 추천하며, 유지보수 일정을 자동으로 상기시켜줌으로써 현장의 복잡한 업무 부담을 크게 경감시킨다. 이러한 사례는 SaaS 플랫폼이 지능형 어시스턴트 플랫폼으로 진화하고 있음을 보여주는 대표적인 예다.
코파일럿의 등장은 비단 기술자나 전문직 종사자에만 국한되지 않는다. 마케팅, 영업, 재무, 인사 등 다양한 분야에서 AI 코파일럿은 이메일 작성, 보고서 요약, 재무 모델링, 고객 대응 자동화 등 수많은 반복적이고 규칙 기반의 업무를 자동화하며, 창의적 사고와 전략적 판단을 위한 시간과 자원을 확보해준다. 이로써 AI는 단순한 자동화의 도구를 넘어, 인간의 능력을 증폭시키는 존재로 작용하게 된다.
7-2. 코파일럿을 통한 인간-기계 협업의 가치
AI 코파일럿은 단순한 기술 보조 기능을 넘어, 실제 업무 수행에 있어서 인간과 AI가 동등한 파트너로서 역할을 수행하는 구조를 가능케 한다. 이러한 인간-AI 파트너십은 다음과 같은 가치를 창출한다.
1) 시간 절약과 반복 업무 자동화
AI는 사용자로부터 받은 지시뿐 아니라 이전의 맥락과 데이터를 학습하여 의도 기반의 자동화 작업을 수행할 수 있다. 예를 들어, 회의록 자동 정리, 코드 리뷰, 설계 문서 작성 등 시간이 많이 소요되던 작업을 AI가 선제적으로 처리함으로써, 인간은 보다 고차원적이고 전략적인 사고에 집중할 수 있다.
2) 의사결정 보조 및 대안 제시
AI 코파일럿은 다양한 시나리오를 분석하여 의사결정자에게 여러 대안을 제시하거나, 특정 옵션의 장단점을 비교할 수 있도록 한다. 이는 기존의 단편적인 정보 제공 방식을 넘어, 의사결정 과정 전반을 지능화하는 역할을 한다.
3) 창의성 증진과 아이디어 발산
생성형 AI가 도입되면서, 코파일럿은 콘텐츠 생성, 디자인 제안, 마케팅 카피 작성 등 창의적 작업의 촉진자 역할을 수행한다. 예술, 광고, 교육 등 창의성이 요구되는 분야에서도 코파일럿은 새로운 가능성을 열어가고 있다.
4) 지식 접근성과 사내 노하우 전파
많은 조직은 암묵지(implicit knowledge)를 효과적으로 전파하지 못하는 문제가 있다. AI 코파일럿은 사내 문서, 커뮤니케이션 기록, 프로젝트 데이터 등을 학습하여 업무 중 실시간 지식 전달과 FAQ 대응까지 수행함으로써, 조직 내 정보 접근성을 획기적으로 향상시킨다.
이처럼 코파일럿은 단순한 자동화 도구가 아닌, 인간의 직무 수행을 확장하고 보완하는 지능형 협력자로서 기능하며, SaaS의 본질적 가치를 재정의하고 있다.
7-3. 도전 과제: 인간의 능력을 보완할 것인가, 대체할 것인가?
그러나 AI 코파일럿이 업무 전반에 자리 잡아감에 따라, 이에 따른 부작용과 도전 과제 역시 무시할 수 없다. 가장 큰 우려 중 하나는 AI에 대한 과도한 의존이다. 반복적 작업뿐 아니라 사고력과 판단이 요구되는 작업까지 AI에게 맡기게 되면, 사용자의 창의성과 문제 해결 능력이 점점 약화될 수 있다. 이는 장기적으로 인간의 전문성과 직무 역량 자체를 약화시키는 결과로 이어질 수 있다.
또한, AI가 제공하는 정보의 편향성(Bias)이나, 프라이버시 침해의 위험도 크다. 특히 AI가 내부 문서나 민감한 고객 데이터를 학습하여 생성하는 콘텐츠가 외부에 노출될 경우, 데이터 유출이나 법적 책임 문제가 발생할 수 있다. 이에 따라 코파일럿 시스템에는 강력한 보안 정책, 데이터 접근 제어, 기록 추적 기능이 필수적으로 요구된다.
더불어, AI의 제안을 무비판적으로 수용하는 경향도 문제다. 사용자는 AI의 결과를 "정답"처럼 받아들이는 경향이 있으며, 이는 잘못된 정보나 판단을 그대로 실행에 옮기는 실수를 초래할 수 있다. 특히, 설명되지 않은 AI 판단에 대해 사용자가 이해 없이 신뢰하게 되면, 책임의 소재가 모호해지고, 조직의 신뢰성을 저해할 수 있다.
7-4. 전략적 대응: 협업 마인드셋의 구축과 인간 중심 설계
AI 코파일럿의 장점을 최대한 활용하기 위해서는 단순한 도입을 넘어서, 인간 중심 설계와 협업 마인드셋의 확립이 필요하다. 이를 위해 조직과 개인은 다음과 같은 전략을 취해야 한다.
1) AI를 보조 도구로 인식하고 활용하는 문화 조성
AI는 도구이며, 판단의 최종 책임은 인간에게 있다는 인식을 기반으로, AI 제안에 대해 비판적 사고를 적용하는 습관을 조직 내에 정착시켜야 한다.
2) 사용자 교육과 디지털 리터러시 강화
사용자가 AI가 왜 그러한 제안을 했는지, 어떤 데이터에 기반했는지 이해할 수 있도록 AI 시스템의 기본 원리, 한계, 편향 위험성 등에 대한 교육을 제공해야 한다.
3) 설명 가능한 AI(Explainable AI) 기능의 도입
코파일럿이 제공하는 정보나 추천이 어떤 근거에서 도출되었는지 사용자에게 설명할 수 있어야 하며, 이로 인해 AI와의 신뢰 기반 협업이 가능해진다.
4) 권한 분리와 승인 체계 구축
특정 업무에 있어 AI의 자동 실행을 제한하고, 인간의 최종 승인 절차를 삽입함으로써, 의사결정 책임성과 통제를 유지해야 한다.
5) AI 윤리와 투명성 가이드라인 마련
조직 차원에서는 AI 코파일럿의 사용 범위, 데이터 처리 정책, 결과의 책임 소재 등에 대해 명확한 윤리 원칙과 내부 지침을 마련해야 한다.
AI 코파일럿은 SaaS의 미래를 열어가는 핵심 기술이다. 하지만 이는 단순히 "일을 대신해주는 AI"가 아니라, "함께 일하는 파트너로서의 AI"가 되어야 한다. 인간의 직관, 맥락 이해, 윤리적 판단은 여전히 AI가 따라오지 못하는 영역이며, 이 때문에 인간과 AI의 협업은 경쟁이 아닌 보완 관계로 접근해야 한다.
SaaS는 이제 코파일럿을 통해 더 똑똑해지고, 사용자들은 코파일럿을 통해 더 강력한 결정을 내릴 수 있게 된다. 중요한 것은, 이 관계를 어떻게 디자인하느냐이다. 미래는 기계가 인간을 대체하는 것이 아니라, 인간이 AI와 함께 더 나은 결정을 내리는 사회를 만드는 데 달려 있다.
참 고 문 헌
- C. Ebert, & P. Louridas, "Generative AI for Software Practitioners." IEEE Software, 40(4), 30–38, 2023.
- N. L. Rane, S. K. Mallick, & O. Kaya, Applied Machine Learning and Deep Learning: Architectures and Techniques. Deep Science Publishing, 2024.
- O. D. Segun-Falade, et al. "Assessing the Transformative Impact of Cloud Computing on Software Deployment and Management." Computer Science and IT Research Journal, 5(8), 2062–2082, 2024.
- S. Poonguzhali & A. Revathi, AI-driven Cloud Computing to Revolutionize Industries.” In Emerging Trends in Cloud Computing Analytics, IGI Global, pp. 395–410, 2024.
- T. Chavan, Optimizing Customer Value: The Role of AI in the Usage-Based Pricing Model.” Forbes Business Development Council., 2023.
- N. L. Rane, S. K. Mallick, O. Kaya, and J. Rane, "Machine learning and deep learning architectures and trends: A review," in Applied Machine Learning and Deep Learning: Architectures and Techniques, J. Rane, N. L. Rane, and S. K. Mallick, Eds., Nottingham, U.K.: Deep Science Publishing, 2024, pp. 1–38.
- C. Ebert and P. Louridas, "Generative AI for software practitioners," IEEE Softw., vol. 40, no. 4, pp. 30–38, Jul./Aug. 2023.
- C. Ebert and U. Hemel, "Grow your artificial intelligence competence," Computer, vol. 57, no. 10, pp. 144–150, Oct. 2024.
- S. Poonguzhali and A. Revathi, "AI-driven cloud computing to revolutionize industries and overcome challenges," in Emerging Trends in Cloud Computing Analytics, Scalability, and Service Models, D. Darwish, Ed., Hershey, PA, USA: IGI Global, 2024, pp. 395–410.
- T. Chavan, "Optimizing customer value: The role of AI in the usage-based pricing model," Forbes, Dec. 21, 2023.
- O. D. Segun-Falade, O. S. Osundare, W. E. Kedi, P. A. Okeleke, T. I. Ijomah, and O. Y. Abdul-Azeez, "Assessing the transformative impact of cloud computing on software deployment and management," Comput. Sci. IT Res. J., vol. 5, no. 8, pp. 2062–2082, 2024.
- "How no-code AI development platforms could introduce model bias." VentureBeat. Accessed: Jan. 7, 2025.
저작권 정책
SaaS 전환지원센터의 저작물인 『클라우드와 SaaS를 위한 AI 기술과 비즈니스 모델』은 SaaS 전환지원센터에서 상명대학교 서광규 교수에게 집필 자문을 받아 발행한 전문정보 브리프로, SaaS 전환지원센터의 저작권정책에 따라 이용할 수 있습니다. 다만 사진, 이미지, 인용자료 등 제3자에게 저작권이 있는 경우 원저작권자가 정한 바에 따릅니다.

