본문 바로가기

그 정보투자 이야기

난 기계를 교육(?)시켜 인간을 대체한다는 발상 자체에 사기(Scam)성이 있다고 생각한다... AI산업은 2차전지/전기차보다 더 빠르게 캐즘현상이 벌어질 것을 예상한다....

그냥 내가 구글(Google)이나 네이버(NAVER) 검색으로 하면 될 것을 뭐하러 이런 고비용형 인공지능을 이용해야 하는지 이해도 안될 뿐더러, 이에 근거해 게임용 그래픽처리장치(GPU)나 만들던 엔비디아의 고속/고효율 AI용 반도체가 과연 무엇을 한다는 것인지도 여전히 이해가 안된다... 인간이 할 수 없는 일이 있고 때로는 부정확하고 기계가 이게 가능하고 더 빠르고 정확하다...?? 이 정도 이상도 이하도 아니다... 창조적 기능에 대한 인간의 우월성은 어떤 기계로도 대체가 안되는 것인데, 현재 전세계 정보통신/IT 경영자(CEO)들은 이게 가능하다고 주장할 정도로 사기를 치고 있다는 것이다... 인간의 수십억개 신경세포를 대체한다는 신경망처리장치(NPU)의 꿈도 접어라... 이 세상에 인간의 무한한 상상력을 대체할 수 있는 기계를 개발하는 것은 불가능하다... 모르겠다... 인공지능 주요 투자 사실및 자료, 각종 리포트를 볼때마다 드는 생각은 뭔가 사기적 산업동향 보고서라는 느낌을 지울 수 없다... 맨 밑의 기사는 그럼 기계가 부정확한 문제는 어떻게 해결하면 되는가라는 기사인데, 이걸 왜 우리가 비싼 가격과 수많은 전기를 먹는 하마같은 인공지능을 도입해야하는가라는 근원적인 질문을 하게 한다는 것이다...

 

 

기존 포털에서 다 할 수 있는 상세검색을 인공지능(AI)화하여 전세계를 상대로 지상 최대의 사기(Scam)을 벌이고 있는 샘 울트먼... 이 쇼의 종말은 나스닥등 증시 폭락이다.

https://samsongeko1.tistory.com/13132

 

 

AI에 질문을 던지면 기존 포털이나 검색서비스에 다 있는 질문을 통합해서 찾아주는 것이다... 난 새로운 반도체와 앱을 팔아먹기 위한 수작에 불과하다고 생각한다. 상세검색???

https://samsongeko1.tistory.com/13064

 

인공지능이라는 것이 인간의 뇌가 창작하지 못하고 새로운 것을 알려주는 것이 아니라 기존 인간계가 다 알고 있는 것들을 단순히 통합해서 빠르게 찾아준다는 것일뿐이라는 것이다... 그러므로 기존 각 분야 전문가들(난 이 부분에서 특히 가까운 미래 AI 업체들의 수익성을 의심하고 있는 중... 기존 전문가들에게 제공해야할 저작권료와 특허비용등 각종 비용을 상쇄하고 마진을 남길 수 있을런지 굉장히 회의적... 오픈AI의 챗GPT도 이미 뉴스는 폭스TV부터 계약중인 것으로 알고 있고 주요 작가들과도 협상중인데, 난항중...)이 다 해결할 수 있는 것을 의미하지... 뭘 새롭게 찾아주는 것이 아니라는 말이다... 만약에 암정복을 물어보면 인류가 그간 알아낸 기존 지식을 알려주지 인공지능(AI)이 암을 정복하지는 못한다는 것이다... 만약 인공지능이 사람의 뇌가 생각하지도 못하고 능가하는 능력을 보여준다면 이제 이것은 로봇에 장착되어 상상이 안되는 영역의 문제를 해결할 수도 있겠지... 이쭘되면 영화 "아이로봇"에서 말하는 인간을 통제하겠지... 근데 현재로서는 이 가능성은 전혀 없다고 생각한다... 암튼 작년부터 불고 있는 AI열풍에 의한 엔비디아부터 갤럭시s24까지 주요 주가 상승에 상당한 거품이 끼여 있다고 생각한다... 여기에 모든 기기(스마트폰, 자동차, 가전, PC)에 연결하여 증폭시키고 있는 주요 기업들 주가... 하루종일 2000년초 닷컴버블과 그 거품이 꺼진이후 주가 폭락을 생각하고 있는 중이다... 요즘 일부 SNS에서 AI로 주식투자하여 단돈 몇 십만원으로 수천만원, 기억원을 만들었다는 사기(Scam)가 판을 치고 있는 중이다... 수백년 증시역사에서 인간의 가장 혼란스러운 예상및 예측 영역인 투자의 세계에서 AI가 뭘 발휘할 수 있는 곳이 아니다... 무수히 많은 시스템 트레이더, 알고리즘 투자도 요즘 판판히 안맞아 시장에서 시들해지고 있고, 근데 인공지능(AI)이 마치 미래에 벌어질 어떤 투자 지수와 종목의 변동성과 변곡점을 정확히 저점/고점을 예상하고 투자할 수 있다고... 120% 거짓말이다...

 

(작년글)현재 월가는 AI관련주에 국내는 2차전지/전기차관련주 주요 종목에 상당한 거품이 끼여 있습니다아이... 그러므로 투자에 각별한 주의가 필요하고요... 국내 AI관련주도 그리 썩

https://samsongeko1.tistory.com/12705

 

(작년글)이 자율주행차 테마에 기름을 부은 것은 새벽에 끝난 테슬라의 급등을 유발시킨 월가 오펜하이머의 애널리스트인 릭 섀퍼 투자분석 보고서였고 말입니다..!!!! AI와 자율주행의 접목

https://samsongeko1.tistory.com/12704

 

 

비싼 LLM 대신 싸고 빠른 sLLM 뜬다… 구글·MS 속속 선보여...

AI '경량화언어모델' 관심...

비용 줄이고 성능은 효과적...

스마트폰·노트북에 탑재 가능...

네이버·LG유플러스도 출시...

 

 

인공지능(AI) 시장의 관심이 경량화 대규모언어모델(sLLM)에 쏠리고 있다.

 

많은 데이터가 필요하고 학습과 구동에 들어가는 비용도 높은 대규모언어모델(LLM) 대신 값싸고 빠른 sLLM을 활용해 다양한 산업에 적용하는 게 효과적이기 때문이다.

 

○ “눈물 날 정도”… 값비싼 LLM...

 

15일 정보기술(IT) 업계에 따르면 구글, 마이크로소프트 등 주요 글로벌 빅테크가 신형 sLLM을 잇달아 선보이고 있다. sLLM은 단어 그대로 LLM을 경량화한 AI 모델이다.

 

LLM과 마찬가지로 자연어 처리 작업을 수행할 수 있다.

 

기존 LLM 대비 파라미터(매개변수) 수가 대폭 줄어든 게 가장 큰 특징이다. LLM의 파라미터가 수천억 개에서 조 단위를 넘나드는 반면 sLLM은 작게는 수천만 개에서 수십억 개 사이를 왔다 갔다 한다.

 

성능 면에서는 LLM이 월등하다. 글쓰기부터 이미지·오디오 생성까지 다양한 일을 할 수 있다. 문제는 돈이다. LLM을 비롯한 생성형 AI는 지금까지 등장한 IT 가운데 가장 비싼 기술로 꼽힌다.

 

LLM을 만들기 위해선 방대한 양의 데이터, AI 학습과 추론을 위한 그래픽처리장치(GPU) 등 칩셋, AI 전문 엔지니어 등이 필요하다. 지난해 구글 모회사 알파벳의 존 헤네시 이사회 의장은

 

“생성 AI를 활용한 검색 비용이 일반 검색 비용보다 열 배 더 높다”고 말했다. 샘 올트먼 오픈AI 최고경영자(CEO)도 챗GPT 출시 다음달인 2022년 12월 “챗GPT 구동에 들어가는 비용이 눈물 날 정도로 비싸다”고 언급했다.

 

미국 스탠퍼드대의 AI 인덱스 리포트에 따르면 구글이 투입하는 제미나이 울트라의 학습 비용은 1억9140만달러(약 2645억원), 오픈AI의 GPT-4는 7835만달러(약 1080억원)에 달하는 것으로 추정됐다.

 

구동할 때마다 소요되는 비용도 만만치 않다.

 

그러다 보니 수익화가 쉽지 않다. 미국 IT 전문매체 디인포메이션에 따르면 오픈AI는 2022년 5억4000만달러(약 7454억원)의 적자를 냈는데 지난해에는 적자 폭이 더 커졌을 것으로 추정된다.

 

○ 비용 줄이고 성능 특화한 sLLM...

 

이같은 문제 때문에 주요 AI 기업은 sLLM으로 시장을 공략하고 있다. 매개변수의 수를 줄이면서도 특정 분야에선 범용 모델 못지않은 성능을 발휘하는 방향으로 연구를 진행 중이다.

 

전체적인 모델 크기가 작기 때문에

 

스마트폰, 노트북 같은 기기에 탑재하는 온디바이스 AI로도 활용할 수 있다. 월스트리트저널(WSJ)은 최근 sLLM으로 충분한 작업에 LLM을 쓰는 것을 두고 “탱크를 몰고 식료품을 사러 가는 것과 같다”고 지적하기도 했다.

 

마이크로소프트는 지난 4월 AI 모델 ‘파이-3 미니’를 출시했다. 파라미터(매개변수)가 38억 개 수준인 sLLM이다.

 

마이크로소프트는 이 모델에 대해 “열 배 큰 모델 수준의 응답을 제공할 수 있고 비슷한 기능의 다른 모델보다 비용은 10분의 1 정도”라고 설명했다. 마이크로소프트는 향후 파이-3 스몰, 파이-3 미디엄도 내놓을 예정이다.

 

이 모델들의 파라미터는 각각 70억 개, 140억 개다.

 

구글도 최근 ‘제미나이 1.5 플래시’를 구글 클라우드 버텍스 AI 플랫폼을 통해 공식 출시했다. 반복 작업을 자동화하는 데 최적화된 모델이라는 설명이다.

 

앤스로픽은 자사 LLM 클로드 라인업에서 ‘하이쿠’라는 경량 모델을 함께 제공 중이다.

 

국내 기업들도 sLLM을 잇달아 선보이고 있다. 네이버는 지난 4월 하이퍼클로바X의 경량 모델인 ‘HCX-대시’를 출시했다. 기존 하이퍼클로바(HCX-003) 대비 5분의 1 가격으로 이용할 수 있다.

 

문장 생성과 변환, 분류, 요약 등 단순한 업무부터 보고서 작성, 맞춤형 챗봇 구현 등 다양한 용도로 활용할 수 있다는 설명이다. 이미지, 오디오 데이터를 처리할 수 있는 경량 모델도 공개할 계획이다.

 

LG유플러스도 지난달 자체 개발한 sLLM ‘익시젠(ixi-GEN)’을 출시했다.

 

LG AI 연구원의 LLM ‘엑사원’을 기반으로 LG유플러스의 통신·플랫폼 데이터를 학습시켰다. LG유플러스는 공공·금융·제조 등 다양한 산업 분야에 최적화한 익시젠 모델을 개발해 공급할 계획이다.

 

미국 시장조사 업체 밸류에이츠 리포트에 따르면 sLLM 시장 규모는 2022년 51억8000만달러(약 7조1400억원)에서 2029년 171억8000만달러(약 23조6000억원)로 커질 전망이다.

 

한국경제 이 승우 기자

 

 

[테크트렌드]생성형 AI 환각의 종말? RAG로 엿보는 LLM의 미래...

LLM의 환각의 종결자로 등장한 ‘RAG’

LLM 경쟁자 보다는 보완재 역할 예상...

 

 

대규모언어모델(LLM)을 활용한 챗봇인 챗GPT가 세상에 나온 이후 그 유용성 못지않게 많은 문제점이 지적되고 있다. 환각, 편향, 전문지식 결여, 지식 단절, 감정이나 공감 능력 결여, 창의성과 추상적 사고 제한 등이 그것이다.

 

이 중 가장 일반적으로 거론되는 것이 환각(Hallucination)이다. 환각은 논리적이거나 현실적이지 아닌 응답을 마치 사실인 것처럼 답을 만들어내는 것을 말한다.

 

이러한 환각은 엄밀히 말해 챗GPT가 거짓말을 한다기보다는

 

챗GPT를 작동시키는 기반 모델인 LLM이 내재하고 있는 기술적 한계 때문이다. 예를 들어 훈련 데이터에서 학습한 통계패턴을 기반으로 생성하는 LLM으로 인해 생기는 사실 오류가 그것이다.

 

다행히 이러한 LLM이 가지고 있는 한계를 보완하기 위한 많은 대안들이 제시되고 있다. 이 중 최근 언론을 통해 심심치 않게 등장하는 것이 ‘검색증강생성’으로 번역되는 래그(RAG: Retrieval Augmented Generation)이다.

 

검색과 생성모델을 통합한 하이브리드 모델 ‘래그’

 

래그는 텍스트 생성 과정에 정보 검색을 통합한 자연어 처리(NPL) 기술이다. LLM에 기존 정보 검색 시스템을 결합하여 기존 LLM이 가지고 있는 한계를 극복하고 생성된 텍스트의 정확도와 신뢰도를 개선한다.

 

래그가 작동하는 원리는 간단하다. 대략 3가지 단계, 즉 검색(Retriever), 생성(Generator), 증강(Augmentation Method)으로 진행된다.

 

우선 사용자가 원하는 질문을 프롬프트에 입력하면 사용자 질문과 관련된 정보가 벡터 형태로 저장된 외부 DB나 지식 소스에서 그 맥락을 찾아 탐색한다(검색).

 

그다음 그 맥락과 프롬프트 내용을 합쳐 LLM에 입력되고 그 질문의 맥락에 맞는 답변을 생성한다(생성).

 

마지막으로 요약, 번역, 추론, 질문응답 같은 다양한 증강방법을 통해 사용자에게 더 쉽고 유익한 결과를 생성해낸다(증강). 여기서 주목할 점은 래그가 기존 LLM과 다른 것은 사용자와 프롬프터 사이에

 

래그모듈을 한 단계 더 거친다는 것이다.

 

그렇다면 래그는 어떠한 특징이 있기에 LLM의 대안으로 떠오르는 걸까. 래그의 첫 번째 특징은 검색과 생성을 결합한다는 것이다. 더 정확히 말하면 검색된 정보를 텍스트를 생성하는 과정에 통합시키는 것이다.

 

이러게 함으로써 생성된 텍스트의 정확성을 향상시키고 그 내용이 기존 지식이나 맥락과 일치하도록 만든다.

 

기존 LLM이 사전에 학습된 데이터에 한정되어 서비스를 제공하는데 반해 래그는 이러한 LLM에 더해 추가적으로 외부 데이터를 활용해 정확도를 높이는 것이다.

 

둘째, 지속적으로 업데이트되는 외부 데이터나 지식을 활용한다. LLM을 학습하는 데 사용되는 정적인 데이터뿐만 아니고 새롭게 업데이트되는 정보나 데이터를 이용해 답변의 정확도를 높인다.

 

생성형 AI가 등장하면서 초기에 문제가 되었던 것이 챗GPT가 2021년까지의 데이터만 학습하다 보니 이후에 발생한 내용에 대해 모르거나 잘못된 정보를 준다는 것이었다.

 

예를 들어 현직 대통령을 잘못 맞힌다든지 과거에는 존재하지 않은 제품이나 사건들을 마치 실존하는 것처럼 묘사하는 식이다.

 

이처럼 기존 LLM 모델의 경우 학습 시점에 따라 정보의 접근성이 제한될 수 있으나 래그는 최신 정보를 검색해 정확한 답변을 내놓을 수 있게 설계되어 있다.

 

셋째, 특정 영역(Domain)에 특화된 전문적이고 구체적인 정보와 지식을 제공한다.

 

기존 LLM은 대규모 언어모델에 기반한 범용모델이다 보니 광범위한 질문에 대해 일반적인 답을 줄 수 있지만 특정 분야에 대한 정확도가 떨어질 수밖에 없다.

 

물론 이러한 문제는 사전 학습된 모델의 가중치를 미세하게 조정하여 특정 영역에 맞게 추가 학습하는 파인튜닝을 통해 해결할 수 있다. 다만 파인튜닝도 추가적인 학습을 필요로 하다보니

 

비용과 시간이 많이 소요된다는 문제점이 있다.

 

넷째, 정보의 출처를 제공함으로써 답변의 근거를 확인할 수 있어

 

정보의 투명성이나 정확도 면에서 우수하다. 이 점은 생성하는 정보의 출처를 제시하고 원본을 확인할 수 있는 RAG 기반으로 작동하는 퍼플렉서티(Perplexity)와 같다.

 

마지막으로, 맥락 이해가 가능하다는 것이다. 래그는 외부 지식 활용, 다양한 정보 조합, 상식 추론 등을 통해 맥락 이해 능력을 향상시켜 사용자에게 보다 정확한 정보를 제공한다.

 

다양한 영역에서 활용되는 래그: 챗봇에서 교육까지...

 

이처럼 LLM의 한계를 개선하고 있는 래그는 사용자의 질문에 대해 응답,

 

요약, 콘텐츠 생성 등을 통해 다양하고 광범위한 영역에서 활용되고 있다. 현재 알려지고 있는 주요 활용 분야로는 기업용 챗봇, 고객서비스, 의료, 법률 서비스, 교육 등 다양하다.

 

이 중 최근에 래그를 활발하게 활용하고 있는 영역 중 하나는 교육이다.

 

대표적인 사례가 교육적 요구에 맞는 맞춤형 콘텐츠를 제공하는 멀린(Merlyn)이다. 멀린은 교육 전용 LLM을 기반으로 전문화된 교육 콘텐츠와 정보를 제공하는 교육자용 AI 음성 비서다.

 

특히 지난 6월 출시된 교실용 AI 지원 장치인 멀린 오리진(Merlyn Origin)을 사용하면 교사가 음성 명령으로 교실에 있는 기기들을 제어하고 교육 콘텐츠에 쉽게 접근해 대화형 학습 환경을 만들 수 있다.

 

기존 LLM과 달리 부적절한 사용을 차단하고, 교사와 학생의 개인정보를 보호하고, 환각을 방지하기 위해 만들어진 교실을 위해 특별히 설계되었다.

 

멀린의 생성형 AI는 버튼 하나만 누르면 수업 계획, 채점 기준 및 평가를 만들어준다. 이로 인해 학생들에게 검증된 내용을 통해 더욱 효과적이고 개인화된 학습경험과 맞춤형 교육을 제공할 수 있다.

 

특히 여기에 래그를 통해 적절한 학년 및 커리큘럼에 대한 응답도 가능하다.

 

LLM과 RAG가 함께 만들어가는 미래...

 

그렇다면 이러한 강점을 가진 래그가 현재의 LLM의 미래 모습이라 할 수 있을까. 아니면 LLM을 뛰어넘는 대체재가 될 수 있을까.

 

래그는 단기적으로 볼 때 LLM의 한계를 보완하고 성능을 향상시키기 위한 유용한 도구임에는 틀림없다. 하지만 결점 없는 기술은 없는 법. 래그가 LLM을 대체한다거나 LLM의 미래라고 하에는 한계가 있어 보인다.

 

우선 외부 지식 DB에서 정보를 검색하고 처리하다 보니 기존 LLM에 비해 학습비용이 추가로 발생하게 된다. 검색에 외부 DB를 사용하다 보니 개인정보 보호나 보안 문제도 발생한다.

 

또한 외부 검색 엔진에서 제공되는 정보에 의존하다 보니 그 정보의 질과 양에 따라 오히려 편향되고 부적절한 결과를 낼 수도 있다. 마지막으로 외부 정보 검색 시스템을 LLM에 통합시키다 보니 시스템의 복잡성도 증가한다.

 

이런 측면에서 래그가 LLM을 대체하기보다는 보완하거나 강화하는 기술로 봐야 할 것 같다. 사실 LLM과 래그를 자세히 들어다보면 각각의 역할이나 목적이 동일하지 않다는 것을 알 수 있다.

 

LLM은 사전 학습된 LLM을 통해 프롬프터에 입력된 질문에 대해 적절한 응답을 생성하는 데 목적이 있다. 이로 인해 학습된 데이터에 기반하지 않은 질문에 대해서는 정확성을 담보할 수 없다.

 

반면 래그는 실시간 외부 정보 데이터를 실시간으로 검색하여 참조함으로써 생성된 텍스트의 정확성과 문맥적 관련성을 향상시키는 데 초점을 두고 있다.

 

이처럼 각각의 역할이나 목적이 다르다 보니 대체재라기보다는 보완적인 관계라 할 수 있다. 향후 이 두 기술이 상호 보완하며 만들어가는 새로운 혁신이 어떻게 전개될지 더 기대되는 이유다.

 

한경비지니스 심 용운 SK경영경제연구소 수석연구원