본문 바로가기

Self-millionaire

[필독]이건 최근 월가 조정및 엔비디아 폭락 원인이라고 게매트릭스(Gematrix) 대표이사가 어제 보낸 글입니다... 특히나 중국발 "딥시크" 추론 모델의 심각성을 언급하면서요

 

또 그 인공지능(AI)에서 토큰(Token)에 대한 이해도 저인 대표이사님부터 많이 잘못되어 있다고 말입니다... 정보의 단위라기보다는 전산 용어로서 이해해야한다고 하네요...

 

그룹 전산/정보를 책임지고 있는 계열사

대표이사한테 어제 많이 배웠네요^^

 

그리고 한국어로 대규모언어모델(LLM)을 개발해도 정부의 전폭적인 지원없이는 기업이든, 대학이든, 연구소든, 개인이든 고비용을 부담해야 할 것으로 보인다고 말입니다...

 

그러므로 "대표이사님, 저도 이번주 이 재명 더불어민주당 대표의 인공지능(AI) 국가기간산업화에 특히 "대규모언어모델"(LLM)의 한글어 개발에 절대적으로 필요해 찬성합니다."라고 하네요...

 

국내 개발자들을 위해서도 말입니다...

 

전 두번째 기사를 보고는 아예 우리는 미국이나 중국에 게임이 안될 것으로 보고 있습니다... 이래서 네이버(NAver)나 카카오(Kakao) 포기하고 있다는 생각입니다...

 

세종대왕이 창제한 위대한 한글이

인공지능(AI)에는 최악이네요...

 

 

마이크로소프트 스콧 한셀만 개발자 커뮤니티 부사장

 

 

오픈AI의 토큰 효율화 전략을 설명하는 화면

 

 

마이크로소프트 AI 투어 인 서울 부스

 

어떤 사기꾼(?) 세끼 하나는 전라남도 '솔라시도'에 세계 최고의 데이터센터 용량의 3배인 시설을 건설한다질 않나.. 한 대만인 세끼는 AI 계속 뻠뿌질을 해대질 않나...

https://samsongeko1.tistory.com/13875

 

GI 자산운용본부내 자산운용과 해외파트 해외주식 3팀(북미등 월가 담당)과 야근(23:30~02:30)중입니다...

 

엔비디아를 중심으로 슈퍼 마이크로, 팔란티어 테크까지 인공지능(AI) 3인방 하락에 급락 폭락중이고요... 오후장 엔비디아도 폭급락에 동참할듯요... 월가 주요 "빅테크" 투자에 신중에 신중을 기하시라 했습니다...

 

춘삼월 대폭락 가능성 있습니다...

 

난 가성비 좋은 중국의 허름한 창고에 개발된 소형언어모델(SLM)에 기반한 딥스크가 더 마음에 듬니다... 서구의 고비용/고사양은 결국 캐즘을 동반한 고철덩어리 됩니다...

 

 

일론 머스크와 샘 울트먼이 계속 AI를 뻠뿌질중인데, 주요 글로벌 투자가들은 인공지능(AI)이 실질적으로 돈을 벌어들이고 있는지, "빅테크"의 지출들이 가성비 있는지만 관심...

https://samsongeko1.tistory.com/13868

 

암튼 양키 코쟁이들의 주요 "빅테크" 주가들이 멈추었다... 더이상의 자본 지출이 의미가 있는 것인지, 혹시나 과잉 투자가 아닌지 그들조차 회의감에 빠져 있다고 보시면 된다...

 

내 이야기했다...

트럼트 취임전후로 빠져나오시라고...

 

제 말을 듣는 일부 서학개미들이 국내 증시 활황장에 기여하고 있고요...

 

미국은 엔비디아부터 추가 급등 구간 연출은 올해는 없을 것 같다... 젠슨 황 CEO가 개인용 슈퍼컴퓨터급 AI PC... 이건 철저히 실패한 메타의 "메타버스" 사업과 같은 것이다...

 

현재 수많은 글로벌인들이 유료 AI 서비스들을 사용하면서 인공지능의 우월성을 타진중이다... 이게 결론이 날때까지는 주요 "빅테크"에 대한 투자는 위험하다는 것이 내 생각이다...

 

난 주변에 사용하고 있는 지인들을 통해 알아보고 있는 중이고... 그룹 전산/정보를 책임지고 있는 게매트릭스(Gematrix) 대표이사는 각 사의 장단점을 매일 보고중이고...

 

중소형 퍼블렉시티, 엔트로픽, 딥시크부터 중대형 챗GPT, 제미나이, 그록3...까지 말이다... 여기에 일부 유럽형 인공지능(AI) 서비스까지 경쟁도 격화중이다...

 

 

한국경제신문이 제시한 사진처럼, 우린 이제 끼깔난 배이상으로 끼깔난 로봇(Robot)을 만드는 제조용 AI 하드웨어 산업에 집중한다... AI SW도 난 별 기대를 안한다...

https://samsongeko1.tistory.com/13816

 

그 개발에 필요한 토큰수에 차이에 따라 이런 고비용 사양의 미국 AI, 유로 AI도 결국 개발형 저가형 중국 AI를 못 이길 것으로 예상... 지난주 "딥시크"는 이걸 보여줬다.

https://samsongeko1.tistory.com/13814

 

머리 좋은 젊은이들이 이공계가 아니고 돈되는 의대에 진학하면서 한국은 이미 망했다. SBS 대하드라마 "녹두꽃", "너같이 똑똑한 놈들이 일본편에 서면 나라는 이미 망한겨..."

https://samsongeko1.tistory.com/13813

 

 

[지난글 재게제]개발비 670조원 vs 80억원... 中 딥시크가 바꾼 글로벌 AI 지형도...

 

 

딥시크가 촉발한 새로운 AI 경쟁 시대...

 

딜로이트 인사이트의 2025년 2월 플래시 리포트에 따르면,

 

중국의 AI 스타트업 딥시크(DeepSeek)가 약 560만 달러(오픈AI 투자비용의 약 5.6%)라는 파격적인 저비용으로 GPT-4와 유사한 성능의 대규모언어모델(LLM)을 개발하는데 성공했다.

 

항저우에 본사를 둔 딥시크는 중국인 연구자와 엔지니어 150명(데이터 연구팀 31명 포함)으로 구성되어 있으며, 'DeepSeek-R1-Zero & R1'과 'DeepSeek-V3' 오픈소스 언어모델을 개발했다.

 

특히 주목할 만한 점은 딥시크의 창업자 량원펑(梁文锋)의 배경이다. 1985년 광둥성 잔장 출신인 그는 17세의 어린 나이에 중국 공학 명문인 저장대에 입학해 정보전자공학 학사와 석사 학위를 취득했다.

 

2016년에는 하이플라이어(환팡) 헤지펀드를 설립해 2019년 운용자산 19조원을 달성하는 등 탁월한 경영 능력을 입증했다.

 

전통적 AI 개발 비용의 1%로 달성한 기술 혁신...

 

딥시크는 기존 AI 모델들이

 

10만개의 GPU를 사용한 것과 달리 약 2,000여개의 엔비디아 H800칩(GPU)만으로도 뛰어난 성능을 구현했다. 이는 미국의 대중국 제재로 인해 최신 GPU를 사용할 수 없는 상황에서 이뤄낸 혁신적인 성과다.

 

딥시크의 R1 모델은 AIME 2024(79.8%), MATH-500(92.3%), MMLU(89.8%) 등 대부분의 AI 모델 평가 플랫폼에서 오픈AI 모델과 유사하거나 더 나은 성능을 보여주고 있다.

 

특히 '혼합 전문가' 방식과 FP8(8비트 부동소수점) 기술을 도입하고, 강화학습(Reinforcement Learning)에 집중해 학습과 추론 비용을 획기적으로 절감했다.

 

이를 통해 토큰당 비용을 0.10-1.10달러로 책정해 기존 모델 대비 30-50배 저렴한 이용료를 실현했다.

 

670조원 규모 스타게이트 프로젝트의 도전자로 부상...

 

트럼프 정부의 스타게이트 프로젝트는 2025년부터 4년간 총 5,000억 달러(약 670조 원)를 투입해 데이터센터와 AI 반도체 인프라를 구축하려 하고 있다.

 

특히 텍사스 애빌린의 AI 데이터 센터 건설에만 1,000억 달러를 투자할 예정이다. 오픈AI, 소프트뱅크, 오라클, 아부다비 국영펀드 MGX가 참여하며 마이크로소프트(MS)가 기술 지원을 담당한다.

 

이 프로젝트의 핵심 목표는 AI 기반 사이버 방어 시스템 및 군용 드론 기술 강화, 범용 인공지능(AGI) 개발이다. 그러나 딥시크의 등장으로 고비용 인프라 투자 대신 알고리즘 효율화 방향으로의 전략 전환 압력이 증가하고 있다.

 

미중 AI 패권 경쟁과 기술 블록화의 가속...

 

오픈AI와 마이크로소프트는 딥시크의 데이터 도용 의혹을 조사하고 있으며, 미 해군과 텍사스 주는 딥시크 사용 금지 명령을 내렸다. 이에 대응해 중국은 3,340억 위안 규모의 반도체 산업 '빅 펀드' 3기를 추진하고 있다.

 

현재 미국은 생성형 AI(GPT-4), 양자 컴퓨팅, 바이오 분야에서 우위를 점하고 있는 반면,

 

중국은 5G와 초고속 컴퓨팅 분야에서 강세를 보이고 있다. 이러한 상황에서 유럽의 GDPR 강화로 인한 기술 블록화가 심화되고 있으며, 유럽, 일본, 한국 등과의 기술 협력이 새로운 변수로 떠오르고 있다.

 

저비용 AI 시대의 새로운 기회와 도전...

 

딥시크의 혁신은 AI 개발 비용 구조를 근본적으로 변화시키고 있다. 기존의 대규모 범용 모델에서 벗어나 특정 산업이나 목적에 맞춘 도메인 특화 모델 개발이 증가할 전망이다.

 

AMD, Intel, ASIC 등 중저가 칩 공급업체들에게 새로운 기회가 열리고 있으며, HBM과 클라우드 분야에서의 협력 가능성도 커지고 있다.

 

특히 AI 특화 칩 개발 투자가 확대되면서 NPU(신경망 처리 장치) 및 PIM(Processing-in-Memory) 등 AI 최적화 반도체 개발이 가속화될 것으로 예상된다.

 

또한 에이전틱 AI로의 전환이 가속화되고 물리적 AI의 상용화가 예상보다 빨리 실현될 가능성이 높아지고 있다.

 

AI 거버넌스와 윤리적 과제 대응...

 

딥시크의 등장으로 AI 기술의 윤리적 문제와 데이터 보안이 더욱 중요해지고 있다.

 

특히 기업들은 AI 활용 과정에서 발생할 수 있는 편향과 차별 문제, 데이터 보호와 개인정보 프라이버시 보장을 위한 명확한 정책적, 물리적 대응 방안을 마련해야 한다.

 

또한 글로벌 및 지역별 AI 규제를 준수하고 관련 법률 변화에 유연하게 대응할 수 있는 체계 구축이 필요한 상황이다.

 

지디넷코리아 AI 에디터

 

 

마이크로소프트-오픈AI "GPT-4, 한국어 토큰 효율화 달성"

영어보다 2.36배 많이 들던 한국어 토큰수→이젠 1.1배로 '뚝'

 

 

"국내 고객은 한국어로도 부담 없이 코파일럿 내 GPT-4로 개발할 수 있다. 마이크로소프트팀은 오픈AI와 손잡고 토큰 수 효율화를 이뤘다. 한국어 특성상 영어보다 평균 2배 더 많은 토큰 수가 필요했지만, 이젠 1.1배로 줄었다."

 

마이크로소프트 스콧 한셀만 개발자 커뮤니티 부사장은 30일 양재 aT센터에서 열린 '마이크로소프트 AI 투어 인 서울'에서 코파일럿 제품 내 탑재된 오픈AI의 GPT-4 토크나이저 효율화를 강조했다.

 

보통 토큰수는 생성형 AI로 개발에 필수 요소다. 토큰 수에 따라 지불해야 하는 비용도 상이하다. 토큰 수가 많으면 사용자는 높은 비용을 지불해야 한다. 모델마다 한번에 입력할 수 있는 토큰 수도 정해졌다.

 

스콧 한셀만 부사장은 "보통 같은 질문을 모델에 입력할 때, 한국어는 영어보다 약 2배 더 많은 토큰 수가 필요하다"고 설명했다. 그는 이에 대한 근거도 제시했다.

 

마이크로소프트 아시아팀 분석 결과에 따르면, 한국어는 GPT-4에서 영어보다 평균 2.36배 많은 토큰 수가 들었다.

 

한셀만 부사장은 "토큰 효율화를 위해 마이크로소프트팀과 오픈AI가 손잡고 연구했다"며 "똑같은 질문에 언어마다 토큰 수 차이가 없도록 하기 위함"이라고 설명했다.

 

오픈AI 멀티모달 모델 GPT-4에 토큰 수 개선이 이뤄졌다고 했다. 그는 모델이 토큰 수 나누는 방식을 설명했다. 현재 GPT-4의 토크나이저는 BPE 기반으로 작동한다. 바이트 기반으로 토큰을 나눈다.

 

이는 한국어를 텍스트 처리할 때 자음과 모음의 결합으로 본다거나 형태소 단위로 수치화하지 않는다.

 

대신 특정 음절의 빈도수나 문장 복잡성에 기반해 토큰 수를 측정한다. 기존보다 토큰 수를 줄이는 방식이다. 시맨틱 커널 방식을 비롯한, 스플리팅 전략도 활용한다.

 

한셀만 부사장은 "오픈AI 모델은 시맨틱 커널 등으로 토큰 수를 측정하고 있다"며 "이에 따라 한국어는 영어보다 약 1.1배 더 많이 드는 수준"이라고 했다. 기존보다 토큰 효율화를 50% 이상 올린 셈이다.

 

해당 기능은 지난달 처음 공개한 바 있다. 그는 "현재 애저 오픈AI 서비스 등 다양한 제품에서 한국어 토큰 수 효율화를 경험할 수 있을 것"이라며 "한국어 처리 AI 미래에 큰 도움 될 것"이라고 했다.

 

"한국어 AI 모델에 집착할 필요 없다"

 

업계에서는 애저 오픈AI 서비스 등 마이크로소프트 솔루션 내에서 한국어 토큰 효율화를 경험할 수 있을 것으로 내다봤다.

 

그동안 국내 AI 기업들은 GPT-4 토큰 비용을 언급한 바 있다. 국내 사용자가 한국어 기반 작업에 GPT-4를 이용하면 비싼 비용을 지불해야 한다고 지적했다.

 

이번 마이크로소프트와 오픈AI의 토큰 효율화 후 이같은 주장은 잠잠해질 것이라는 의견이 나오고 있다. 이날 부스를 지키던 마이크로소프트 관계자도 GPT-4의 한국어 토큰 효율성에 대해 재차 강조했다.

 

그는 "국내 사용자가 네이버 '하이퍼클로바X' 등 한국어 기반 모델을 굳이 활용하지 않아도 되는 시대"라며 "비슷한 비용으로 GPT-4를 통한 개발 작업을 한국어로 할 수 있을 것"이라고 강조했다.

 

지디넷코리아 김 미정 기자

 

 

AI 혁신 기업 해외진출 가속...

美 빅테크 5개사, 中 AI모델 도입... 기존 대비 97% 비용절감 실현...

 

 

중국 AI 기술이 급부상하며 글로벌 시장의 경쟁 구도가 재편되는 추세다.

 

마이크로소프트(MS)·엔비디아·아마존 등 미국 빅테크들이 안보·보안 우려에도 불구하고 중국 AI 스타트업 딥시크의 최신 추론 모델 'R1'을 앞다퉈 도입하기로 결정했다.

 

폐쇄형 모델인 오픈AI의 'O1'과 비교해 출력 기준 가격이 97% 절감된 R1의 저비용·고효율 성능이 주목받는 중이다.

 

■ AI 기술혁신 가속화...

 

MS가 자사 클라우드 서비스 ‘애저 AI 파운드리’에 딥시크의 R1 모델을 탑재한다고 발표했다.

 

글로벌 AI 시장이 2025년 2000억 달러 규모로 성장이 전망되는 가운데, 100만 토큰당 2.19달러의 저렴한 비용으로 최고 수준의 성능을 제공하는 R1이 시장의 판도를 뒤집었다.

 

엔비디아와 아마존도 R1을 자사 플랫폼에 도입하기로 결정했다. 오픈AI의 ‘O1’이 100만 토큰당 60달러인 데 반해 R1은 97% 절감된 가격으로 논리적 추론과 코딩 등에서 동등한 성능을 보여주며 시장의 선두에 섰다.

 

서울경제 우 승호 기자