밍키넷: 해외 성인 사이트와 국내 법적 이슈 밍키넷 접속
페이지 정보
작성자 윤종승다 작성일25-09-19 22:16 조회4회 댓글0건관련링크
-
http://19.kissjav.click 0회 연결
-
http://26.588bam.top 0회 연결
본문
키워드: 밍키넷, 성인 사이트, 성인 동영상, 성인 만화, VPN 우회, HTTPS 차단, 불법 사이트, 해외 서버, 대한민국 법, 포르노, 웹툰, 스포츠토토, 밍키넷, 42
[이데일리 김윤지 기자] 중국 인공지능(AI) 스타트업 딥시크가 저비용 고성능 생성형 AI인 R1 모델에 대한 훈련하는 데 29만4000달러(약 4억원)를 사용했다고 밝혔다.
딥시크 앱.(사진=AFP)
18일(현지시간) 로이터통신·홍콩 사우스차이나모닝포스트(SCMP) 등에 따르면 딥시크는 전일 발행된 학술지 네이처를 통해 이 같은 내용을 공개했다. 딥시크 창업자인 량원펑이 공동 저자로 참여한 동료심사 논문이 네이처에 실린 것으로, 딥시크는 R1이 초기 단계 이후 엔비디아의 저서양 AI 칩인 H800 칩 512개를 사용해 800시간 동안 학습됐다릴게임황금성
고 밝혔다. 지난 1월에 발표된 딥시크의 다른 논문에서는 이 같은 내용들이 포함되지 않았다.
챗GPT 개발사인 오픈AI의 샘 올트먼 CEO는 2023년 인터뷰에서 기초적인 모델 훈련에 “1억달러(약 1394억원) 보다 훨씬 더 많은 비용이 들었다”고 말했다. 이와 비교하면 딥시크 R4의 개발 비용은 300분의 1도 안되농협정기적금금리
는 셈이다. R1 구축 기반인 기본 LLM 모델 제작 비용인 600만달러(약 83억원)는 별개로 이를 포함하더라도 상대적으로 저렴한 비용이다.
일각에선 딥시크가 중국에는 수출이 금지된 A100을 확보했을 것이란 주장도 제기됐는데, 딥시크는 이번에 발표한 논문에 딸린 추가 정보에서 엔비디아 A100을 보유하고 있으며 개발 준비 단계에서 그것toptv
들을 사용했다고 처음으로 인정했다.
또한 딥시크는 사람에게 성과에 따라 인센티브를 주듯이 AI에게도 문제를 해결하는 경우 보상을 주는 방식을 적용해 훈련했다고 밝혔다. 그동안 대규모언어모델(LLM)은 ‘지도학습’을 해왔다. 하지만 딥시크는 이것이 확장성을 제한하고 모델 학습에 인간의 편향을 초래할 수 있는 데다 인간 정신의 능력을 넘어서주식바로보기
는 우월한 추론 경로 탐색을 제한할 가능성도 있다고 판단했다. 이에 ‘강화학습’으로 LLM이 자체 진화해 추론 능력을 개발할 수 있도록 한 것이다.
올해 1월 딥시크가 엔비디아의 저사양 AI 칩으로 챗GPT에 버금나는 고성능 AI 모델을 내놨다는 소식에 시장이 한때 크게 흔들렸다. 당시 엔비디아 주가가 급락하는 등 미국 거대 기술주들이 ‘평화홀딩스 주식
딥시크 쇼크’를 소화해야 했다.
김윤지 (jay3@edaily.co.kr)
딥시크 앱.(사진=AFP)
18일(현지시간) 로이터통신·홍콩 사우스차이나모닝포스트(SCMP) 등에 따르면 딥시크는 전일 발행된 학술지 네이처를 통해 이 같은 내용을 공개했다. 딥시크 창업자인 량원펑이 공동 저자로 참여한 동료심사 논문이 네이처에 실린 것으로, 딥시크는 R1이 초기 단계 이후 엔비디아의 저서양 AI 칩인 H800 칩 512개를 사용해 800시간 동안 학습됐다릴게임황금성
고 밝혔다. 지난 1월에 발표된 딥시크의 다른 논문에서는 이 같은 내용들이 포함되지 않았다.
챗GPT 개발사인 오픈AI의 샘 올트먼 CEO는 2023년 인터뷰에서 기초적인 모델 훈련에 “1억달러(약 1394억원) 보다 훨씬 더 많은 비용이 들었다”고 말했다. 이와 비교하면 딥시크 R4의 개발 비용은 300분의 1도 안되농협정기적금금리
는 셈이다. R1 구축 기반인 기본 LLM 모델 제작 비용인 600만달러(약 83억원)는 별개로 이를 포함하더라도 상대적으로 저렴한 비용이다.
일각에선 딥시크가 중국에는 수출이 금지된 A100을 확보했을 것이란 주장도 제기됐는데, 딥시크는 이번에 발표한 논문에 딸린 추가 정보에서 엔비디아 A100을 보유하고 있으며 개발 준비 단계에서 그것toptv
들을 사용했다고 처음으로 인정했다.
또한 딥시크는 사람에게 성과에 따라 인센티브를 주듯이 AI에게도 문제를 해결하는 경우 보상을 주는 방식을 적용해 훈련했다고 밝혔다. 그동안 대규모언어모델(LLM)은 ‘지도학습’을 해왔다. 하지만 딥시크는 이것이 확장성을 제한하고 모델 학습에 인간의 편향을 초래할 수 있는 데다 인간 정신의 능력을 넘어서주식바로보기
는 우월한 추론 경로 탐색을 제한할 가능성도 있다고 판단했다. 이에 ‘강화학습’으로 LLM이 자체 진화해 추론 능력을 개발할 수 있도록 한 것이다.
올해 1월 딥시크가 엔비디아의 저사양 AI 칩으로 챗GPT에 버금나는 고성능 AI 모델을 내놨다는 소식에 시장이 한때 크게 흔들렸다. 당시 엔비디아 주가가 급락하는 등 미국 거대 기술주들이 ‘평화홀딩스 주식
딥시크 쇼크’를 소화해야 했다.
김윤지 (jay3@edaily.co.kr)