


AI 대중화의 진정한 리더
SAI-32B




On-Premises
Server Series
SAI-671B
6,710억 Parameter
SAI-70B
700억 Parameter
SAI-32B
320억 Parameter

Video Memory
768GB
Computing Power
FP8 10560 TFLOPS
Memory
1TB
Throughput
(Total tokens/s)
1400
Concurrent Users
(Simulaneous Acccess)
100

산업용 레벨 MoE 아키텍처
효율적인 추론과 낮은 연산 비용
92%
OpenAi Chat GPT-4

Video Memory
192GB
Computing Power
FP16 1320 TFLOPS
Memory
512GB
Throughput
(Total tokens/s)
2100
Concurrent Users
(Simulaneous Acccess)
260

고급 비지니스·에이전트·문서 분석
82%
OpenAi Chat GPT-4

Video Memory
96GB
Computing Power
FP16 660 TFLOPS
Memory
256GB
Throughput
(Total tokens/s)
2100
Concurrent Users
(Simulaneous Acccess)
260

일반 챗봇·RAG 서버
71%
OpenAi Chat GPT-4
항목 | SAI-32B |
|---|---|
RAG/Agent 적합도 | 적절 |
문장 요약/추론
| 꽤 우수
|
실제 응답 퀄리티
| 자연스럽고 논리적
|
VRAM 요구량
| 48GB 이상 (4bit 기준)
|
속도 | 빠름 (32B 기준 빠름)
|
벤치마크 (MMLU 등)
| GPT-3.5 base 이상
|
추론 능력
| GPT-3.5 중간 수준
|
언어 이해 성능
| 중상급 |
파라미터 수
| 32B (32 billion)
|
항목 | SAI-70B |
|---|---|
RAG/Agent 적합도 | 매우 적합 |
문장 요약/추론
| 매우 우수 (추론력 뛰어남)
|
실제 응답 퀄리티
| 훨씬 자연스럽고 깊이 있음
|
VRAM 요구량
| 80GB 이상 (4bit 기준)
|
속도 | 느림 (무겁고 메모리 많음)
|
벤치마크 (MMLU 등)
| GPT-4에 근접하는 최고 성능
|
추론 능력
| GPT-4 대비 85~90% 성능
|
언어 이해 성능
| 상급 (GPT-4급 근접)
|
파라미터 수
| 70B (70 billion)
|
On-Premises Server
Model Stack
Attribute | SAI‑32B | SAI‑70B | SAI‑671B |
|---|---|---|---|
Suitability for RAG/Agent | Adequate | Highly suitable | Very highly suitable |
Summarization / reasoning | Quite good | Very good (excellent reasoning) | Excellent (exceptional reasoning)
|
Real‑world response quality | Natural and logical | Much more natural and deeper | Extremely natural and deep
|
VRAM requirement | 48 GB + (4‑bit) | 80 GB + (4‑bit) | 685 GB + (4‑bit)
|
Speed | Fast (fast for 32B) | Slow (heavy, high memory) | Slow (heavy, high memory)
|
Benchmarks (MMLU, etc.) | Above GPT‑3.5 base | Top performance close to GPT‑4 | Top performance close to GPT‑4
|
Reasoning capability | Mid‑range GPT‑3.5 level | 85–90 % of GPT‑4 performance | 86–98 % of GPT‑4, surpasses it in some cases |
Language‑understanding performance | Upper‑intermediate | Advanced (close to GPT‑4 level) | Advanced (close to or surpasses GPT‑4 in some areas)
|
Parameter count | 32B (32 billion) | 70B (70 billion) | 671B (671 billion) |
항목 | SAI-32B | SAI-70B | SAI-671B |
|---|---|---|---|
파라미터 수 | 32B (32 billion) | 70B (70 billion) | 671B (671 billion) |
언어 이해 성능 | 중상급 | 상급 (GPT-4급 근접) | 상급 (GPT-4급 근접 일부 능가) |
추론 능력 | GPT-3.5 중간 수준 | GPT-4 대비 85~90% 성능 | GPT-4 대비 86~98% 일부 능가 |
벤치마크 (MMLU 등) | GPT-3.5 base 이상 | GPT-4에 근접하는 최고 성능 | GPT-4에 근접하는 최고 성능 |
속도 | 빠름 (32B 기준 빠름) | 느림 (무겁고 메모리 많음) | 느림 (무겁고 메모리 많음) |
VRAM 요구량 | 48GB 이상 (4bit 기준) | 80GB 이상 (4bit 기준) | 685GB 이상 (4bit 기준) |
실제 응답 퀄리티 | 자연스럽고 논리적 | 훨씬 자연스럽고 깊이 있음 | 아주 자연스럽고 깊이 있음 |
문장 요약/추론 | 꽤 우수 | 매우 우수 (추론력 뛰어남) | 아주 우수 (추론력 매우 뛰어남) |
RAG/Agent 적합도 | 적절 | 매우 적합 | 아주 적합 |
항목 | SAI-671B |
|---|---|
RAG/Agent 적합도 | 아주 적합 |
문장 요약/추론
| 아주 우수 (추론력 매우 뛰어남)
|
실제 응답 퀄리티
| 아주 자연스럽고 깊이 있음
|
VRAM 요구량
| 685GB 이상 (4bit 기준)
|
속도 | 느림 (무겁고 메모리 많음)
|
벤치마크 (MMLU 등)
| GPT-4에 근접하는 최고 성능
|
추론 능력
| GPT-4 대비 86~98% 일부 능가
|
언어 이해 성능
| 상급 (GPT-4급 근접 일부 능가)
|
파라미터 수
| 671B (671 billion)
|
Item | SAI‑32B |
|---|---|
Parameter count | 32 B (32 billion) |
Language‑understanding performance | Upper‑mid tier |
Reasoning ability | Mid‑GPT‑3.5 level |
Benchmark (MMLU, etc.) | Above GPT‑3.5 base |
Speed | Fast (for a 32B model) |
VRAM requirement | 48 GB or more (4‑bit) |
Actual answer quality | Natural and logical |
Sentence summarization / Inference | Quite good |
RAG / Agent suitability | Adequate |
Item | SAI‑70B |
|---|---|
Parameter count | 70 B (70 billion) |
Language‑understanding performance | Upper tier (near GPT‑4 level) |
Reasoning ability | 85–90 % of GPT‑4’s performance |
Benchmark (MMLU, etc.) | Peak performance close to GPT‑4 |
Speed | Slow (heavy & memory‑hungry) |
VRAM requirement | 80 GB or more (4‑bit) |
Actual answer quality | Much more natural and in‑depth |
Sentence summarization / Inference | Excellent (outstanding reasoning) |
RAG / Agent suitability | Highly suitable |
Item | SAI‑671B |
|---|---|
Parameter count | 671 B (671 billion) |
Language‑understanding performance | Upper tier (near GPT‑4, sometimes superior) |
Reasoning ability | 86–98 % of GPT‑4, occasionally surpasses |
Benchmark (MMLU, etc.) | Top performance approaching GPT‑4 |
Speed | Slow (heavy & memory‑hungry) |
VRAM requirement | 685 GB or more (4‑bit) |
Actual answer quality | Very natural and in‑depth |
Sentence summarization / Inference | Outstanding (exceptional reasoning) |
RAG / Agent suitability | Extremely suitable |

Why On-Premises
왜 ChatGPT와 같은 AI서버를 사내 네트워크에 설치해야 하나요?
클라우드 방식 (ChatGPT 웹) | 내 서버 방식 (SAI On-Premise) |
|---|---|
매월 구독료 지불 필요 | 초기 구매만 하면 계속 사용 가능, API 비용 없음 |
내부 기밀 데이터 전송 위험 | 외부 연결 없음 → 보안 완벽 |
사내 시스템과 연결 어려움 | ERP, 그룹웨어, 문서 서버 등과 바로 연동 가능 |
AI 성능 조절 불가 | 모델 종류 및 성능 선택 가능 (32B/70B 등) |
Cloud‑based approach (ChatGPT web) | On‑premise server approach (SAI On‑Promise) |
|---|---|
Unable to adjust AI performance | Ability to choose model type and performance (32B/70B, etc.) |
Difficult to integrate with in‑house systems | Can be directly integrated with ERP, groupware, document servers, etc. |
Risk of transmitting internal confidential data | No external connections → perfect security |
Requires monthly subscription fee | One‑time purchase enables continuous use, no API costs |
01
비용효율성이 뛰어납니다.
· 최적화 된 성능 밸런싱 구성으로 가격대비 고성능 LLM 서버 구축
· AI 모듈 사용 확장을 감안해 부품 추가만으로 성능 업그레이 가 능
02
오픈소스로서 완전한 통제가 가능합니다.
· GPT-4는 OpenAI의 폐쇄형 모델 → 내부 구조를 알 수 없고, API에 의존함
· SAI은 모델을 직접 수정하거나 커스터마이징 가능
· 민감한 데이터, 기업 내부 지식, 프라이빗 LLM 환경에 적합함
03
"충분히 좋은" 성능
· GPT-4가 뛰어나긴 하지만, 일반적인 업무용 문서 작성, 요약, 코드 생성, 질의응답에
는 32B 정도로도 대응 가능
· 실제로 LLM 벤치마크(MMLU, GSM8K, HellaSwag 등)에서 SAI 70B는 LLaMA2
70B, Falcon 180B와 비슷하거나 약간 앞서기도 함
· 실무 생산성 + 코드 처리 + 일반적인 챗봇 용도엔 전혀 부족하지 않음
SAI A.I Server 도입 과정
01

요구 사항 분석
02

하드웨어 사양 선정
03

소프트웨어 설치
04

시스템 설정
05

AI 모듈 설치
06

데이터 입력/파인튜닝
07

관리자 교육
08
logo_%EB%9D%BC%EC%9A%B4%EB%93%9C-%EB%A1%9C%EA%B3%A0.png)
설치 완료
01

요구사항분석
02

하드웨어 사양 선정
03

소프트웨어 설치
04

시스템 설정
05

AI 모듈 설치
06

데이터 입력/파인튜닝
07

관리자 교육
DePIN Cloud SAI A.I Server 도입 과정
logo_%EB%9D%BC%EC%9A%B4%EB%93%9C-%EB%A1%9C%EA%B3%A0.png)

05
AI 모듈 설치
SAI A.I Server 도입 과정
03
01
소프트웨어 설치
요구사항분석
04
07
시스템 설정
관리자 교육
02
하드웨어 사양 선정
06
데이터 입력 /
파인튜닝
On-Premises Server
기능별 활용 제안

고성능 챗봇
GPT-4 수준의
자연어 대화

문서 요약 및 생성
보고서, 이메일,
회의록 자동화

전문 Q&A (RAG)
사내 문서 기반
질의응답 시스템

코드 생성 및 분석
개발자 도우미,
코드 설명

음성 챗봇
Whisper + TTS 연동,
AI 스피커 구현

이미지 생성
Stable Diffusion
프롬프트 생성

LoRA 파인튜닝
특정 업무에 특화된
사내모델 구축

완전 오프라인 지원
인터넷 없이
자체 AI 운용 가능

On-Premise Sever
업종 별 활용 제안
금융/보험
오프라인 챗봇,
문서 요약,
내부 규정 Q&A

공공/국방
내부망 AI 비서,
민원 자동화,
음성 보조

의료/제약
EMR 요약,
의료 Q&A
환자 상담 자동화

제조/산업
매뉴얼 요약,
고장 진단,
음성 지시 시스템

통역/번역
실시간 다국어
통역/번역


SAI DePIN Cloud 서비스
SAI 솔루션을 NANODC를 통해 고객이 필요한 만큼 더욱 저렴하고




