AI
AI 전쟁, 제2막: SKT 'A.X 4.0' vs KT '믿:음 2.0' 같은 날 정면 승부
2025년 7월 3일, SK텔레콤과 KT가 각자의 한국형 거대언어모델(A.X 4.0 / 믿:음 2.0)을 오픈소스로 동시에 공개하며 '소버린 AI' 시대의 서막을 열었습니다. 글로벌 기술 최적화와 한국적 철학이라는 상반된 전략 속, 이들이 던진 메시지와 국내 AI 생태계에 미칠 파급력을 짚어봅니다.
AI, Agent, LLM 등의 기술 정리
AI
2025년 7월 3일, SK텔레콤과 KT가 각자의 한국형 거대언어모델(A.X 4.0 / 믿:음 2.0)을 오픈소스로 동시에 공개하며 '소버린 AI' 시대의 서막을 열었습니다. 글로벌 기술 최적화와 한국적 철학이라는 상반된 전략 속, 이들이 던진 메시지와 국내 AI 생태계에 미칠 파급력을 짚어봅니다.
AI
당연히 Maverick이 압도적이겠지만 unsloth/Llama-4-Scout-17B-16E-Instruct-GGUF/Llama-4-Scout-17B-16E-Instruct-UD-IQ2_XXS.gguf unsloth/Llama-4-Maverick-17B-128E-Instruct-GGUF/UD-IQ1_S/Llama-4-Maverick-17B-128E-Instruct-UD-IQ1_S-00001-of-00003.gguf 이 두개를 비교하고자 한다. 비교 방법은 코드 생성을 시켜서 그 코드가 의도한 결과가 나오는지 비교하는것이다. 프롬프트 " Write a single `app.py` file using **FastAPI** that does the following: 1. **GPU Monitoring Logger**: - Run
AI
rtx4090, rtx3090x2 으로 총 72GB 구성된 환경에서 아래 모델을 돌려봄. 방법은 https://docs.unsloth.ai/basics/tutorial-how-to-run-and-fine-tune-llama-4 참고 unsloth/Llama-4-Scout-17B-16E-Instruct-GGUF/Llama-4-Scout-17B-16E-Instruct-UD-IQ2_XXS.gguf ./llama.cpp/llama-cli --model unsloth/Llama-4-Scout-17B-16E-Instruct-GGUF/Llama-4-Scout-17B-16E-Instruct-UD-IQ2_XXS.gguf --threads 32 --ctx-size 16384 --n-gpu-layers 99 --seed 3407 --prio 3 --temp 0.6 --min-p 0.01 --top-p 0.
AI
AI
MCP(Model Context Protocol)는 인공지능 모델이 외부 세계와 소통하는 방식을 혁신적으로 바꾸고 있습니다. 기존에는 각각의 AI 애플리케이션이 데이터베이스, 파일 시스템, 웹 API 등과 연결될 때마다 별도의 통합 작업이 필요했지만, MCP는 이러한 연결 방식을 표준화하여 AI의 활용 범위를 크게 확장시켰습니다. 이 글에서는 MCP가 무엇이고, 어떻게 작동하며, 어떤 장점을 제공하는지 초보자도