hello

AI

AI, Agent, LLM 등의 기술 정리

AI

llama4 실제 구현 결과 비교: Scout VS Maverick

당연히 Maverick이 압도적이겠지만 unsloth/Llama-4-Scout-17B-16E-Instruct-GGUF/Llama-4-Scout-17B-16E-Instruct-UD-IQ2_XXS.gguf unsloth/Llama-4-Maverick-17B-128E-Instruct-GGUF/UD-IQ1_S/Llama-4-Maverick-17B-128E-Instruct-UD-IQ1_S-00001-of-00003.gguf 이 두개를 비교하고자 한다. 비교 방법은 코드 생성을 시켜서 그 코드가 의도한 결과가 나오는지 비교하는것이다. 프롬프트 " Write a single `app.py` file using **FastAPI** that does the following: 1. **GPU Monitoring Logger**: - Run

By JHL

AI

llama4 돌려보기 (llama.cpp)

rtx4090, rtx3090x2 으로 총 72GB 구성된 환경에서 아래 모델을 돌려봄. 방법은 https://docs.unsloth.ai/basics/tutorial-how-to-run-and-fine-tune-llama-4 참고 unsloth/Llama-4-Scout-17B-16E-Instruct-GGUF/Llama-4-Scout-17B-16E-Instruct-UD-IQ2_XXS.gguf ./llama.cpp/llama-cli --model unsloth/Llama-4-Scout-17B-16E-Instruct-GGUF/Llama-4-Scout-17B-16E-Instruct-UD-IQ2_XXS.gguf --threads 32 --ctx-size 16384 --n-gpu-layers 99 --seed 3407 --prio 3 --temp 0.6 --min-p 0.01 --top-p 0.

By JHL

AI

MCP(Model Context Protocol): AI의 새로운 소통 방식 이해하기

MCP(Model Context Protocol)는 인공지능 모델이 외부 세계와 소통하는 방식을 혁신적으로 바꾸고 있습니다. 기존에는 각각의 AI 애플리케이션이 데이터베이스, 파일 시스템, 웹 API 등과 연결될 때마다 별도의 통합 작업이 필요했지만, MCP는 이러한 연결 방식을 표준화하여 AI의 활용 범위를 크게 확장시켰습니다. 이 글에서는 MCP가 무엇이고, 어떻게 작동하며, 어떤 장점을 제공하는지 초보자도

By JHL