hello

JHL

DevOps Engineer. Fullstack Develloper. Software Architect.

Korea
JHL

amd 보드에서 4슬롯 메모리가 안되면 바이오스를 업그레이드 하자

아마존에서 48GB 메모리 4개를 구매했습니다. asrock b650 rs pro 보드에 이 메모리를 장착했는데 2개는 인식이 되지만 4개는 한참이 걸려도 인식을 못했습니다. "램 타이밍 및 전력 등에 대해 보드가 학습하는데 3~5분, 심하면 10분도 걸려요." 라는 글에 1시간을 기다렸는데도 변함이 없었습니다. 그래서 좀 더 찾아보니.. 보드의 bios를 업데이트하면 해결된다는겁니다

By JHL

asus hyper m.2 x16 gen 4 card로 삼성 990 pro 4장 구성해보기

SSD 990 PRO 1TB 4개를 SSG 특가로 질렀습니다. 왜냐면... 무려 2년전에 사놓고 쓰지를 못했던 이녀석을 쓰기 위해서 말이죠 amd 7800x3d가 장착된 PC이다보니 이 녀석을 달기 위해선 어쩔 수 없이 GPU를 제거하기로 했습니다. GPU 없어도 내장 그래픽이 가능하니.. 어차피 이 gpu는.. 다른 형제들과 함께 4gpu를 완성해야 하는 처지라서 떠날 친구였습니다. 이

By JHL

AI

llama4 실제 구현 결과 비교: Scout VS Maverick

당연히 Maverick이 압도적이겠지만 unsloth/Llama-4-Scout-17B-16E-Instruct-GGUF/Llama-4-Scout-17B-16E-Instruct-UD-IQ2_XXS.gguf unsloth/Llama-4-Maverick-17B-128E-Instruct-GGUF/UD-IQ1_S/Llama-4-Maverick-17B-128E-Instruct-UD-IQ1_S-00001-of-00003.gguf 이 두개를 비교하고자 한다. 비교 방법은 코드 생성을 시켜서 그 코드가 의도한 결과가 나오는지 비교하는것이다. 프롬프트 " Write a single `app.py` file using **FastAPI** that does the following: 1. **GPU Monitoring Logger**: - Run

By JHL

AI

llama4 돌려보기 (llama.cpp)

rtx4090, rtx3090x2 으로 총 72GB 구성된 환경에서 아래 모델을 돌려봄. 방법은 https://docs.unsloth.ai/basics/tutorial-how-to-run-and-fine-tune-llama-4 참고 unsloth/Llama-4-Scout-17B-16E-Instruct-GGUF/Llama-4-Scout-17B-16E-Instruct-UD-IQ2_XXS.gguf ./llama.cpp/llama-cli --model unsloth/Llama-4-Scout-17B-16E-Instruct-GGUF/Llama-4-Scout-17B-16E-Instruct-UD-IQ2_XXS.gguf --threads 32 --ctx-size 16384 --n-gpu-layers 99 --seed 3407 --prio 3 --temp 0.6 --min-p 0.01 --top-p 0.

By JHL