본문으로 건너뛰기
yutils
예시

입력 (텍스트 → 16진수)

yutils 👋

출력

79 75 74 69 6c 73 20 f0 9f 91 8b

참고

각 바이트가 2자리 16진수로 표시됩니다. UTF-8 인코딩 기반 — 한글·이모지는 여러 바이트로 풀려요. 양방향 변환 지원.

사용법 / 자주 묻는 질문

이런 경우 사용하세요

  • 바이너리 파일 디버깅 시 hex dump 분석
  • 네트워크 패킷 · 임베디드 시스템 데이터 해석
  • UTF-8 멀티바이트 문자가 실제로 어떤 바이트 시퀀스인지 확인
  • 암호·hash 결과 같은 16진수 데이터를 사람이 읽기 쉬운 텍스트로
  • color hex code 와 헷갈리지 않게 일반 바이트 hex 표시

자주 묻는 질문

Q.구분자(공백·콜론)는 처리되나요?
A.예. `79 75` / `79:75` / `7975` 모두 같은 결과로 디코딩됩니다. 0x prefix 도 옵션으로 지원.
Q.왜 한글이 여러 바이트로 풀리나요?
A.UTF-8 인코딩 특성입니다. 한 글자가 영문은 1바이트, 한글은 3바이트, 이모지는 4바이트가 일반적. ASCII (0x00-0x7F) 가 아닌 모든 문자는 2바이트 이상으로 표현됩니다.
Q.Base64 와 Hex 차이는?
A.둘 다 바이너리 데이터의 텍스트 표현. Hex 는 사람이 읽기 쉽지만 부피 200% 증가. Base64 는 33% 만 증가하지만 alphabet 이 복잡. 디버깅엔 Hex, 전송엔 Base64.
재미있는 사실
  • 'hexadecimal' 이라는 단어는 1962년 IBM 이 정착시켰는데, 그 전엔 'sexadecimal' (라틴어 sexa, 6) 이라 불렸습니다. IBM 이 'sexa-' 의 모호함과 영어 sexual 함의 회피를 위해 그리스어 hex- + 라틴 -decimal 혼성으로 정한 이상한 어원 — 어원학자들이 자주 지적하는 부정확한 합성.

    Wikipedia — Hex etymology
  • IBM System/360 (1964) 이 16진수 표기 (A-F = 10-15) 를 산업 표준으로 못박았습니다. 그 전에는 시스템마다 9 다음에 어떤 기호를 쓸지 제각각 — `0-9 + u-z`, `0-9 + 특수문자` 같은 변종이 존재했어요.

    Wikipedia — IBM System/360
  • 한 hex 자리수가 정확히 4 비트 (니블, nibble) — 두 hex 자리 = 1 바이트. 이 깔끔한 매핑이 16진수가 컴퓨터 메모리·색상 (`#FF00FF`) ·hash 표기의 표준이 된 이유입니다. 8진수 (3비트) 는 바이트 (8비트) 와 안 맞아서 점진 도태됐어요.

    Wikipedia — Nibble