Inspire People, Inspire AI

Bloom with Bllossom:

Start your first LLM journey πŸ”₯

λ‹Ήμ‹ μ˜ 연ꡬ, λΉ„μ¦ˆλ‹ˆμŠ€, 그리고 μΌμƒμƒν™œμ— Bllossom을 λ„μž…ν•˜μ„Έμš”.

Upscale your AI's Language πŸͺ‘

λ²€μΉ˜λ§ˆν¬μ—μ„œ 객관식 문제만 μž˜ν‘ΈλŠ” LLM, μ‹€μ œλ‘œ 써보고 μ‹€λ§ν•˜μ…¨λ‚˜μš”?
ν•œκ΅­μ–΄λ‘œ 물어봐도 μ˜μ–΄λ‘œ λ‹΅ν•˜λŠ” LLM, μ™œκ·ΈλŸ¬λŠ” κ±ΈκΉŒμš”?

Bllossom 은 μƒˆλ‘œμš΄ λ„λ©”μΈμ˜ 언어와 지식을 효과적으둜 ν•™μŠ΅ν•©λ‹ˆλ‹€.
(Choi et al., "Optimizing Language Augmentation for Multilingual Large Language Models: A Case Study on Korean", LREC-Coling 2024)

## Try Bllossom Easily Β πŸ’


import torch

from transformers import AutoModelForCausalLM, AutoTokenizer


model=AutoModelForCausalLM.from_pretrained("Bllossom/llama-3-Korean-Bllossom-70B-gguf-Q4_K_M")


text = "μ•ˆλ…•? λ„Œ λˆ„κ΅¬μ•Ό?"

tokend=tokenizer(text,return_tensors="pt")

output=model.generate(**tokend,max_length=124)

print(tokenizer.decode(output[0]))


μ•ˆλ…•ν•˜μ„Έμš”! μ €λŠ” Teddysum의 인곡지λŠ₯ μ–Έμ–΄ λͺ¨λΈ Bllossom μž…λ‹ˆλ‹€. μ €λŠ” λ‹€κ΅­μ–΄ λͺ¨λΈλ‘œ ν•œκ΅­μ–΄μ™€ μ˜μ–΄λ₯Ό κ΅¬μ‚¬ν•©λ‹ˆλ‹€. 무엇이든 λ‹΅λ³€ λ“œλ¦΄ 수 μžˆλ„λ‘ 점차 지식을 λ„“ν˜€κ°€κ³  μžˆμŠ΅λ‹ˆλ‹€. μ–΄λ””μ„œ 도움이 ν•„μš”ν•œ 뢀뢄이 μžˆλ‚˜μš”? :)


## CC BY-NC 4.0

About β˜•

ν…Œλ””μΈμ€ 연ꡬ지ν–₯ μŠ€νƒ€νŠΈμ—…μœΌλ‘œ μ‚¬λžŒμ—κ²Œ, 그리고 AIμ—κ²Œ μ˜κ°μ„ μ£Όμ–΄ μž‘μ€ κ³³μ—μ„œλΆ€ν„° 세상을 λ°”κΎΈκ³ μž ν•©λ‹ˆλ‹€.

μš°λ¦¬λŠ” μž‘μ§€λ§Œ 독립적인 νŒ€μž…λ‹ˆλ‹€. 의료, λ©€ν‹°λͺ¨λ‹¬, κΈ€μ“°κΈ° 평가와 같은 μ „λ¬Έ λΆ„μ•Όμ˜ μ–΄λ €μš΄ 문제λ₯Ό ν•΄κ²°ν•˜λŠ” κ³Όμ • 전체λ₯Ό 즐기고 μžˆμŠ΅λ‹ˆλ‹€.

Careers βœ‰οΈ

μš°λ¦¬λŠ” μž‘μ§€λ§Œ 독립적인 νŒ€μœΌλ‘œ, μ™„μ „ν•œ μž¬νƒ 근무(Anytime, Anywhere) ν•˜μ—μ„œ 독립적이고 μ‚¬λ €κΉŠμ€ μ—°κ΅¬μ›λ“€λ‘œ κ΅¬μ„±λ˜μ–΄ μžˆμŠ΅λ‹ˆλ‹€.Β 

μš°λ¦¬λŠ” μ‹€νŒ¨μ—μ„œ λ§Žμ€ 것을 λ°°μš°μ§€λ§Œ, μ‹ μ€‘ν•˜κ²Œ 이루어진 μ‹€νŒ¨μ—μ„œλŠ” λͺ¨λ“  것을 배울 수 μžˆλ‹€κ³  λ―Ώκ³  μžˆμŠ΅λ‹ˆλ‹€.

ν¬μ§€μ…˜κ³Ό 상관없이, ν•¨κ»˜ν•˜κ³ μž ν•œλ‹€λ©΄ μ—°λ½μ£Όμ„Έμš”. dm@teddysum.ai


## μ±„μš© ν¬μ§€μ…˜(🎁🎁🎁🎁🎁)