google/gemma-2-2b-it - W8A8_int8 Compression
This is a compressed model using llmcompressor.
Compression Configuration
- Base Model: google/gemma-2-2b-it
- Compression Scheme: W8A8_int8
- Dataset: HuggingFaceH4/ultrachat_200k
- Dataset Split: train_sft
- Number of Samples: 512
- Preprocessor: chat
- Maximum Sequence Length: 8192
Sample Output
Prompt:
<bos><start_of_turn>user
Who is Alan Turing?<end_of_turn>
Output:
<bos><bos><start_of_turn>user
Who is Alan Turing?<end_of_turn>
CWE byggCWE lname RottCWECWECWECWE byggjecturesencieManbalarencieManbalarenýCWEený Rottiseiteenýiseiteynyenýiseiteynyenýynyenýenýenýenýenýenýenýenýenýenýenýenýenýenýenýenýenýenýenýenýený byggenýCWEenýCWEenýenýynyenýenýenýenýenýenýenýenýenýynyenýynyynyenýManbalarManbalarynyenýManbalarynyenýManbalarenýManbalarenýenýynyenýCWEenýenýenýenýenýynyenýenýenýenýenýenýynyenýenýenýenýenýenýenýenýenýenýenýynyený BurrManbalarManbalar BurrManbalarenýenýenýenýenýenýenýenýenýenýený
Evaluation
- Downloads last month
- 70
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.