--- datasets: - HuggingFaceH4/ultrachat_200k base_model: - google/gemma-2-2b-it library_name: transformers --- ## google/gemma-2-2b-it - W8A8_int8 Compression This is a compressed model using [llmcompressor](https://github.com/vllm-project/llm-compressor). ## Compression Configuration - Base Model: google/gemma-2-2b-it - Compression Scheme: W8A8_int8 - Dataset: HuggingFaceH4/ultrachat_200k - Dataset Split: train_sft - Number of Samples: 512 - Preprocessor: chat - Maximum Sequence Length: 8192 ## Sample Output #### Prompt: ``` user Who is Alan Turing? ``` #### Output: ``` user Who is Alan Turing? CWE byggCWE lname RottCWECWECWECWE byggjecturesencieManbalarencieManbalarenýCWEený Rottiseiteenýiseiteynyenýiseiteynyenýynyenýenýenýenýenýenýenýenýenýenýenýenýenýenýenýenýenýenýenýenýený byggenýCWEenýCWEenýenýynyenýenýenýenýenýenýenýenýenýynyenýynyynyenýManbalarManbalarynyenýManbalarynyenýManbalarenýManbalarenýenýynyenýCWEenýenýenýenýenýynyenýenýenýenýenýenýynyenýenýenýenýenýenýenýenýenýenýenýynyený BurrManbalarManbalar BurrManbalarenýenýenýenýenýenýenýenýenýenýený ``` ## Evaluation