Skip to content

Commit 9971c38

Browse files
committed
llama : do not print hparams for vocab-only models
1 parent b59ddf9 commit 9971c38

File tree

1 file changed

+43
-37
lines changed

1 file changed

+43
-37
lines changed

src/llama.cpp

Lines changed: 43 additions & 37 deletions
Original file line numberDiff line numberDiff line change
@@ -2848,7 +2848,7 @@ static bool llama_kv_cache_init(
28482848

28492849
const struct llama_hparams & hparams = model.hparams;
28502850

2851-
const int64_t n_layer = hparams.n_layer;
2851+
const int64_t n_layer = hparams.n_layer;
28522852

28532853
cache.has_shift = false;
28542854

@@ -4486,11 +4486,11 @@ static void llm_load_hparams(
44864486
return;
44874487
}
44884488

4489-
ml.get_key(LLM_KV_CONTEXT_LENGTH, hparams.n_ctx_train);
4490-
ml.get_key(LLM_KV_EMBEDDING_LENGTH, hparams.n_embd);
4491-
ml.get_key(LLM_KV_BLOCK_COUNT, hparams.n_layer);
4492-
ml.get_key(LLM_KV_EXPERT_COUNT, hparams.n_expert, false);
4493-
ml.get_key(LLM_KV_EXPERT_USED_COUNT, hparams.n_expert_used, false);
4489+
ml.get_key(LLM_KV_CONTEXT_LENGTH, hparams.n_ctx_train);
4490+
ml.get_key(LLM_KV_EMBEDDING_LENGTH, hparams.n_embd);
4491+
ml.get_key(LLM_KV_BLOCK_COUNT, hparams.n_layer);
4492+
ml.get_key(LLM_KV_EXPERT_COUNT, hparams.n_expert, false);
4493+
ml.get_key(LLM_KV_EXPERT_USED_COUNT, hparams.n_expert_used, false);
44944494

44954495
GGML_ASSERT(hparams.n_expert <= LLAMA_MAX_EXPERTS);
44964496
GGML_ASSERT(hparams.n_expert_used <= hparams.n_expert);
@@ -5594,37 +5594,43 @@ static void llm_load_print_meta(llama_model_loader & ml, llama_model & model) {
55945594
LLAMA_LOG_INFO("%s: vocab type = %s\n", __func__, llama_model_vocab_type_name(vocab.type));
55955595
LLAMA_LOG_INFO("%s: n_vocab = %u\n", __func__, hparams.n_vocab);
55965596
LLAMA_LOG_INFO("%s: n_merges = %u\n", __func__, (int) vocab.bpe_ranks.size());
5597-
LLAMA_LOG_INFO("%s: n_ctx_train = %u\n", __func__, hparams.n_ctx_train);
5598-
LLAMA_LOG_INFO("%s: n_embd = %u\n", __func__, hparams.n_embd);
5599-
LLAMA_LOG_INFO("%s: n_head = %s\n", __func__, print_f([&](uint32_t il) { return hparams.n_head(il); }, hparams.n_layer).c_str());
5600-
LLAMA_LOG_INFO("%s: n_head_kv = %s\n", __func__, print_f([&](uint32_t il) { return hparams.n_head_kv(il); }, hparams.n_layer).c_str());
5601-
LLAMA_LOG_INFO("%s: n_layer = %u\n", __func__, hparams.n_layer);
5602-
LLAMA_LOG_INFO("%s: n_rot = %u\n", __func__, hparams.n_rot);
5603-
LLAMA_LOG_INFO("%s: n_embd_head_k = %u\n", __func__, hparams.n_embd_head_k);
5604-
LLAMA_LOG_INFO("%s: n_embd_head_v = %u\n", __func__, hparams.n_embd_head_v);
5605-
LLAMA_LOG_INFO("%s: n_gqa = %s\n", __func__, print_f([&](uint32_t il) { return hparams.n_gqa(il); }, hparams.n_layer).c_str());
5606-
LLAMA_LOG_INFO("%s: n_embd_k_gqa = %s\n", __func__, print_f([&](uint32_t il) { return hparams.n_embd_k_gqa(il); }, hparams.n_layer).c_str());
5607-
LLAMA_LOG_INFO("%s: n_embd_v_gqa = %s\n", __func__, print_f([&](uint32_t il) { return hparams.n_embd_v_gqa(il); }, hparams.n_layer).c_str());
5608-
LLAMA_LOG_INFO("%s: f_norm_eps = %.1e\n", __func__, hparams.f_norm_eps);
5609-
LLAMA_LOG_INFO("%s: f_norm_rms_eps = %.1e\n", __func__, hparams.f_norm_rms_eps);
5610-
LLAMA_LOG_INFO("%s: f_clamp_kqv = %.1e\n", __func__, hparams.f_clamp_kqv);
5611-
LLAMA_LOG_INFO("%s: f_max_alibi_bias = %.1e\n", __func__, hparams.f_max_alibi_bias);
5612-
LLAMA_LOG_INFO("%s: f_logit_scale = %.1e\n", __func__, hparams.f_logit_scale);
5613-
LLAMA_LOG_INFO("%s: n_ff = %s\n", __func__, print_f([&](uint32_t il) { return hparams.n_ff(il); }, hparams.n_layer).c_str());
5614-
LLAMA_LOG_INFO("%s: n_expert = %u\n", __func__, hparams.n_expert);
5615-
LLAMA_LOG_INFO("%s: n_expert_used = %u\n", __func__, hparams.n_expert_used);
5616-
LLAMA_LOG_INFO("%s: causal attn = %d\n", __func__, hparams.causal_attn);
5617-
LLAMA_LOG_INFO("%s: pooling type = %d\n", __func__, hparams.pooling_type);
5618-
LLAMA_LOG_INFO("%s: rope type = %d\n", __func__, hparams.rope_type);
5619-
LLAMA_LOG_INFO("%s: rope scaling = %s\n", __func__, rope_scaling_type);
5620-
LLAMA_LOG_INFO("%s: freq_base_train = %.1f\n", __func__, hparams.rope_freq_base_train);
5621-
LLAMA_LOG_INFO("%s: freq_scale_train = %g\n", __func__, hparams.rope_freq_scale_train);
5622-
LLAMA_LOG_INFO("%s: n_ctx_orig_yarn = %u\n", __func__, hparams.n_ctx_orig_yarn);
5623-
LLAMA_LOG_INFO("%s: rope_finetuned = %s\n", __func__, hparams.rope_finetuned ? "yes" : "unknown");
5624-
LLAMA_LOG_INFO("%s: ssm_d_conv = %u\n", __func__, hparams.ssm_d_conv);
5625-
LLAMA_LOG_INFO("%s: ssm_d_inner = %u\n", __func__, hparams.ssm_d_inner);
5626-
LLAMA_LOG_INFO("%s: ssm_d_state = %u\n", __func__, hparams.ssm_d_state);
5627-
LLAMA_LOG_INFO("%s: ssm_dt_rank = %u\n", __func__, hparams.ssm_dt_rank);
5597+
LLAMA_LOG_INFO("%s: vocab_only = %d\n", __func__, hparams.vocab_only);
5598+
5599+
if (!hparams.vocab_only) {
5600+
LLAMA_LOG_INFO("%s: n_ctx_train = %u\n", __func__, hparams.n_ctx_train);
5601+
LLAMA_LOG_INFO("%s: n_embd = %u\n", __func__, hparams.n_embd);
5602+
LLAMA_LOG_INFO("%s: n_layer = %u\n", __func__, hparams.n_layer);
5603+
LLAMA_LOG_INFO("%s: n_head = %s\n", __func__, print_f([&](uint32_t il) { return hparams.n_head(il); }, hparams.n_layer).c_str());
5604+
LLAMA_LOG_INFO("%s: n_head_kv = %s\n", __func__, print_f([&](uint32_t il) { return hparams.n_head_kv(il); }, hparams.n_layer).c_str());
5605+
LLAMA_LOG_INFO("%s: n_rot = %u\n", __func__, hparams.n_rot);
5606+
LLAMA_LOG_INFO("%s: n_embd_head_k = %u\n", __func__, hparams.n_embd_head_k);
5607+
LLAMA_LOG_INFO("%s: n_embd_head_v = %u\n", __func__, hparams.n_embd_head_v);
5608+
LLAMA_LOG_INFO("%s: n_gqa = %s\n", __func__, print_f([&](uint32_t il) { return hparams.n_gqa(il); }, hparams.n_layer).c_str());
5609+
LLAMA_LOG_INFO("%s: n_embd_k_gqa = %s\n", __func__, print_f([&](uint32_t il) { return hparams.n_embd_k_gqa(il); }, hparams.n_layer).c_str());
5610+
LLAMA_LOG_INFO("%s: n_embd_v_gqa = %s\n", __func__, print_f([&](uint32_t il) { return hparams.n_embd_v_gqa(il); }, hparams.n_layer).c_str());
5611+
LLAMA_LOG_INFO("%s: f_norm_eps = %.1e\n", __func__, hparams.f_norm_eps);
5612+
LLAMA_LOG_INFO("%s: f_norm_rms_eps = %.1e\n", __func__, hparams.f_norm_rms_eps);
5613+
LLAMA_LOG_INFO("%s: f_clamp_kqv = %.1e\n", __func__, hparams.f_clamp_kqv);
5614+
LLAMA_LOG_INFO("%s: f_max_alibi_bias = %.1e\n", __func__, hparams.f_max_alibi_bias);
5615+
LLAMA_LOG_INFO("%s: f_logit_scale = %.1e\n", __func__, hparams.f_logit_scale);
5616+
LLAMA_LOG_INFO("%s: n_ff = %s\n", __func__, print_f([&](uint32_t il) { return hparams.n_ff(il); }, hparams.n_layer).c_str());
5617+
LLAMA_LOG_INFO("%s: n_expert = %u\n", __func__, hparams.n_expert);
5618+
LLAMA_LOG_INFO("%s: n_expert_used = %u\n", __func__, hparams.n_expert_used);
5619+
LLAMA_LOG_INFO("%s: causal attn = %d\n", __func__, hparams.causal_attn);
5620+
LLAMA_LOG_INFO("%s: pooling type = %d\n", __func__, hparams.pooling_type);
5621+
LLAMA_LOG_INFO("%s: rope type = %d\n", __func__, hparams.rope_type);
5622+
LLAMA_LOG_INFO("%s: rope scaling = %s\n", __func__, rope_scaling_type);
5623+
LLAMA_LOG_INFO("%s: freq_base_train = %.1f\n", __func__, hparams.rope_freq_base_train);
5624+
LLAMA_LOG_INFO("%s: freq_scale_train = %g\n", __func__, hparams.rope_freq_scale_train);
5625+
LLAMA_LOG_INFO("%s: n_ctx_orig_yarn = %u\n", __func__, hparams.n_ctx_orig_yarn);
5626+
LLAMA_LOG_INFO("%s: rope_finetuned = %s\n", __func__, hparams.rope_finetuned ? "yes" : "unknown");
5627+
LLAMA_LOG_INFO("%s: ssm_d_conv = %u\n", __func__, hparams.ssm_d_conv);
5628+
LLAMA_LOG_INFO("%s: ssm_d_inner = %u\n", __func__, hparams.ssm_d_inner);
5629+
LLAMA_LOG_INFO("%s: ssm_d_state = %u\n", __func__, hparams.ssm_d_state);
5630+
LLAMA_LOG_INFO("%s: ssm_dt_rank = %u\n", __func__, hparams.ssm_dt_rank);
5631+
} else {
5632+
}
5633+
56285634
LLAMA_LOG_INFO("%s: model type = %s\n", __func__, llama_model_type_name(model.type));
56295635
LLAMA_LOG_INFO("%s: model ftype = %s\n", __func__, llama_model_ftype_name(model.ftype).c_str());
56305636
if (ml.n_elements >= 1e12) {

0 commit comments

Comments
 (0)