@@ -663,7 +663,7 @@ static inline __m256 sum_i16_pairs_float(const __m256i x) {
663
663
}
664
664
665
665
static inline __m256 mul_sum_us8_pairs_float(const __m256i ax, const __m256i sy) {
666
- #if __AVXVNNI__
666
+ #ifdef __AVXVNNI__
667
667
const __m256i zero = _mm256_setzero_si256();
668
668
const __m256i summed_pairs = _mm256_dpbusd_epi32(zero, ax, sy);
669
669
return _mm256_cvtepi32_ps(summed_pairs);
@@ -676,7 +676,7 @@ static inline __m256 mul_sum_us8_pairs_float(const __m256i ax, const __m256i sy)
676
676
677
677
// multiply int8_t, add results pairwise twice and return as float vector
678
678
static inline __m256 mul_sum_i8_pairs_float(const __m256i x, const __m256i y) {
679
- #if __AVXVNNIINT8__
679
+ #ifdef __AVXVNNIINT8__
680
680
const __m256i zero = _mm256_setzero_si256();
681
681
const __m256i summed_pairs = _mm256_dpbssd_epi32(zero, x, y);
682
682
return _mm256_cvtepi32_ps(summed_pairs);
@@ -692,7 +692,7 @@ static inline __m256 mul_sum_i8_pairs_float(const __m256i x, const __m256i y) {
692
692
static inline __m128i packNibbles( __m256i bytes )
693
693
{
694
694
// Move bits within 16-bit lanes from 0000_abcd_0000_efgh into 0000_0000_abcd_efgh
695
- #if __AVX512F__
695
+ #ifdef __AVX512F__
696
696
const __m256i bytes_srli_4 = _mm256_srli_epi16(bytes, 4); // 0000_0000_abcd_0000
697
697
bytes = _mm256_or_si256(bytes, bytes_srli_4); // 0000_abcd_abcd_efgh
698
698
return _mm256_cvtepi16_epi8(bytes); // abcd_efgh
@@ -4949,6 +4949,13 @@ struct ggml_tensor * ggml_set_name(struct ggml_tensor * tensor, const char * nam
4949
4949
return tensor;
4950
4950
}
4951
4951
4952
+ #ifdef __GNUC__
4953
+ #ifdef __MINGW32__
4954
+ __attribute__((gnu_format(printf, 2, 3)))
4955
+ #else
4956
+ __attribute__((format(printf, 2, 3)))
4957
+ #endif
4958
+ #endif
4952
4959
struct ggml_tensor * ggml_format_name(struct ggml_tensor * tensor, const char * fmt, ...) {
4953
4960
va_list args;
4954
4961
va_start(args, fmt);
0 commit comments