[1166] | 1 | // Simd NEON specific implementations -*- C++ -*-
|
---|
| 2 |
|
---|
| 3 | // Copyright (C) 2020-2021 Free Software Foundation, Inc.
|
---|
| 4 | //
|
---|
| 5 | // This file is part of the GNU ISO C++ Library. This library is free
|
---|
| 6 | // software; you can redistribute it and/or modify it under the
|
---|
| 7 | // terms of the GNU General Public License as published by the
|
---|
| 8 | // Free Software Foundation; either version 3, or (at your option)
|
---|
| 9 | // any later version.
|
---|
| 10 |
|
---|
| 11 | // This library is distributed in the hope that it will be useful,
|
---|
| 12 | // but WITHOUT ANY WARRANTY; without even the implied warranty of
|
---|
| 13 | // MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
|
---|
| 14 | // GNU General Public License for more details.
|
---|
| 15 |
|
---|
| 16 | // Under Section 7 of GPL version 3, you are granted additional
|
---|
| 17 | // permissions described in the GCC Runtime Library Exception, version
|
---|
| 18 | // 3.1, as published by the Free Software Foundation.
|
---|
| 19 |
|
---|
| 20 | // You should have received a copy of the GNU General Public License and
|
---|
| 21 | // a copy of the GCC Runtime Library Exception along with this program;
|
---|
| 22 | // see the files COPYING3 and COPYING.RUNTIME respectively. If not, see
|
---|
| 23 | // <http://www.gnu.org/licenses/>.
|
---|
| 24 |
|
---|
| 25 | #ifndef _GLIBCXX_EXPERIMENTAL_SIMD_NEON_H_
|
---|
| 26 | #define _GLIBCXX_EXPERIMENTAL_SIMD_NEON_H_
|
---|
| 27 |
|
---|
| 28 | #if __cplusplus >= 201703L
|
---|
| 29 |
|
---|
| 30 | #if !_GLIBCXX_SIMD_HAVE_NEON
|
---|
| 31 | #error "simd_neon.h may only be included when NEON on ARM is available"
|
---|
| 32 | #endif
|
---|
| 33 |
|
---|
| 34 | _GLIBCXX_SIMD_BEGIN_NAMESPACE
|
---|
| 35 |
|
---|
| 36 | // _CommonImplNeon {{{
|
---|
| 37 | struct _CommonImplNeon : _CommonImplBuiltin
|
---|
| 38 | {
|
---|
| 39 | // _S_store {{{
|
---|
| 40 | using _CommonImplBuiltin::_S_store;
|
---|
| 41 |
|
---|
| 42 | // }}}
|
---|
| 43 | };
|
---|
| 44 |
|
---|
| 45 | // }}}
|
---|
| 46 | // _SimdImplNeon {{{
|
---|
| 47 | template <typename _Abi>
|
---|
| 48 | struct _SimdImplNeon : _SimdImplBuiltin<_Abi>
|
---|
| 49 | {
|
---|
| 50 | using _Base = _SimdImplBuiltin<_Abi>;
|
---|
| 51 |
|
---|
| 52 | template <typename _Tp>
|
---|
| 53 | using _MaskMember = typename _Base::template _MaskMember<_Tp>;
|
---|
| 54 |
|
---|
| 55 | template <typename _Tp>
|
---|
| 56 | static constexpr size_t _S_max_store_size = 16;
|
---|
| 57 |
|
---|
| 58 | // _S_masked_load {{{
|
---|
| 59 | template <typename _Tp, size_t _Np, typename _Up>
|
---|
| 60 | static inline _SimdWrapper<_Tp, _Np>
|
---|
| 61 | _S_masked_load(_SimdWrapper<_Tp, _Np> __merge, _MaskMember<_Tp> __k,
|
---|
| 62 | const _Up* __mem) noexcept
|
---|
| 63 | {
|
---|
| 64 | __execute_n_times<_Np>([&](auto __i) {
|
---|
| 65 | if (__k[__i] != 0)
|
---|
| 66 | __merge._M_set(__i, static_cast<_Tp>(__mem[__i]));
|
---|
| 67 | });
|
---|
| 68 | return __merge;
|
---|
| 69 | }
|
---|
| 70 |
|
---|
| 71 | // }}}
|
---|
| 72 | // _S_masked_store_nocvt {{{
|
---|
| 73 | template <typename _Tp, size_t _Np>
|
---|
| 74 | _GLIBCXX_SIMD_INTRINSIC static void
|
---|
| 75 | _S_masked_store_nocvt(_SimdWrapper<_Tp, _Np> __v, _Tp* __mem,
|
---|
| 76 | _MaskMember<_Tp> __k)
|
---|
| 77 | {
|
---|
| 78 | __execute_n_times<_Np>([&](auto __i) {
|
---|
| 79 | if (__k[__i] != 0)
|
---|
| 80 | __mem[__i] = __v[__i];
|
---|
| 81 | });
|
---|
| 82 | }
|
---|
| 83 |
|
---|
| 84 | // }}}
|
---|
| 85 | // _S_reduce {{{
|
---|
| 86 | template <typename _Tp, typename _BinaryOperation>
|
---|
| 87 | _GLIBCXX_SIMD_INTRINSIC static _Tp
|
---|
| 88 | _S_reduce(simd<_Tp, _Abi> __x, _BinaryOperation&& __binary_op)
|
---|
| 89 | {
|
---|
| 90 | constexpr size_t _Np = __x.size();
|
---|
| 91 | if constexpr (sizeof(__x) == 16 && _Np >= 4
|
---|
| 92 | && !_Abi::template _S_is_partial<_Tp>)
|
---|
| 93 | {
|
---|
| 94 | const auto __halves = split<simd<_Tp, simd_abi::_Neon<8>>>(__x);
|
---|
| 95 | const auto __y = __binary_op(__halves[0], __halves[1]);
|
---|
| 96 | return _SimdImplNeon<simd_abi::_Neon<8>>::_S_reduce(
|
---|
| 97 | __y, static_cast<_BinaryOperation&&>(__binary_op));
|
---|
| 98 | }
|
---|
| 99 | else if constexpr (_Np == 8)
|
---|
| 100 | {
|
---|
| 101 | __x = __binary_op(__x, _Base::template _M_make_simd<_Tp, _Np>(
|
---|
| 102 | __vector_permute<1, 0, 3, 2, 5, 4, 7, 6>(
|
---|
| 103 | __x._M_data)));
|
---|
| 104 | __x = __binary_op(__x, _Base::template _M_make_simd<_Tp, _Np>(
|
---|
| 105 | __vector_permute<3, 2, 1, 0, 7, 6, 5, 4>(
|
---|
| 106 | __x._M_data)));
|
---|
| 107 | __x = __binary_op(__x, _Base::template _M_make_simd<_Tp, _Np>(
|
---|
| 108 | __vector_permute<7, 6, 5, 4, 3, 2, 1, 0>(
|
---|
| 109 | __x._M_data)));
|
---|
| 110 | return __x[0];
|
---|
| 111 | }
|
---|
| 112 | else if constexpr (_Np == 4)
|
---|
| 113 | {
|
---|
| 114 | __x
|
---|
| 115 | = __binary_op(__x, _Base::template _M_make_simd<_Tp, _Np>(
|
---|
| 116 | __vector_permute<1, 0, 3, 2>(__x._M_data)));
|
---|
| 117 | __x
|
---|
| 118 | = __binary_op(__x, _Base::template _M_make_simd<_Tp, _Np>(
|
---|
| 119 | __vector_permute<3, 2, 1, 0>(__x._M_data)));
|
---|
| 120 | return __x[0];
|
---|
| 121 | }
|
---|
| 122 | else if constexpr (_Np == 2)
|
---|
| 123 | {
|
---|
| 124 | __x = __binary_op(__x, _Base::template _M_make_simd<_Tp, _Np>(
|
---|
| 125 | __vector_permute<1, 0>(__x._M_data)));
|
---|
| 126 | return __x[0];
|
---|
| 127 | }
|
---|
| 128 | else
|
---|
| 129 | return _Base::_S_reduce(__x,
|
---|
| 130 | static_cast<_BinaryOperation&&>(__binary_op));
|
---|
| 131 | }
|
---|
| 132 |
|
---|
| 133 | // }}}
|
---|
| 134 | // math {{{
|
---|
| 135 | // _S_sqrt {{{
|
---|
| 136 | template <typename _Tp, typename _TVT = _VectorTraits<_Tp>>
|
---|
| 137 | _GLIBCXX_SIMD_INTRINSIC static _Tp _S_sqrt(_Tp __x)
|
---|
| 138 | {
|
---|
| 139 | if constexpr (__have_neon_a64)
|
---|
| 140 | {
|
---|
| 141 | const auto __intrin = __to_intrin(__x);
|
---|
| 142 | if constexpr (_TVT::template _S_is<float, 2>)
|
---|
| 143 | return vsqrt_f32(__intrin);
|
---|
| 144 | else if constexpr (_TVT::template _S_is<float, 4>)
|
---|
| 145 | return vsqrtq_f32(__intrin);
|
---|
| 146 | else if constexpr (_TVT::template _S_is<double, 1>)
|
---|
| 147 | return vsqrt_f64(__intrin);
|
---|
| 148 | else if constexpr (_TVT::template _S_is<double, 2>)
|
---|
| 149 | return vsqrtq_f64(__intrin);
|
---|
| 150 | else
|
---|
| 151 | __assert_unreachable<_Tp>();
|
---|
| 152 | }
|
---|
| 153 | else
|
---|
| 154 | return _Base::_S_sqrt(__x);
|
---|
| 155 | }
|
---|
| 156 |
|
---|
| 157 | // }}}
|
---|
| 158 | // _S_trunc {{{
|
---|
| 159 | template <typename _TW, typename _TVT = _VectorTraits<_TW>>
|
---|
| 160 | _GLIBCXX_SIMD_INTRINSIC static _TW _S_trunc(_TW __x)
|
---|
| 161 | {
|
---|
| 162 | using _Tp = typename _TVT::value_type;
|
---|
| 163 | if constexpr (__have_neon_a32)
|
---|
| 164 | {
|
---|
| 165 | const auto __intrin = __to_intrin(__x);
|
---|
| 166 | if constexpr (_TVT::template _S_is<float, 2>)
|
---|
| 167 | return vrnd_f32(__intrin);
|
---|
| 168 | else if constexpr (_TVT::template _S_is<float, 4>)
|
---|
| 169 | return vrndq_f32(__intrin);
|
---|
| 170 | else if constexpr (_TVT::template _S_is<double, 1>)
|
---|
| 171 | return vrnd_f64(__intrin);
|
---|
| 172 | else if constexpr (_TVT::template _S_is<double, 2>)
|
---|
| 173 | return vrndq_f64(__intrin);
|
---|
| 174 | else
|
---|
| 175 | __assert_unreachable<_Tp>();
|
---|
| 176 | }
|
---|
| 177 | else if constexpr (is_same_v<_Tp, float>)
|
---|
| 178 | {
|
---|
| 179 | auto __intrin = __to_intrin(__x);
|
---|
| 180 | if constexpr (sizeof(__x) == 16)
|
---|
| 181 | __intrin = vcvtq_f32_s32(vcvtq_s32_f32(__intrin));
|
---|
| 182 | else
|
---|
| 183 | __intrin = vcvt_f32_s32(vcvt_s32_f32(__intrin));
|
---|
| 184 | return _Base::_S_abs(__x)._M_data < 0x1p23f
|
---|
| 185 | ? __vector_bitcast<float>(__intrin)
|
---|
| 186 | : __x._M_data;
|
---|
| 187 | }
|
---|
| 188 | else
|
---|
| 189 | return _Base::_S_trunc(__x);
|
---|
| 190 | }
|
---|
| 191 |
|
---|
| 192 | // }}}
|
---|
| 193 | // _S_round {{{
|
---|
| 194 | template <typename _Tp, size_t _Np>
|
---|
| 195 | _GLIBCXX_SIMD_INTRINSIC static _SimdWrapper<_Tp, _Np>
|
---|
| 196 | _S_round(_SimdWrapper<_Tp, _Np> __x)
|
---|
| 197 | {
|
---|
| 198 | if constexpr (__have_neon_a32)
|
---|
| 199 | {
|
---|
| 200 | const auto __intrin = __to_intrin(__x);
|
---|
| 201 | if constexpr (sizeof(_Tp) == 4 && sizeof(__x) == 8)
|
---|
| 202 | return vrnda_f32(__intrin);
|
---|
| 203 | else if constexpr (sizeof(_Tp) == 4 && sizeof(__x) == 16)
|
---|
| 204 | return vrndaq_f32(__intrin);
|
---|
| 205 | else if constexpr (sizeof(_Tp) == 8 && sizeof(__x) == 8)
|
---|
| 206 | return vrnda_f64(__intrin);
|
---|
| 207 | else if constexpr (sizeof(_Tp) == 8 && sizeof(__x) == 16)
|
---|
| 208 | return vrndaq_f64(__intrin);
|
---|
| 209 | else
|
---|
| 210 | __assert_unreachable<_Tp>();
|
---|
| 211 | }
|
---|
| 212 | else
|
---|
| 213 | return _Base::_S_round(__x);
|
---|
| 214 | }
|
---|
| 215 |
|
---|
| 216 | // }}}
|
---|
| 217 | // _S_floor {{{
|
---|
| 218 | template <typename _Tp, typename _TVT = _VectorTraits<_Tp>>
|
---|
| 219 | _GLIBCXX_SIMD_INTRINSIC static _Tp _S_floor(_Tp __x)
|
---|
| 220 | {
|
---|
| 221 | if constexpr (__have_neon_a32)
|
---|
| 222 | {
|
---|
| 223 | const auto __intrin = __to_intrin(__x);
|
---|
| 224 | if constexpr (_TVT::template _S_is<float, 2>)
|
---|
| 225 | return vrndm_f32(__intrin);
|
---|
| 226 | else if constexpr (_TVT::template _S_is<float, 4>)
|
---|
| 227 | return vrndmq_f32(__intrin);
|
---|
| 228 | else if constexpr (_TVT::template _S_is<double, 1>)
|
---|
| 229 | return vrndm_f64(__intrin);
|
---|
| 230 | else if constexpr (_TVT::template _S_is<double, 2>)
|
---|
| 231 | return vrndmq_f64(__intrin);
|
---|
| 232 | else
|
---|
| 233 | __assert_unreachable<_Tp>();
|
---|
| 234 | }
|
---|
| 235 | else
|
---|
| 236 | return _Base::_S_floor(__x);
|
---|
| 237 | }
|
---|
| 238 |
|
---|
| 239 | // }}}
|
---|
| 240 | // _S_ceil {{{
|
---|
| 241 | template <typename _Tp, typename _TVT = _VectorTraits<_Tp>>
|
---|
| 242 | _GLIBCXX_SIMD_INTRINSIC static _Tp _S_ceil(_Tp __x)
|
---|
| 243 | {
|
---|
| 244 | if constexpr (__have_neon_a32)
|
---|
| 245 | {
|
---|
| 246 | const auto __intrin = __to_intrin(__x);
|
---|
| 247 | if constexpr (_TVT::template _S_is<float, 2>)
|
---|
| 248 | return vrndp_f32(__intrin);
|
---|
| 249 | else if constexpr (_TVT::template _S_is<float, 4>)
|
---|
| 250 | return vrndpq_f32(__intrin);
|
---|
| 251 | else if constexpr (_TVT::template _S_is<double, 1>)
|
---|
| 252 | return vrndp_f64(__intrin);
|
---|
| 253 | else if constexpr (_TVT::template _S_is<double, 2>)
|
---|
| 254 | return vrndpq_f64(__intrin);
|
---|
| 255 | else
|
---|
| 256 | __assert_unreachable<_Tp>();
|
---|
| 257 | }
|
---|
| 258 | else
|
---|
| 259 | return _Base::_S_ceil(__x);
|
---|
| 260 | }
|
---|
| 261 |
|
---|
| 262 | //}}} }}}
|
---|
| 263 | }; // }}}
|
---|
| 264 | // _MaskImplNeonMixin {{{
|
---|
| 265 | struct _MaskImplNeonMixin
|
---|
| 266 | {
|
---|
| 267 | using _Base = _MaskImplBuiltinMixin;
|
---|
| 268 |
|
---|
| 269 | template <typename _Tp, size_t _Np>
|
---|
| 270 | _GLIBCXX_SIMD_INTRINSIC static constexpr _SanitizedBitMask<_Np>
|
---|
| 271 | _S_to_bits(_SimdWrapper<_Tp, _Np> __x)
|
---|
| 272 | {
|
---|
| 273 | if (__builtin_is_constant_evaluated())
|
---|
| 274 | return _Base::_S_to_bits(__x);
|
---|
| 275 |
|
---|
| 276 | using _I = __int_for_sizeof_t<_Tp>;
|
---|
| 277 | if constexpr (sizeof(__x) == 16)
|
---|
| 278 | {
|
---|
| 279 | auto __asint = __vector_bitcast<_I>(__x);
|
---|
| 280 | #ifdef __aarch64__
|
---|
| 281 | [[maybe_unused]] constexpr auto __zero = decltype(__asint)();
|
---|
| 282 | #else
|
---|
| 283 | [[maybe_unused]] constexpr auto __zero = decltype(__lo64(__asint))();
|
---|
| 284 | #endif
|
---|
| 285 | if constexpr (sizeof(_Tp) == 1)
|
---|
| 286 | {
|
---|
| 287 | constexpr auto __bitsel
|
---|
| 288 | = __generate_from_n_evaluations<16, __vector_type_t<_I, 16>>(
|
---|
| 289 | [&](auto __i) {
|
---|
| 290 | return static_cast<_I>(
|
---|
| 291 | __i < _Np ? (__i < 8 ? 1 << __i : 1 << (__i - 8)) : 0);
|
---|
| 292 | });
|
---|
| 293 | __asint &= __bitsel;
|
---|
| 294 | #ifdef __aarch64__
|
---|
| 295 | return __vector_bitcast<_UShort>(
|
---|
| 296 | vpaddq_s8(vpaddq_s8(vpaddq_s8(__asint, __zero), __zero),
|
---|
| 297 | __zero))[0];
|
---|
| 298 | #else
|
---|
| 299 | return __vector_bitcast<_UShort>(
|
---|
| 300 | vpadd_s8(vpadd_s8(vpadd_s8(__lo64(__asint), __hi64(__asint)),
|
---|
| 301 | __zero),
|
---|
| 302 | __zero))[0];
|
---|
| 303 | #endif
|
---|
| 304 | }
|
---|
| 305 | else if constexpr (sizeof(_Tp) == 2)
|
---|
| 306 | {
|
---|
| 307 | constexpr auto __bitsel
|
---|
| 308 | = __generate_from_n_evaluations<8, __vector_type_t<_I, 8>>(
|
---|
| 309 | [&](auto __i) {
|
---|
| 310 | return static_cast<_I>(__i < _Np ? 1 << __i : 0);
|
---|
| 311 | });
|
---|
| 312 | __asint &= __bitsel;
|
---|
| 313 | #ifdef __aarch64__
|
---|
| 314 | return vaddvq_s16(__asint);
|
---|
| 315 | #else
|
---|
| 316 | return vpadd_s16(
|
---|
| 317 | vpadd_s16(vpadd_s16(__lo64(__asint), __hi64(__asint)), __zero),
|
---|
| 318 | __zero)[0];
|
---|
| 319 | #endif
|
---|
| 320 | }
|
---|
| 321 | else if constexpr (sizeof(_Tp) == 4)
|
---|
| 322 | {
|
---|
| 323 | constexpr auto __bitsel
|
---|
| 324 | = __generate_from_n_evaluations<4, __vector_type_t<_I, 4>>(
|
---|
| 325 | [&](auto __i) {
|
---|
| 326 | return static_cast<_I>(__i < _Np ? 1 << __i : 0);
|
---|
| 327 | });
|
---|
| 328 | __asint &= __bitsel;
|
---|
| 329 | #ifdef __aarch64__
|
---|
| 330 | return vaddvq_s32(__asint);
|
---|
| 331 | #else
|
---|
| 332 | return vpadd_s32(vpadd_s32(__lo64(__asint), __hi64(__asint)),
|
---|
| 333 | __zero)[0];
|
---|
| 334 | #endif
|
---|
| 335 | }
|
---|
| 336 | else if constexpr (sizeof(_Tp) == 8)
|
---|
| 337 | return (__asint[0] & 1) | (__asint[1] & 2);
|
---|
| 338 | else
|
---|
| 339 | __assert_unreachable<_Tp>();
|
---|
| 340 | }
|
---|
| 341 | else if constexpr (sizeof(__x) == 8)
|
---|
| 342 | {
|
---|
| 343 | auto __asint = __vector_bitcast<_I>(__x);
|
---|
| 344 | [[maybe_unused]] constexpr auto __zero = decltype(__asint)();
|
---|
| 345 | if constexpr (sizeof(_Tp) == 1)
|
---|
| 346 | {
|
---|
| 347 | constexpr auto __bitsel
|
---|
| 348 | = __generate_from_n_evaluations<8, __vector_type_t<_I, 8>>(
|
---|
| 349 | [&](auto __i) {
|
---|
| 350 | return static_cast<_I>(__i < _Np ? 1 << __i : 0);
|
---|
| 351 | });
|
---|
| 352 | __asint &= __bitsel;
|
---|
| 353 | #ifdef __aarch64__
|
---|
| 354 | return vaddv_s8(__asint);
|
---|
| 355 | #else
|
---|
| 356 | return vpadd_s8(vpadd_s8(vpadd_s8(__asint, __zero), __zero),
|
---|
| 357 | __zero)[0];
|
---|
| 358 | #endif
|
---|
| 359 | }
|
---|
| 360 | else if constexpr (sizeof(_Tp) == 2)
|
---|
| 361 | {
|
---|
| 362 | constexpr auto __bitsel
|
---|
| 363 | = __generate_from_n_evaluations<4, __vector_type_t<_I, 4>>(
|
---|
| 364 | [&](auto __i) {
|
---|
| 365 | return static_cast<_I>(__i < _Np ? 1 << __i : 0);
|
---|
| 366 | });
|
---|
| 367 | __asint &= __bitsel;
|
---|
| 368 | #ifdef __aarch64__
|
---|
| 369 | return vaddv_s16(__asint);
|
---|
| 370 | #else
|
---|
| 371 | return vpadd_s16(vpadd_s16(__asint, __zero), __zero)[0];
|
---|
| 372 | #endif
|
---|
| 373 | }
|
---|
| 374 | else if constexpr (sizeof(_Tp) == 4)
|
---|
| 375 | {
|
---|
| 376 | __asint &= __make_vector<_I>(0x1, 0x2);
|
---|
| 377 | #ifdef __aarch64__
|
---|
| 378 | return vaddv_s32(__asint);
|
---|
| 379 | #else
|
---|
| 380 | return vpadd_s32(__asint, __zero)[0];
|
---|
| 381 | #endif
|
---|
| 382 | }
|
---|
| 383 | else
|
---|
| 384 | __assert_unreachable<_Tp>();
|
---|
| 385 | }
|
---|
| 386 | else
|
---|
| 387 | return _Base::_S_to_bits(__x);
|
---|
| 388 | }
|
---|
| 389 | };
|
---|
| 390 |
|
---|
| 391 | // }}}
|
---|
| 392 | // _MaskImplNeon {{{
|
---|
| 393 | template <typename _Abi>
|
---|
| 394 | struct _MaskImplNeon : _MaskImplNeonMixin, _MaskImplBuiltin<_Abi>
|
---|
| 395 | {
|
---|
| 396 | using _MaskImplBuiltinMixin::_S_to_maskvector;
|
---|
| 397 | using _MaskImplNeonMixin::_S_to_bits;
|
---|
| 398 | using _Base = _MaskImplBuiltin<_Abi>;
|
---|
| 399 | using _Base::_S_convert;
|
---|
| 400 |
|
---|
| 401 | // _S_all_of {{{
|
---|
| 402 | template <typename _Tp>
|
---|
| 403 | _GLIBCXX_SIMD_INTRINSIC static bool _S_all_of(simd_mask<_Tp, _Abi> __k)
|
---|
| 404 | {
|
---|
| 405 | const auto __kk
|
---|
| 406 | = __vector_bitcast<char>(__k._M_data)
|
---|
| 407 | | ~__vector_bitcast<char>(_Abi::template _S_implicit_mask<_Tp>());
|
---|
| 408 | if constexpr (sizeof(__k) == 16)
|
---|
| 409 | {
|
---|
| 410 | const auto __x = __vector_bitcast<long long>(__kk);
|
---|
| 411 | return __x[0] + __x[1] == -2;
|
---|
| 412 | }
|
---|
| 413 | else if constexpr (sizeof(__k) <= 8)
|
---|
| 414 | return __bit_cast<__int_for_sizeof_t<decltype(__kk)>>(__kk) == -1;
|
---|
| 415 | else
|
---|
| 416 | __assert_unreachable<_Tp>();
|
---|
| 417 | }
|
---|
| 418 |
|
---|
| 419 | // }}}
|
---|
| 420 | // _S_any_of {{{
|
---|
| 421 | template <typename _Tp>
|
---|
| 422 | _GLIBCXX_SIMD_INTRINSIC static bool _S_any_of(simd_mask<_Tp, _Abi> __k)
|
---|
| 423 | {
|
---|
| 424 | const auto __kk
|
---|
| 425 | = __vector_bitcast<char>(__k._M_data)
|
---|
| 426 | | ~__vector_bitcast<char>(_Abi::template _S_implicit_mask<_Tp>());
|
---|
| 427 | if constexpr (sizeof(__k) == 16)
|
---|
| 428 | {
|
---|
| 429 | const auto __x = __vector_bitcast<long long>(__kk);
|
---|
| 430 | return (__x[0] | __x[1]) != 0;
|
---|
| 431 | }
|
---|
| 432 | else if constexpr (sizeof(__k) <= 8)
|
---|
| 433 | return __bit_cast<__int_for_sizeof_t<decltype(__kk)>>(__kk) != 0;
|
---|
| 434 | else
|
---|
| 435 | __assert_unreachable<_Tp>();
|
---|
| 436 | }
|
---|
| 437 |
|
---|
| 438 | // }}}
|
---|
| 439 | // _S_none_of {{{
|
---|
| 440 | template <typename _Tp>
|
---|
| 441 | _GLIBCXX_SIMD_INTRINSIC static bool _S_none_of(simd_mask<_Tp, _Abi> __k)
|
---|
| 442 | {
|
---|
| 443 | const auto __kk = _Abi::_S_masked(__k._M_data);
|
---|
| 444 | if constexpr (sizeof(__k) == 16)
|
---|
| 445 | {
|
---|
| 446 | const auto __x = __vector_bitcast<long long>(__kk);
|
---|
| 447 | return (__x[0] | __x[1]) == 0;
|
---|
| 448 | }
|
---|
| 449 | else if constexpr (sizeof(__k) <= 8)
|
---|
| 450 | return __bit_cast<__int_for_sizeof_t<decltype(__kk)>>(__kk) == 0;
|
---|
| 451 | else
|
---|
| 452 | __assert_unreachable<_Tp>();
|
---|
| 453 | }
|
---|
| 454 |
|
---|
| 455 | // }}}
|
---|
| 456 | // _S_some_of {{{
|
---|
| 457 | template <typename _Tp>
|
---|
| 458 | _GLIBCXX_SIMD_INTRINSIC static bool _S_some_of(simd_mask<_Tp, _Abi> __k)
|
---|
| 459 | {
|
---|
| 460 | if constexpr (sizeof(__k) <= 8)
|
---|
| 461 | {
|
---|
| 462 | const auto __kk = __vector_bitcast<char>(__k._M_data)
|
---|
| 463 | | ~__vector_bitcast<char>(
|
---|
| 464 | _Abi::template _S_implicit_mask<_Tp>());
|
---|
| 465 | using _Up = make_unsigned_t<__int_for_sizeof_t<decltype(__kk)>>;
|
---|
| 466 | return __bit_cast<_Up>(__kk) + 1 > 1;
|
---|
| 467 | }
|
---|
| 468 | else
|
---|
| 469 | return _Base::_S_some_of(__k);
|
---|
| 470 | }
|
---|
| 471 |
|
---|
| 472 | // }}}
|
---|
| 473 | // _S_popcount {{{
|
---|
| 474 | template <typename _Tp>
|
---|
| 475 | _GLIBCXX_SIMD_INTRINSIC static int _S_popcount(simd_mask<_Tp, _Abi> __k)
|
---|
| 476 | {
|
---|
| 477 | if constexpr (sizeof(_Tp) == 1)
|
---|
| 478 | {
|
---|
| 479 | const auto __s8 = __vector_bitcast<_SChar>(__k._M_data);
|
---|
| 480 | int8x8_t __tmp = __lo64(__s8) + __hi64z(__s8);
|
---|
| 481 | return -vpadd_s8(vpadd_s8(vpadd_s8(__tmp, int8x8_t()), int8x8_t()),
|
---|
| 482 | int8x8_t())[0];
|
---|
| 483 | }
|
---|
| 484 | else if constexpr (sizeof(_Tp) == 2)
|
---|
| 485 | {
|
---|
| 486 | const auto __s16 = __vector_bitcast<short>(__k._M_data);
|
---|
| 487 | int16x4_t __tmp = __lo64(__s16) + __hi64z(__s16);
|
---|
| 488 | return -vpadd_s16(vpadd_s16(__tmp, int16x4_t()), int16x4_t())[0];
|
---|
| 489 | }
|
---|
| 490 | else if constexpr (sizeof(_Tp) == 4)
|
---|
| 491 | {
|
---|
| 492 | const auto __s32 = __vector_bitcast<int>(__k._M_data);
|
---|
| 493 | int32x2_t __tmp = __lo64(__s32) + __hi64z(__s32);
|
---|
| 494 | return -vpadd_s32(__tmp, int32x2_t())[0];
|
---|
| 495 | }
|
---|
| 496 | else if constexpr (sizeof(_Tp) == 8)
|
---|
| 497 | {
|
---|
| 498 | static_assert(sizeof(__k) == 16);
|
---|
| 499 | const auto __s64 = __vector_bitcast<long>(__k._M_data);
|
---|
| 500 | return -(__s64[0] + __s64[1]);
|
---|
| 501 | }
|
---|
| 502 | }
|
---|
| 503 |
|
---|
| 504 | // }}}
|
---|
| 505 | // _S_find_first_set {{{
|
---|
| 506 | template <typename _Tp>
|
---|
| 507 | _GLIBCXX_SIMD_INTRINSIC static int
|
---|
| 508 | _S_find_first_set(simd_mask<_Tp, _Abi> __k)
|
---|
| 509 | {
|
---|
| 510 | // TODO: the _Base implementation is not optimal for NEON
|
---|
| 511 | return _Base::_S_find_first_set(__k);
|
---|
| 512 | }
|
---|
| 513 |
|
---|
| 514 | // }}}
|
---|
| 515 | // _S_find_last_set {{{
|
---|
| 516 | template <typename _Tp>
|
---|
| 517 | _GLIBCXX_SIMD_INTRINSIC static int
|
---|
| 518 | _S_find_last_set(simd_mask<_Tp, _Abi> __k)
|
---|
| 519 | {
|
---|
| 520 | // TODO: the _Base implementation is not optimal for NEON
|
---|
| 521 | return _Base::_S_find_last_set(__k);
|
---|
| 522 | }
|
---|
| 523 |
|
---|
| 524 | // }}}
|
---|
| 525 | }; // }}}
|
---|
| 526 |
|
---|
| 527 | _GLIBCXX_SIMD_END_NAMESPACE
|
---|
| 528 | #endif // __cplusplus >= 201703L
|
---|
| 529 | #endif // _GLIBCXX_EXPERIMENTAL_SIMD_NEON_H_
|
---|
| 530 | // vim: foldmethod=marker sw=2 noet ts=8 sts=2 tw=80
|
---|