|
1 | 1 | #include "common.hpp"
|
2 | 2 | #include "element_wise.hpp"
|
| 3 | +#include "ggml-impl.h" |
3 | 4 |
|
4 | 5 | void acc_f32(const float * x, const float * y, float * dst, const int ne,
|
5 | 6 | const int ne10, const int ne11, const int ne12,
|
@@ -883,148 +884,148 @@ inline void ggml_sycl_op_div(ggml_backend_sycl_context & ctx, const ggml_tensor
|
883 | 884 |
|
884 | 885 |
|
885 | 886 | void ggml_sycl_sqrt(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
886 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 887 | + GGML_LOG_DEBUG("call %s\n", __func__); |
887 | 888 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sqrt);
|
888 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 889 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
889 | 890 | }
|
890 | 891 |
|
891 | 892 | void ggml_sycl_sin(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
892 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 893 | + GGML_LOG_DEBUG("call %s\n", __func__); |
893 | 894 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sin);
|
894 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 895 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
895 | 896 | }
|
896 | 897 |
|
897 | 898 | void ggml_sycl_cos(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
898 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 899 | + GGML_LOG_DEBUG("call %s\n", __func__); |
899 | 900 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_cos);
|
900 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 901 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
901 | 902 | }
|
902 | 903 |
|
903 | 904 | void ggml_sycl_acc(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
904 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 905 | + GGML_LOG_DEBUG("call %s\n", __func__); |
905 | 906 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_acc);
|
906 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 907 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
907 | 908 | }
|
908 | 909 |
|
909 | 910 | void ggml_sycl_gelu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
910 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 911 | + GGML_LOG_DEBUG("call %s\n", __func__); |
911 | 912 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_gelu);
|
912 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 913 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
913 | 914 | }
|
914 | 915 |
|
915 | 916 | void ggml_sycl_silu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
916 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 917 | + GGML_LOG_DEBUG("call %s\n", __func__); |
917 | 918 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_silu);
|
918 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 919 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
919 | 920 | }
|
920 | 921 |
|
921 | 922 | void ggml_sycl_gelu_quick(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
922 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 923 | + GGML_LOG_DEBUG("call %s\n", __func__); |
923 | 924 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_gelu_quick);
|
924 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 925 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
925 | 926 | }
|
926 | 927 |
|
927 | 928 | void ggml_sycl_tanh(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
928 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 929 | + GGML_LOG_DEBUG("call %s\n", __func__); |
929 | 930 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_tanh);
|
930 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 931 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
931 | 932 | }
|
932 | 933 |
|
933 | 934 | void ggml_sycl_relu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
934 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 935 | + GGML_LOG_DEBUG("call %s\n", __func__); |
935 | 936 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_relu);
|
936 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 937 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
937 | 938 | }
|
938 | 939 |
|
939 | 940 | void ggml_sycl_sigmoid(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
940 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 941 | + GGML_LOG_DEBUG("call %s\n", __func__); |
941 | 942 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sigmoid);
|
942 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 943 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
943 | 944 | }
|
944 | 945 |
|
945 | 946 | void ggml_sycl_hardsigmoid(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
946 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 947 | + GGML_LOG_DEBUG("call %s\n", __func__); |
947 | 948 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_hardsigmoid);
|
948 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 949 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
949 | 950 | }
|
950 | 951 |
|
951 | 952 | void ggml_sycl_hardswish(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
952 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 953 | + GGML_LOG_DEBUG("call %s\n", __func__); |
953 | 954 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_hardswish);
|
954 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 955 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
955 | 956 | }
|
956 | 957 |
|
957 | 958 |
|
958 | 959 | void ggml_sycl_exp(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
959 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 960 | + GGML_LOG_DEBUG("call %s\n", __func__); |
960 | 961 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_exp);
|
961 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 962 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
962 | 963 | }
|
963 | 964 |
|
964 | 965 | void ggml_sycl_log(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
965 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 966 | + GGML_LOG_DEBUG("call %s\n", __func__); |
966 | 967 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_log);
|
967 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 968 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
968 | 969 | }
|
969 | 970 |
|
970 | 971 | void ggml_sycl_neg(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
971 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 972 | + GGML_LOG_DEBUG("call %s\n", __func__); |
972 | 973 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_neg);
|
973 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 974 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
974 | 975 | }
|
975 | 976 |
|
976 | 977 | void ggml_sycl_step(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
977 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 978 | + GGML_LOG_DEBUG("call %s\n", __func__); |
978 | 979 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_step);
|
979 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 980 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
980 | 981 | }
|
981 | 982 |
|
982 | 983 | void ggml_sycl_leaky_relu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
983 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 984 | + GGML_LOG_DEBUG("call %s\n", __func__); |
984 | 985 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_leaky_relu);
|
985 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 986 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
986 | 987 | }
|
987 | 988 |
|
988 | 989 | void ggml_sycl_sqr(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
989 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 990 | + GGML_LOG_DEBUG("call %s\n", __func__); |
990 | 991 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sqr);
|
991 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 992 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
992 | 993 | }
|
993 | 994 |
|
994 | 995 | void ggml_sycl_upscale(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
995 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 996 | + GGML_LOG_DEBUG("call %s\n", __func__); |
996 | 997 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_upscale);
|
997 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 998 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
998 | 999 | }
|
999 | 1000 |
|
1000 | 1001 | void ggml_sycl_pad(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
1001 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 1002 | + GGML_LOG_DEBUG("call %s\n", __func__); |
1002 | 1003 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_pad);
|
1003 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 1004 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
1004 | 1005 | }
|
1005 | 1006 |
|
1006 | 1007 |
|
1007 | 1008 |
|
1008 | 1009 | void ggml_sycl_add(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
1009 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 1010 | + GGML_LOG_DEBUG("call %s\n", __func__); |
1010 | 1011 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_add);
|
1011 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 1012 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
1012 | 1013 | }
|
1013 | 1014 |
|
1014 | 1015 | void ggml_sycl_sub(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
1015 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 1016 | + GGML_LOG_DEBUG("call %s\n", __func__); |
1016 | 1017 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sub);
|
1017 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 1018 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
1018 | 1019 | }
|
1019 | 1020 |
|
1020 | 1021 | void ggml_sycl_mul(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
1021 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 1022 | + GGML_LOG_DEBUG("call %s\n", __func__); |
1022 | 1023 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_mul);
|
1023 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 1024 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
1024 | 1025 | }
|
1025 | 1026 |
|
1026 | 1027 | void ggml_sycl_div(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) {
|
1027 |
| - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 1028 | + GGML_LOG_DEBUG("call %s\n", __func__); |
1028 | 1029 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_div);
|
1029 |
| - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 1030 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
1030 | 1031 | }
|
0 commit comments