implemented Setup.hs to build boehm cpp libs and install them;
[hs-boehmgc.git] / gc-7.2 / libatomic_ops / src / atomic_ops / sysdeps / gcc / hppa.h
1 /*
2  * Copyright (c) 2003 Hewlett-Packard Development Company, L.P.
3  *
4  * Permission is hereby granted, free of charge, to any person obtaining a copy
5  * of this software and associated documentation files (the "Software"), to deal
6  * in the Software without restriction, including without limitation the rights
7  * to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
8  * copies of the Software, and to permit persons to whom the Software is
9  * furnished to do so, subject to the following conditions:
10  *
11  * The above copyright notice and this permission notice shall be included in
12  * all copies or substantial portions of the Software.
13  *
14  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
15  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
16  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
17  * AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
18  * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
19  * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
20  * SOFTWARE.
21  *
22  * Modified by Carlos O'Donell <carlos@baldric.uwo.ca>, 2003
23  *      - Added self-aligning lock.
24  *
25  */
26
27 #include "../all_atomic_load_store.h"
28
29 /* Some architecture set descriptions include special "ordered" memory  */
30 /* operations.  As far as we can tell, no existing processors actually  */
31 /* require those.  Nor does it appear likely that future processors     */
32 /* will.                                                                */
33 #include "../ordered.h"
34
35 /* GCC will not guarantee the alignment we need, use four lock words    */
36 /* and select the correctly aligned datum. See the glibc 2.3.2          */
37 /* linuxthread port for the original implementation.                    */
38 struct AO_pa_clearable_loc {
39   int data[4];
40 };
41
42 #undef AO_TS_INITIALIZER
43 #define AO_TS_t struct AO_pa_clearable_loc
44 #define AO_TS_INITIALIZER {1,1,1,1}
45 /* Switch meaning of set and clear, since we only have an atomic clear  */
46 /* instruction.                                                         */
47 typedef enum {AO_PA_TS_set = 0, AO_PA_TS_clear = 1} AO_PA_TS_val;
48 #define AO_TS_VAL_t AO_PA_TS_val
49 #define AO_TS_CLEAR AO_PA_TS_clear
50 #define AO_TS_SET AO_PA_TS_set
51
52 /* The hppa only has one atomic read and modify memory operation,       */
53 /* load and clear, so hppa spinlocks must use zero to signify that      */
54 /* someone is holding the lock.  The address used for the ldcw          */
55 /* semaphore must be 16-byte aligned.                                   */
56
57 #define __ldcw(a) ({ \
58   volatile unsigned int __ret;                                  \
59   __asm__ __volatile__("ldcw 0(%2),%0"                          \
60                       : "=r" (__ret), "=m" (*(a)) : "r" (a));   \
61   __ret;                                                        \
62 })
63
64 /* Because malloc only guarantees 8-byte alignment for malloc'd data,   */
65 /* and GCC only guarantees 8-byte alignment for stack locals, we can't  */
66 /* be assured of 16-byte alignment for atomic lock data even if we      */
67 /* specify "__attribute ((aligned(16)))" in the type declaration.  So,  */
68 /* we use a struct containing an array of four ints for the atomic lock */
69 /* type and dynamically select the 16-byte aligned int from the array   */
70 /* for the semaphore.                                                   */
71 #define __PA_LDCW_ALIGNMENT 16
72 #define __ldcw_align(a) ({ \
73   unsigned long __ret = (unsigned long) a;                      \
74   __ret += __PA_LDCW_ALIGNMENT - 1;                                     \
75   __ret &= ~(__PA_LDCW_ALIGNMENT - 1);                                  \
76   (volatile unsigned int *) __ret;                                      \
77 })
78
79 /* Works on PA 1.1 and PA 2.0 systems */
80 AO_INLINE AO_TS_VAL_t
81 AO_test_and_set_full(volatile AO_TS_t * addr)
82 {
83   volatile unsigned int *a = __ldcw_align (addr);
84   return (AO_TS_VAL_t) __ldcw (a);
85 }
86 #define AO_HAVE_test_and_set_full
87
88 AO_INLINE void
89 AO_pa_clear(volatile AO_TS_t * addr)
90 {
91   volatile unsigned int *a = __ldcw_align (addr);
92   AO_compiler_barrier();
93   *a = 1;
94 }
95 #define AO_CLEAR(addr) AO_pa_clear(addr)