Add constants for fast path resume copying
[coreboot.git] / src / include / cpu / x86 / msr.h
index c4bc55a34338bfef5a74e879f13e6fd492338f39..40926df602e4633c61851e9dc956d5b7ef3c9c14 100644 (file)
@@ -1,7 +1,7 @@
 #ifndef CPU_X86_MSR_H
 #define CPU_X86_MSR_H
 
-#if defined( __ROMCC__) && !defined (__GNUC__)
+#if defined(__ROMCC__)
 
 typedef __builtin_msr_t msr_t;
 
@@ -17,13 +17,29 @@ static void wrmsr(unsigned long index, msr_t msr)
 
 #else
 
-typedef struct msr_struct 
+typedef struct msr_struct
 {
        unsigned lo;
        unsigned hi;
 } msr_t;
 
-static inline msr_t rdmsr(unsigned index)
+typedef struct msrinit_struct
+{
+        unsigned index;
+        msr_t msr;
+} msrinit_t;
+
+/* The following functions require the always_inline due to AMD
+ * function STOP_CAR_AND_CPU that disables cache as
+ * ram, the cache as ram stack can no longer be used. Called
+ * functions must be inlined to avoid stack usage. Also, the
+ * compiler must keep local variables register based and not
+ * allocated them from the stack. With gcc 4.5.0, some functions
+ * declared as inline are not being inlined. This patch forces
+ * these functions to always be inlined by adding the qualifier
+ * __attribute__((always_inline)) to their declaration.
+ */
+static inline __attribute__((always_inline)) msr_t rdmsr(unsigned index)
 {
        msr_t result;
        __asm__ __volatile__ (
@@ -34,7 +50,7 @@ static inline msr_t rdmsr(unsigned index)
        return result;
 }
 
-static inline void wrmsr(unsigned index, msr_t msr)
+static inline __attribute__((always_inline)) void wrmsr(unsigned index, msr_t msr)
 {
        __asm__ __volatile__ (
                "wrmsr"
@@ -43,7 +59,6 @@ static inline void wrmsr(unsigned index, msr_t msr)
                );
 }
 
-#endif /* ROMCC__ && !__GNUC__ */
-
+#endif /* __ROMCC__ */
 
 #endif /* CPU_X86_MSR_H */