remove trailing whitespace
[coreboot.git] / src / include / cpu / x86 / cache.h
index af7d3d52ef2d13c6c01538d20f5115673423d35c..c2de073a521972a6f2edde3a46452a7e3599d5e1 100644 (file)
@@ -1,28 +1,90 @@
+/*
+ * This file is part of the coreboot project.
+ *
+ * Copyright (C) 2004 Eric W. Biederman
+ *
+ * This program is free software; you can redistribute it and/or modify
+ * it under the terms of the GNU General Public License as published by
+ * the Free Software Foundation; version 2 of the License.
+ *
+ * This program is distributed in the hope that it will be useful,
+ * but WITHOUT ANY WARRANTY; without even the implied warranty of
+ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
+ * GNU General Public License for more details.
+ *
+ * You should have received a copy of the GNU General Public License
+ * along with this program; if not, write to the Free Software
+ * Foundation, Inc., 51 Franklin St, Fifth Floor, Boston, MA 02110-1301 USA
+ */
+
 #ifndef CPU_X86_CACHE
 #define CPU_X86_CACHE
 
+/*
+ * Need two versions because ROMCC chokes on certain clobbers:
+ * cache.h:29.71: cache.h:60.24: earlymtrr.c:117.23: romstage.c:144.33:
+ * 0x1559920 asm        Internal compiler error: lhs 1 regcm == 0
+ */
+
+#if defined(__GNUC__)
+
+/* The memory clobber prevents the GCC from reordering the read/write order
+ * of CR0
+ */
 static inline unsigned long read_cr0(void)
 {
        unsigned long cr0;
-       asm volatile ("movl %%cr0, %0" : "=r" (cr0));
+       asm volatile ("movl %%cr0, %0" : "=r" (cr0) :: "memory");
        return cr0;
 }
 
 static inline void write_cr0(unsigned long cr0)
 {
-       asm volatile ("movl %0, %%cr0" : : "r" (cr0));
+       asm volatile ("movl %0, %%cr0" : : "r" (cr0) : "memory");
 }
 
-static inline void invd(void)
+static inline void wbinvd(void)
 {
-       asm volatile("invd" ::: "memory");
+       asm volatile ("wbinvd" ::: "memory");
+}
+
+#else
+
+static inline unsigned long read_cr0(void)
+{
+       unsigned long cr0;
+       asm volatile ("movl %%cr0, %0" : "=r" (cr0));
+       return cr0;
+}
+
+static inline void write_cr0(unsigned long cr0)
+{
+       asm volatile ("movl %0, %%cr0" : : "r" (cr0));
 }
+
 static inline void wbinvd(void)
 {
        asm volatile ("wbinvd");
 }
 
-static inline void enable_cache(void)
+#endif
+
+static inline void invd(void)
+{
+       asm volatile("invd" ::: "memory");
+}
+
+/* The following functions require the always_inline due to AMD
+ * function STOP_CAR_AND_CPU that disables cache as
+ * ram, the cache as ram stack can no longer be used. Called
+ * functions must be inlined to avoid stack usage. Also, the
+ * compiler must keep local variables register based and not
+ * allocated them from the stack. With gcc 4.5.0, some functions
+ * declared as inline are not being inlined. This patch forces
+ * these functions to always be inlined by adding the qualifier
+ * __attribute__((always_inline)) to their declaration.
+ */
+static inline __attribute__((always_inline)) void enable_cache(void)
 {
        unsigned long cr0;
        cr0 = read_cr0();
@@ -30,7 +92,7 @@ static inline void enable_cache(void)
        write_cr0(cr0);
 }
 
-static inline void disable_cache(void)
+static inline __attribute__((always_inline)) void disable_cache(void)
 {
        /* Disable and write back the cache */
        unsigned long cr0;
@@ -41,8 +103,8 @@ static inline void disable_cache(void)
        wbinvd();
 }
 
-#if !defined( __ROMCC__)  && defined (__GNUC__)
+#if !defined(__PRE_RAM__)
 void x86_enable_cache(void);
-#endif /* !__ROMCC__ */
+#endif
 
 #endif /* CPU_X86_CACHE */