623a3443d5747b5b2f809f63b5ea3604d8ea82e6
[coreboot.git] / src / cpu / amd / mtrr / amd_mtrr.c
1 #include <console/console.h>
2 #include <device/device.h>
3 #include <arch/cpu.h>
4 #include <cpu/x86/mtrr.h>
5 #include <cpu/amd/mtrr.h>
6 #include <cpu/x86/cache.h>
7 #include <cpu/x86/msr.h>
8
9 #if CONFIG_GFXUMA == 1
10 extern uint64_t uma_memory_size;
11 #endif
12
13 static unsigned long resk(uint64_t value)
14 {
15         unsigned long resultk;
16         if (value < (1ULL << 42)) {
17                 resultk = value >> 10;
18         }
19         else {
20                 resultk = 0xffffffff;
21         }
22         return resultk;
23 }
24
25 static unsigned fixed_mtrr_index(unsigned long addrk)
26 {
27         unsigned index;
28         index = (addrk - 0) >> 6;
29         if (index >= 8) {
30                 index = ((addrk - 8*64) >> 4) + 8;
31         }
32         if (index >= 24) {
33                 index = ((addrk - (8*64 + 16*16)) >> 2) + 24;
34         }
35         if (index > NUM_FIXED_RANGES) {
36                 index = NUM_FIXED_RANGES;
37         }
38         return index;
39 }
40
41 static unsigned int mtrr_msr[] = {
42         MTRRfix64K_00000_MSR, MTRRfix16K_80000_MSR, MTRRfix16K_A0000_MSR,
43         MTRRfix4K_C0000_MSR, MTRRfix4K_C8000_MSR, MTRRfix4K_D0000_MSR, MTRRfix4K_D8000_MSR,
44         MTRRfix4K_E0000_MSR, MTRRfix4K_E8000_MSR, MTRRfix4K_F0000_MSR, MTRRfix4K_F8000_MSR,
45 };
46
47 static void set_fixed_mtrrs(unsigned int first, unsigned int last, unsigned char type)
48 {
49         unsigned int i;
50         unsigned int fixed_msr = NUM_FIXED_RANGES >> 3;
51         msr_t msr;
52         msr.lo = msr.hi = 0; /* Shut up gcc */
53         for (i = first; i < last; i++) {
54                 /* When I switch to a new msr read it in */
55                 if (fixed_msr != i >> 3) {
56                         /* But first write out the old msr */
57                         if (fixed_msr < (NUM_FIXED_RANGES >> 3)) {
58                                 disable_cache();
59                                 wrmsr(mtrr_msr[fixed_msr], msr);
60                                 enable_cache();
61                         }
62                         fixed_msr = i>>3;
63                         msr = rdmsr(mtrr_msr[fixed_msr]);
64                 }
65                 if ((i & 7) < 4) {
66                         msr.lo &= ~(0xff << ((i&3)*8));
67                         msr.lo |= type << ((i&3)*8);
68                 } else {
69                         msr.hi &= ~(0xff << ((i&3)*8));
70                         msr.hi |= type << ((i&3)*8);
71                 }
72         }
73         /* Write out the final msr */
74         if (fixed_msr < (NUM_FIXED_RANGES >> 3)) {
75                 disable_cache();
76                 wrmsr(mtrr_msr[fixed_msr], msr);
77                 enable_cache();
78         }
79 }
80
81 struct mem_state {
82         unsigned long mmio_basek, tomk;
83 };
84 static void set_fixed_mtrr_resource(void *gp, struct device *dev, struct resource *res)
85 {
86         struct mem_state *state = gp;
87         unsigned long topk;
88         unsigned int start_mtrr;
89         unsigned int last_mtrr;
90
91         topk = resk(res->base + res->size);
92         if (state->tomk < topk) {
93                 state->tomk = topk;
94         }
95         if ((topk < 4*1024*1024) && (state->mmio_basek < topk)) {
96                 state->mmio_basek = topk;
97         }
98         start_mtrr = fixed_mtrr_index(resk(res->base));
99         last_mtrr  = fixed_mtrr_index(resk((res->base + res->size)));
100         if (start_mtrr >= NUM_FIXED_RANGES) {
101                 return;
102         }
103         printk(BIOS_DEBUG, "Setting fixed MTRRs(%d-%d) Type: WB, RdMEM, WrMEM\n",
104                 start_mtrr, last_mtrr);
105         set_fixed_mtrrs(start_mtrr, last_mtrr, MTRR_TYPE_WRBACK | MTRR_READ_MEM | MTRR_WRITE_MEM);
106
107 }
108
109 void amd_setup_mtrrs(void)
110 {
111         unsigned long address_bits;
112         struct mem_state state;
113         unsigned long i;
114         msr_t msr, sys_cfg;
115
116
117         /* Enable the access to AMD RdDram and WrDram extension bits */
118         disable_cache();
119         sys_cfg = rdmsr(SYSCFG_MSR);
120         sys_cfg.lo |= SYSCFG_MSR_MtrrFixDramModEn;
121         wrmsr(SYSCFG_MSR, sys_cfg);
122         enable_cache();
123
124         printk(BIOS_DEBUG, "\n");
125         /* Initialized the fixed_mtrrs to uncached */
126         printk(BIOS_DEBUG, "Setting fixed MTRRs(%d-%d) type: UC\n",
127                 0, NUM_FIXED_RANGES);
128         set_fixed_mtrrs(0, NUM_FIXED_RANGES, MTRR_TYPE_UNCACHEABLE);
129
130         /* Except for the PCI MMIO hole just before 4GB there are no
131          * significant holes in the address space, so just account
132          * for those two and move on.
133          */
134         state.mmio_basek = state.tomk = 0;
135         search_global_resources(
136                 IORESOURCE_MEM | IORESOURCE_CACHEABLE, IORESOURCE_MEM | IORESOURCE_CACHEABLE,
137                 set_fixed_mtrr_resource, &state);
138         printk(BIOS_DEBUG, "DONE fixed MTRRs\n");
139
140         if (state.mmio_basek > state.tomk) {
141                 state.mmio_basek = state.tomk;
142         }
143         /* Round state.mmio_basek down to the nearst size that will fit in TOP_MEM */
144         state.mmio_basek = state.mmio_basek & ~TOP_MEM_MASK_KB;
145         /* Round state.tomk up to the next greater size that will fit in TOP_MEM */
146         state.tomk = (state.tomk + TOP_MEM_MASK_KB) & ~TOP_MEM_MASK_KB;
147
148         disable_cache();
149
150         /* Setup TOP_MEM */
151         msr.hi = state.mmio_basek >> 22;
152         msr.lo = state.mmio_basek << 10;
153
154         /* If UMA graphics is enabled, the frame buffer memory
155          * has been deducted from the size of memory below 4GB.
156          * When setting TOM, include UMA DRAM
157          */
158         #if CONFIG_GFXUMA == 1
159         msr.lo += uma_memory_size;
160         #endif
161         wrmsr(TOP_MEM, msr);
162
163         sys_cfg.lo &= ~(SYSCFG_MSR_TOM2En | SYSCFG_MSR_TOM2WB);
164         if(state.tomk > (4*1024*1024)) {
165                 /* DRAM above 4GB: set TOM2, SYSCFG_MSR_TOM2En
166                  * and SYSCFG_MSR_TOM2WB
167                  */
168                 msr.hi = state.tomk >> 22;
169                 msr.lo = state.tomk << 10;
170                 wrmsr(TOP_MEM2, msr);
171                 sys_cfg.lo |= SYSCFG_MSR_TOM2En | SYSCFG_MSR_TOM2WB;
172         }
173
174         /* zero the IORR's before we enable to prevent
175          * undefined side effects.
176          */
177         msr.lo = msr.hi = 0;
178         for(i = IORR_FIRST; i <= IORR_LAST; i++) {
179                 wrmsr(i, msr);
180         }
181
182         /* Enable Variable Mtrrs
183          * Enable the RdMem and WrMem bits in the fixed mtrrs.
184          * Disable access to the RdMem and WrMem in the fixed mtrr.
185          */
186         sys_cfg.lo |= SYSCFG_MSR_MtrrVarDramEn | SYSCFG_MSR_MtrrFixDramEn;
187         sys_cfg.lo &= ~SYSCFG_MSR_MtrrFixDramModEn;
188         wrmsr(SYSCFG_MSR, sys_cfg);
189
190         enable_fixed_mtrr();
191
192         enable_cache();
193
194         address_bits = CONFIG_CPU_ADDR_BITS; //K8 could be 40, and GH could be 48
195
196         /* AMD specific cpuid function to query number of address bits */
197         if (cpuid_eax(0x80000000) >= 0x80000008) {
198                 address_bits = cpuid_eax(0x80000008) & 0xff;
199         }
200
201         /* Now that I have mapped what is memory and what is not
202          * Setup the mtrrs so we can cache the memory.
203          */
204         x86_setup_var_mtrrs(address_bits, 0);
205 }