LCOV - code coverage report
Current view: top level - arch/arm/mm - fault.c (source / functions) Hit Total Coverage
Test: coverage.info Lines: 76 156 48.7 %
Date: 2014-04-16 Functions: 7 14 50.0 %
Branches: 61 92 66.3 %

           Branch data     Line data    Source code
       1                 :            : /*
       2                 :            :  *  linux/arch/arm/mm/fault.c
       3                 :            :  *
       4                 :            :  *  Copyright (C) 1995  Linus Torvalds
       5                 :            :  *  Modifications for ARM processor (c) 1995-2004 Russell King
       6                 :            :  *
       7                 :            :  * This program is free software; you can redistribute it and/or modify
       8                 :            :  * it under the terms of the GNU General Public License version 2 as
       9                 :            :  * published by the Free Software Foundation.
      10                 :            :  */
      11                 :            : #include <linux/module.h>
      12                 :            : #include <linux/signal.h>
      13                 :            : #include <linux/mm.h>
      14                 :            : #include <linux/hardirq.h>
      15                 :            : #include <linux/init.h>
      16                 :            : #include <linux/kprobes.h>
      17                 :            : #include <linux/uaccess.h>
      18                 :            : #include <linux/page-flags.h>
      19                 :            : #include <linux/sched.h>
      20                 :            : #include <linux/highmem.h>
      21                 :            : #include <linux/perf_event.h>
      22                 :            : 
      23                 :            : #include <asm/exception.h>
      24                 :            : #include <asm/pgtable.h>
      25                 :            : #include <asm/system_misc.h>
      26                 :            : #include <asm/system_info.h>
      27                 :            : #include <asm/tlbflush.h>
      28                 :            : 
      29                 :            : #include "fault.h"
      30                 :            : 
      31                 :            : #ifdef CONFIG_MMU
      32                 :            : 
      33                 :            : #ifdef CONFIG_KPROBES
      34                 :            : static inline int notify_page_fault(struct pt_regs *regs, unsigned int fsr)
      35                 :            : {
      36                 :            :         int ret = 0;
      37                 :            : 
      38         [ +  + ]:   64880574 :         if (!user_mode(regs)) {
      39                 :            :                 /* kprobe_running() needs smp_processor_id() */
      40                 :    1411843 :                 preempt_disable();
      41 [ -  + ][ #  # ]:    1411917 :                 if (kprobe_running() && kprobe_fault_handler(regs, fsr))
      42                 :            :                         ret = 1;
      43                 :    1411917 :                 preempt_enable();
      44                 :            :         }
      45                 :            : 
      46                 :            :         return ret;
      47                 :            : }
      48                 :            : #else
      49                 :            : static inline int notify_page_fault(struct pt_regs *regs, unsigned int fsr)
      50                 :            : {
      51                 :            :         return 0;
      52                 :            : }
      53                 :            : #endif
      54                 :            : 
      55                 :            : /*
      56                 :            :  * This is useful to dump out the page tables associated with
      57                 :            :  * 'addr' in mm 'mm'.
      58                 :            :  */
      59                 :          0 : void show_pte(struct mm_struct *mm, unsigned long addr)
      60                 :            : {
      61                 :            :         pgd_t *pgd;
      62                 :            : 
      63         [ #  # ]:          0 :         if (!mm)
      64                 :            :                 mm = &init_mm;
      65                 :            : 
      66                 :          0 :         printk(KERN_ALERT "pgd = %p\n", mm->pgd);
      67                 :          0 :         pgd = pgd_offset(mm, addr);
      68                 :          0 :         printk(KERN_ALERT "[%08lx] *pgd=%08llx",
      69                 :          0 :                         addr, (long long)pgd_val(*pgd));
      70                 :            : 
      71                 :            :         do {
      72                 :            :                 pud_t *pud;
      73                 :            :                 pmd_t *pmd;
      74                 :            :                 pte_t *pte;
      75                 :            : 
      76                 :            :                 if (pgd_none(*pgd))
      77                 :            :                         break;
      78                 :            : 
      79                 :            :                 if (pgd_bad(*pgd)) {
      80                 :            :                         printk("(bad)");
      81                 :            :                         break;
      82                 :            :                 }
      83                 :            : 
      84                 :            :                 pud = pud_offset(pgd, addr);
      85                 :            :                 if (PTRS_PER_PUD != 1)
      86                 :            :                         printk(", *pud=%08llx", (long long)pud_val(*pud));
      87                 :            : 
      88                 :            :                 if (pud_none(*pud))
      89                 :            :                         break;
      90                 :            : 
      91                 :            :                 if (pud_bad(*pud)) {
      92                 :            :                         printk("(bad)");
      93                 :            :                         break;
      94                 :            :                 }
      95                 :            : 
      96                 :            :                 pmd = pmd_offset(pud, addr);
      97                 :            :                 if (PTRS_PER_PMD != 1)
      98                 :            :                         printk(", *pmd=%08llx", (long long)pmd_val(*pmd));
      99                 :            : 
     100         [ #  # ]:          0 :                 if (pmd_none(*pmd))
     101                 :            :                         break;
     102                 :            : 
     103         [ #  # ]:          0 :                 if (pmd_bad(*pmd)) {
     104                 :          0 :                         printk("(bad)");
     105                 :          0 :                         break;
     106                 :            :                 }
     107                 :            : 
     108                 :            :                 /* We must not map this if we have highmem enabled */
     109         [ #  # ]:          0 :                 if (PageHighMem(pfn_to_page(pmd_val(*pmd) >> PAGE_SHIFT)))
     110                 :            :                         break;
     111                 :            : 
     112                 :          0 :                 pte = pte_offset_map(pmd, addr);
     113                 :          0 :                 printk(", *pte=%08llx", (long long)pte_val(*pte));
     114                 :            : #ifndef CONFIG_ARM_LPAE
     115                 :          0 :                 printk(", *ppte=%08llx",
     116                 :          0 :                        (long long)pte_val(pte[PTE_HWTABLE_PTRS]));
     117                 :            : #endif
     118                 :          0 :                 pte_unmap(pte);
     119                 :            :         } while(0);
     120                 :            : 
     121                 :          0 :         printk("\n");
     122                 :          0 : }
     123                 :            : #else                                   /* CONFIG_MMU */
     124                 :            : void show_pte(struct mm_struct *mm, unsigned long addr)
     125                 :            : { }
     126                 :            : #endif                                  /* CONFIG_MMU */
     127                 :            : 
     128                 :            : /*
     129                 :            :  * Oops.  The kernel tried to access some page that wasn't present.
     130                 :            :  */
     131                 :            : static void
     132                 :          0 : __do_kernel_fault(struct mm_struct *mm, unsigned long addr, unsigned int fsr,
     133                 :            :                   struct pt_regs *regs)
     134                 :            : {
     135                 :            :         /*
     136                 :            :          * Are we prepared to handle this kernel fault?
     137                 :            :          */
     138         [ -  + ]:       3343 :         if (fixup_exception(regs))
     139                 :       3343 :                 return;
     140                 :            : 
     141                 :            :         /*
     142                 :            :          * No handler, we'll have to terminate things with extreme prejudice.
     143                 :            :          */
     144                 :          0 :         bust_spinlocks(1);
     145         [ #  # ]:          0 :         printk(KERN_ALERT
     146                 :            :                 "Unable to handle kernel %s at virtual address %08lx\n",
     147                 :            :                 (addr < PAGE_SIZE) ? "NULL pointer dereference" :
     148                 :            :                 "paging request", addr);
     149                 :            : 
     150                 :          0 :         show_pte(mm, addr);
     151                 :          0 :         die("Oops", regs, fsr);
     152                 :          0 :         bust_spinlocks(0);
     153                 :          0 :         do_exit(SIGKILL);
     154                 :            : }
     155                 :            : 
     156                 :            : /*
     157                 :            :  * Something tried to access memory that isn't in our memory map..
     158                 :            :  * User mode accesses just cause a SIGSEGV
     159                 :            :  */
     160                 :            : static void
     161                 :      20359 : __do_user_fault(struct task_struct *tsk, unsigned long addr,
     162                 :            :                 unsigned int fsr, unsigned int sig, int code,
     163                 :            :                 struct pt_regs *regs)
     164                 :            : {
     165                 :            :         struct siginfo si;
     166                 :            : 
     167                 :            : #ifdef CONFIG_DEBUG_USER
     168                 :            :         if (((user_debug & UDBG_SEGV) && (sig == SIGSEGV)) ||
     169                 :            :             ((user_debug & UDBG_BUS)  && (sig == SIGBUS))) {
     170                 :            :                 printk(KERN_DEBUG "%s: unhandled page fault (%d) at 0x%08lx, code 0x%03x\n",
     171                 :            :                        tsk->comm, sig, addr, fsr);
     172                 :            :                 show_pte(tsk->mm, addr);
     173                 :            :                 show_regs(regs);
     174                 :            :         }
     175                 :            : #endif
     176                 :            : 
     177                 :      20359 :         tsk->thread.address = addr;
     178                 :      20359 :         tsk->thread.error_code = fsr;
     179                 :      20359 :         tsk->thread.trap_no = 14;
     180                 :      20359 :         si.si_signo = sig;
     181                 :      20359 :         si.si_errno = 0;
     182                 :      20359 :         si.si_code = code;
     183                 :      20359 :         si.si_addr = (void __user *)addr;
     184                 :      20359 :         force_sig_info(sig, &si, tsk);
     185                 :      20359 : }
     186                 :            : 
     187                 :          0 : void do_bad_area(unsigned long addr, unsigned int fsr, struct pt_regs *regs)
     188                 :            : {
     189                 :          0 :         struct task_struct *tsk = current;
     190                 :          0 :         struct mm_struct *mm = tsk->active_mm;
     191                 :            : 
     192                 :            :         /*
     193                 :            :          * If we are in kernel mode at this point, we
     194                 :            :          * have no context to handle this fault with.
     195                 :            :          */
     196         [ #  # ]:          0 :         if (user_mode(regs))
     197                 :          0 :                 __do_user_fault(tsk, addr, fsr, SIGSEGV, SEGV_MAPERR, regs);
     198                 :            :         else
     199                 :          0 :                 __do_kernel_fault(mm, addr, fsr, regs);
     200                 :          0 : }
     201                 :            : 
     202                 :            : #ifdef CONFIG_MMU
     203                 :            : #define VM_FAULT_BADMAP         0x010000
     204                 :            : #define VM_FAULT_BADACCESS      0x020000
     205                 :            : 
     206                 :            : /*
     207                 :            :  * Check that the permissions on the VMA allow for the fault which occurred.
     208                 :            :  * If we encountered a write fault, we must have write permission, otherwise
     209                 :            :  * we allow any permission.
     210                 :            :  */
     211                 :            : static inline bool access_error(unsigned int fsr, struct vm_area_struct *vma)
     212                 :            : {
     213                 :            :         unsigned int mask = VM_READ | VM_WRITE | VM_EXEC;
     214                 :            : 
     215         [ +  + ]:   64869361 :         if (fsr & FSR_WRITE)
     216                 :            :                 mask = VM_WRITE;
     217         [ +  + ]:   64869361 :         if (fsr & FSR_LNX_PF)
     218                 :            :                 mask = VM_EXEC;
     219                 :            : 
     220                 :          0 :         return vma->vm_flags & mask ? false : true;
     221                 :            : }
     222                 :            : 
     223                 :            : static int __kprobes
     224                 :          0 : __do_page_fault(struct mm_struct *mm, unsigned long addr, unsigned int fsr,
     225                 :            :                 unsigned int flags, struct task_struct *tsk)
     226                 :            : {
     227                 :   64869361 :         struct vm_area_struct *vma;
     228                 :            :         int fault;
     229                 :            : 
     230                 :   64898380 :         vma = find_vma(mm, addr);
     231                 :            :         fault = VM_FAULT_BADMAP;
     232         [ +  + ]:  129799734 :         if (unlikely(!vma))
     233                 :            :                 goto out;
     234         [ +  + ]:   64892941 :         if (unlikely(vma->vm_start > addr))
     235                 :            :                 goto check_stack;
     236                 :            : 
     237                 :            :         /*
     238                 :            :          * Ok, we have a good vm_area for this
     239                 :            :          * memory access, so we can handle it.
     240                 :            :          */
     241                 :            : good_area:
     242            [ + ]:   64869361 :         if (access_error(fsr, vma)) {
     243                 :            :                 fault = VM_FAULT_BADACCESS;
     244                 :            :                 goto out;
     245                 :            :         }
     246                 :            : 
     247                 :   64877661 :         return handle_mm_fault(mm, vma, addr & PAGE_MASK, flags);
     248                 :            : 
     249                 :            : check_stack:
     250                 :            :         /* Don't allow expansion below FIRST_USER_ADDRESS */
     251 [ +  + ][ +  - ]:      23637 :         if (vma->vm_flags & VM_GROWSDOWN &&
     252         [ +  + ]:      23750 :             addr >= FIRST_USER_ADDRESS && !expand_stack(vma, addr))
     253                 :            :                 goto good_area;
     254                 :            : out:
     255                 :            :         return fault;
     256                 :            : }
     257                 :            : 
     258                 :            : static int __kprobes
     259                 :          0 : do_page_fault(unsigned long addr, unsigned int fsr, struct pt_regs *regs)
     260                 :            : {
     261                 :            :         struct task_struct *tsk;
     262                 :            :         struct mm_struct *mm;
     263                 :            :         int fault, sig, code;
     264                 :            :         unsigned int flags = FAULT_FLAG_ALLOW_RETRY | FAULT_FLAG_KILLABLE;
     265                 :            : 
     266         [ +  - ]:   64876702 :         if (notify_page_fault(regs, fsr))
     267                 :            :                 return 0;
     268                 :            : 
     269                 :   64876702 :         tsk = current;
     270                 :   64876702 :         mm  = tsk->mm;
     271                 :            : 
     272                 :            :         /* Enable interrupts if they were enabled in the parent context. */
     273            [ + ]:   64876702 :         if (interrupts_enabled(regs))
     274                 :            :                 local_irq_enable();
     275                 :            : 
     276                 :            :         /*
     277                 :            :          * If we're in an interrupt, or have no irqs, or have no user
     278                 :            :          * context, we must not take the fault..
     279                 :            :          */
     280 [ +  +  + ][ + ]:  129779300 :         if (in_atomic() || irqs_disabled() || !mm)
     281                 :            :                 goto no_context;
     282                 :            : 
     283         [ +  + ]:   64887047 :         if (user_mode(regs))
     284                 :            :                 flags |= FAULT_FLAG_USER;
     285         [ +  + ]:   64887047 :         if (fsr & FSR_WRITE)
     286                 :   23357962 :                 flags |= FAULT_FLAG_WRITE;
     287                 :            : 
     288                 :            :         /*
     289                 :            :          * As per x86, we may deadlock here.  However, since the kernel only
     290                 :            :          * validly references user space from well defined areas of the code,
     291                 :            :          * we can bug out early if this is from code which shouldn't.
     292                 :            :          */
     293         [ +  + ]:   64887047 :         if (!down_read_trylock(&mm->mmap_sem)) {
     294    [ +  + ][ + ]:      94746 :                 if (!user_mode(regs) && !search_exception_tables(regs->ARM_pc))
     295                 :            :                         goto no_context;
     296                 :            : retry:
     297                 :     106280 :                 down_read(&mm->mmap_sem);
     298                 :            :         } else {
     299                 :            :                 /*
     300                 :            :                  * The above down_read_trylock() might have succeeded in
     301                 :            :                  * which case, we'll have missed the might_sleep() from
     302                 :            :                  * down_read()
     303                 :            :                  */
     304                 :            :                 might_sleep();
     305                 :            : #ifdef CONFIG_DEBUG_VM
     306                 :            :                 if (!user_mode(regs) &&
     307                 :            :                     !search_exception_tables(regs->ARM_pc))
     308                 :            :                         goto no_context;
     309                 :            : #endif
     310                 :            :         }
     311                 :            : 
     312                 :   64904834 :         fault = __do_page_fault(mm, addr, fsr, flags, tsk);
     313                 :            : 
     314                 :            :         /* If we need to retry but a fatal signal is pending, handle the
     315                 :            :          * signal first. We do not need to release the mmap_sem because
     316                 :            :          * it would already be released in __lock_page_or_retry in
     317                 :            :          * mm/filemap.c. */
     318    [ +  + ][ + ]:   64902369 :         if ((fault & VM_FAULT_RETRY) && fatal_signal_pending(current))
     319                 :            :                 return 0;
     320                 :            : 
     321                 :            :         /*
     322                 :            :          * Major/minor page fault accounting is only done on the
     323                 :            :          * initial attempt. If we go through a retry, it is extremely
     324                 :            :          * likely that the page will be found in page cache at that point.
     325                 :            :          */
     326                 :            : 
     327                 :   64893795 :         perf_sw_event(PERF_COUNT_SW_PAGE_FAULTS, 1, regs, addr);
     328 [ +  + ][ +  + ]:   64893795 :         if (!(fault & VM_FAULT_ERROR) && flags & FAULT_FLAG_ALLOW_RETRY) {
     329         [ +  + ]:   64884782 :                 if (fault & VM_FAULT_MAJOR) {
     330                 :       3153 :                         tsk->maj_flt++;
     331                 :            :                         perf_sw_event(PERF_COUNT_SW_PAGE_FAULTS_MAJ, 1,
     332                 :            :                                         regs, addr);
     333                 :            :                 } else {
     334                 :   64881629 :                         tsk->min_flt++;
     335                 :            :                         perf_sw_event(PERF_COUNT_SW_PAGE_FAULTS_MIN, 1,
     336                 :            :                                         regs, addr);
     337                 :            :                 }
     338         [ +  + ]:   64883056 :                 if (fault & VM_FAULT_RETRY) {
     339                 :            :                         /* Clear FAULT_FLAG_ALLOW_RETRY to avoid any risk
     340                 :            :                         * of starvation. */
     341                 :      11550 :                         flags &= ~FAULT_FLAG_ALLOW_RETRY;
     342                 :      11550 :                         flags |= FAULT_FLAG_TRIED;
     343                 :      11550 :                         goto retry;
     344                 :            :                 }
     345                 :            :         }
     346                 :            : 
     347                 :   64880519 :         up_read(&mm->mmap_sem);
     348                 :            : 
     349                 :            :         /*
     350                 :            :          * Handle the "normal" case first - VM_FAULT_MAJOR / VM_FAULT_MINOR
     351                 :            :          */
     352         [ +  + ]:   64895651 :         if (likely(!(fault & (VM_FAULT_ERROR | VM_FAULT_BADMAP | VM_FAULT_BADACCESS))))
     353                 :            :                 return 0;
     354                 :            : 
     355                 :            :         /*
     356                 :            :          * If we are in kernel mode at this point, we
     357                 :            :          * have no context to handle this fault with.
     358                 :            :          */
     359         [ +  + ]:      23695 :         if (!user_mode(regs))
     360                 :            :                 goto no_context;
     361                 :            : 
     362         [ +  + ]:      20360 :         if (fault & VM_FAULT_OOM) {
     363                 :            :                 /*
     364                 :            :                  * We ran out of memory, call the OOM killer, and return to
     365                 :            :                  * userspace (which will retry the fault, or kill us if we
     366                 :            :                  * got oom-killed)
     367                 :            :                  */
     368                 :          1 :                 pagefault_out_of_memory();
     369                 :          1 :                 return 0;
     370                 :            :         }
     371                 :            : 
     372         [ +  + ]:      20359 :         if (fault & VM_FAULT_SIGBUS) {
     373                 :            :                 /*
     374                 :            :                  * We had some memory, but were unable to
     375                 :            :                  * successfully fix up this page fault.
     376                 :            :                  */
     377                 :            :                 sig = SIGBUS;
     378                 :            :                 code = BUS_ADRERR;
     379                 :            :         } else {
     380                 :            :                 /*
     381                 :            :                  * Something tried to access memory that
     382                 :            :                  * isn't in our memory map..
     383                 :            :                  */
     384                 :            :                 sig = SIGSEGV;
     385                 :            :                 code = fault == VM_FAULT_BADACCESS ?
     386         [ +  + ]:      20358 :                         SEGV_ACCERR : SEGV_MAPERR;
     387                 :            :         }
     388                 :            : 
     389                 :      20359 :         __do_user_fault(tsk, addr, fsr, sig, code, regs);
     390                 :      20359 :         return 0;
     391                 :            : 
     392                 :            : no_context:
     393                 :       1350 :         __do_kernel_fault(mm, addr, fsr, regs);
     394                 :       3343 :         return 0;
     395                 :            : }
     396                 :            : #else                                   /* CONFIG_MMU */
     397                 :            : static int
     398                 :            : do_page_fault(unsigned long addr, unsigned int fsr, struct pt_regs *regs)
     399                 :            : {
     400                 :            :         return 0;
     401                 :            : }
     402                 :            : #endif                                  /* CONFIG_MMU */
     403                 :            : 
     404                 :            : /*
     405                 :            :  * First Level Translation Fault Handler
     406                 :            :  *
     407                 :            :  * We enter here because the first level page table doesn't contain
     408                 :            :  * a valid entry for the address.
     409                 :            :  *
     410                 :            :  * If the address is in kernel space (>= TASK_SIZE), then we are
     411                 :            :  * probably faulting in the vmalloc() area.
     412                 :            :  *
     413                 :            :  * If the init_task's first level page tables contains the relevant
     414                 :            :  * entry, we copy the it to this task.  If not, we send the process
     415                 :            :  * a signal, fixup the exception, or oops the kernel.
     416                 :            :  *
     417                 :            :  * NOTE! We MUST NOT take any locks for this case. We may be in an
     418                 :            :  * interrupt or a critical region, and should only copy the information
     419                 :            :  * from the master page table, nothing more.
     420                 :            :  */
     421                 :            : #ifdef CONFIG_MMU
     422                 :            : static int __kprobes
     423                 :          0 : do_translation_fault(unsigned long addr, unsigned int fsr,
     424                 :            :                      struct pt_regs *regs)
     425                 :            : {
     426                 :            :         unsigned int index;
     427                 :            :         pgd_t *pgd, *pgd_k;
     428                 :            :         pud_t *pud, *pud_k;
     429                 :            :         pmd_t *pmd, *pmd_k;
     430                 :            : 
     431         [ +  + ]:     138439 :         if (addr < TASK_SIZE)
     432                 :     138385 :                 return do_page_fault(addr, fsr, regs);
     433                 :            : 
     434         [ +  - ]:         54 :         if (user_mode(regs))
     435                 :            :                 goto bad_area;
     436                 :            : 
     437                 :         54 :         index = pgd_index(addr);
     438                 :            : 
     439                 :        108 :         pgd = cpu_get_pgd() + index;
     440                 :         54 :         pgd_k = init_mm.pgd + index;
     441                 :            : 
     442                 :            :         if (pgd_none(*pgd_k))
     443                 :            :                 goto bad_area;
     444                 :            :         if (!pgd_present(*pgd))
     445                 :            :                 set_pgd(pgd, *pgd_k);
     446                 :            : 
     447                 :            :         pud = pud_offset(pgd, addr);
     448                 :            :         pud_k = pud_offset(pgd_k, addr);
     449                 :            : 
     450                 :            :         if (pud_none(*pud_k))
     451                 :            :                 goto bad_area;
     452                 :            :         if (!pud_present(*pud)) {
     453                 :            :                 set_pud(pud, *pud_k);
     454                 :            :                 /*
     455                 :            :                  * There is a small window during free_pgtables() where the
     456                 :            :                  * user *pud entry is 0 but the TLB has not been invalidated
     457                 :            :                  * and we get a level 2 (pmd) translation fault caused by the
     458                 :            :                  * intermediate TLB caching of the old level 1 (pud) entry.
     459                 :            :                  */
     460                 :            :                 flush_tlb_kernel_page(addr);
     461                 :            :         }
     462                 :            : 
     463                 :            :         pmd = pmd_offset(pud, addr);
     464                 :            :         pmd_k = pmd_offset(pud_k, addr);
     465                 :            : 
     466                 :            : #ifdef CONFIG_ARM_LPAE
     467                 :            :         /*
     468                 :            :          * Only one hardware entry per PMD with LPAE.
     469                 :            :          */
     470                 :            :         index = 0;
     471                 :            : #else
     472                 :            :         /*
     473                 :            :          * On ARM one Linux PGD entry contains two hardware entries (see page
     474                 :            :          * tables layout in pgtable.h). We normally guarantee that we always
     475                 :            :          * fill both L1 entries. But create_mapping() doesn't follow the rule.
     476                 :            :          * It can create inidividual L1 entries, so here we have to call
     477                 :            :          * pmd_none() check for the entry really corresponded to address, not
     478                 :            :          * for the first of pair.
     479                 :            :          */
     480                 :         54 :         index = (addr >> SECTION_SHIFT) & 1;
     481                 :            : #endif
     482         [ +  - ]:         54 :         if (pmd_none(pmd_k[index]))
     483                 :            :                 goto bad_area;
     484         [ +  - ]:         54 :         if (!pmd_present(pmd[index]))
     485                 :         54 :                 copy_pmd(pmd, pmd_k);
     486                 :            : 
     487                 :            :         return 0;
     488                 :            : 
     489                 :            : bad_area:
     490                 :          0 :         do_bad_area(addr, fsr, regs);
     491                 :          0 :         return 0;
     492                 :            : }
     493                 :            : #else                                   /* CONFIG_MMU */
     494                 :            : static int
     495                 :            : do_translation_fault(unsigned long addr, unsigned int fsr,
     496                 :            :                      struct pt_regs *regs)
     497                 :            : {
     498                 :            :         return 0;
     499                 :            : }
     500                 :            : #endif                                  /* CONFIG_MMU */
     501                 :            : 
     502                 :            : /*
     503                 :            :  * Some section permission faults need to be handled gracefully.
     504                 :            :  * They can happen due to a __{get,put}_user during an oops.
     505                 :            :  */
     506                 :            : #ifndef CONFIG_ARM_LPAE
     507                 :            : static int
     508                 :          0 : do_sect_fault(unsigned long addr, unsigned int fsr, struct pt_regs *regs)
     509                 :            : {
     510                 :          0 :         do_bad_area(addr, fsr, regs);
     511                 :          0 :         return 0;
     512                 :            : }
     513                 :            : #endif /* CONFIG_ARM_LPAE */
     514                 :            : 
     515                 :            : /*
     516                 :            :  * This abort handler always returns "fault".
     517                 :            :  */
     518                 :            : static int
     519                 :          0 : do_bad(unsigned long addr, unsigned int fsr, struct pt_regs *regs)
     520                 :            : {
     521                 :          0 :         return 1;
     522                 :            : }
     523                 :            : 
     524                 :            : struct fsr_info {
     525                 :            :         int     (*fn)(unsigned long addr, unsigned int fsr, struct pt_regs *regs);
     526                 :            :         int     sig;
     527                 :            :         int     code;
     528                 :            :         const char *name;
     529                 :            : };
     530                 :            : 
     531                 :            : /* FSR definition */
     532                 :            : #ifdef CONFIG_ARM_LPAE
     533                 :            : #include "fsr-3level.c"
     534                 :            : #else
     535                 :            : #include "fsr-2level.c"
     536                 :            : #endif
     537                 :            : 
     538                 :            : void __init
     539                 :          0 : hook_fault_code(int nr, int (*fn)(unsigned long, unsigned int, struct pt_regs *),
     540                 :            :                 int sig, int code, const char *name)
     541                 :            : {
     542         [ #  # ]:          0 :         if (nr < 0 || nr >= ARRAY_SIZE(fsr_info))
     543                 :          0 :                 BUG();
     544                 :            : 
     545                 :          0 :         fsr_info[nr].fn   = fn;
     546                 :          0 :         fsr_info[nr].sig  = sig;
     547                 :          0 :         fsr_info[nr].code = code;
     548                 :          0 :         fsr_info[nr].name = name;
     549                 :          0 : }
     550                 :            : 
     551                 :            : /*
     552                 :            :  * Dispatch a data abort to the relevant handler.
     553                 :            :  */
     554                 :            : asmlinkage void __exception
     555                 :          0 : do_DataAbort(unsigned long addr, unsigned int fsr, struct pt_regs *regs)
     556                 :            : {
     557                 :   44502712 :         const struct fsr_info *inf = fsr_info + fsr_fs(fsr);
     558                 :            :         struct siginfo info;
     559                 :            : 
     560         [ -  + ]:   44502712 :         if (!inf->fn(addr, fsr & ~FSR_LNX_PF, regs))
     561                 :   44504217 :                 return;
     562                 :            : 
     563                 :          0 :         printk(KERN_ALERT "Unhandled fault: %s (0x%03x) at 0x%08lx\n",
     564                 :            :                 inf->name, fsr, addr);
     565                 :            : 
     566                 :          0 :         info.si_signo = inf->sig;
     567                 :          0 :         info.si_errno = 0;
     568                 :          0 :         info.si_code  = inf->code;
     569                 :          0 :         info.si_addr  = (void __user *)addr;
     570                 :          0 :         arm_notify_die("", regs, &info, fsr, 0);
     571                 :            : }
     572                 :            : 
     573                 :            : void __init
     574                 :          0 : hook_ifault_code(int nr, int (*fn)(unsigned long, unsigned int, struct pt_regs *),
     575                 :            :                  int sig, int code, const char *name)
     576                 :            : {
     577         [ #  # ]:          0 :         if (nr < 0 || nr >= ARRAY_SIZE(ifsr_info))
     578                 :          0 :                 BUG();
     579                 :            : 
     580                 :          0 :         ifsr_info[nr].fn   = fn;
     581                 :          0 :         ifsr_info[nr].sig  = sig;
     582                 :          0 :         ifsr_info[nr].code = code;
     583                 :          0 :         ifsr_info[nr].name = name;
     584                 :          0 : }
     585                 :            : 
     586                 :            : asmlinkage void __exception
     587                 :          0 : do_PrefetchAbort(unsigned long addr, unsigned int ifsr, struct pt_regs *regs)
     588                 :            : {
     589                 :   20388582 :         const struct fsr_info *inf = ifsr_info + fsr_fs(ifsr);
     590                 :            :         struct siginfo info;
     591                 :            : 
     592         [ -  + ]:   20388582 :         if (!inf->fn(addr, ifsr | FSR_LNX_PF, regs))
     593                 :   20389023 :                 return;
     594                 :            : 
     595                 :          0 :         printk(KERN_ALERT "Unhandled prefetch abort: %s (0x%03x) at 0x%08lx\n",
     596                 :            :                 inf->name, ifsr, addr);
     597                 :            : 
     598                 :          0 :         info.si_signo = inf->sig;
     599                 :          0 :         info.si_errno = 0;
     600                 :          0 :         info.si_code  = inf->code;
     601                 :          0 :         info.si_addr  = (void __user *)addr;
     602                 :          0 :         arm_notify_die("", regs, &info, ifsr, 0);
     603                 :            : }
     604                 :            : 
     605                 :            : #ifndef CONFIG_ARM_LPAE
     606                 :          0 : static int __init exceptions_init(void)
     607                 :            : {
     608         [ #  # ]:          0 :         if (cpu_architecture() >= CPU_ARCH_ARMv6) {
     609                 :          0 :                 hook_fault_code(4, do_translation_fault, SIGSEGV, SEGV_MAPERR,
     610                 :            :                                 "I-cache maintenance fault");
     611                 :            :         }
     612                 :            : 
     613         [ #  # ]:          0 :         if (cpu_architecture() >= CPU_ARCH_ARMv7) {
     614                 :            :                 /*
     615                 :            :                  * TODO: Access flag faults introduced in ARMv6K.
     616                 :            :                  * Runtime check for 'K' extension is needed
     617                 :            :                  */
     618                 :          0 :                 hook_fault_code(3, do_bad, SIGSEGV, SEGV_MAPERR,
     619                 :            :                                 "section access flag fault");
     620                 :          0 :                 hook_fault_code(6, do_bad, SIGSEGV, SEGV_MAPERR,
     621                 :            :                                 "section access flag fault");
     622                 :            :         }
     623                 :            : 
     624                 :          0 :         return 0;
     625                 :            : }
     626                 :            : 
     627                 :            : arch_initcall(exceptions_init);
     628                 :            : #endif

Generated by: LCOV version 1.9