ShellBanner
System:Linux MiraNet 3.0.0-14-generic-pae #23-Ubuntu SMP Mon Nov 21 22:07:10 UTC 2011 i686
Software:Apache. PHP/5.3.6-13ubuntu3.10
ID:uid=65534(nobody) gid=65534(nogroup) groups=65534(nogroup)
Safe Mode:OFF
Open_Basedir:OFF
Freespace:21.98 GB of 70.42 GB (31.22%)
MySQL: ON MSSQL: OFF Oracle: OFF PostgreSQL: OFF Curl: OFF Sockets: ON Fetch: OFF Wget: ON Perl: ON
Disabled Functions: pcntl_alarm,pcntl_fork,pcntl_waitpid,pcntl_wait,pcntl_wifexited,pcntl_wifstopped,pcntl_wifsignaled,pcntl_wexitstatus,pcntl_wtermsig,pcntl_wstopsig,pcntl_signal,pcntl_signal_dispatch,pcntl_get_last_error,pcntl_strerror,pcntl_sigprocmask,pcntl_sigwaitinfo,pcntl_sigtimedwait,pcntl_exec,pcntl_getpriority,pcntl_setpriority,

/ usr/ src/ linux-headers-3.0.0-14/ arch/ s390/ include/ asm/ - drwxr-xr-x

Directory:
Viewing file:     atomic.h (7.45 KB)      -rw-r--r--
Select action/file-type:
(+) | (+) | (+) | Code (+) | Session (+) | (+) | SDB (+) | (+) | (+) | (+) | (+) | (+) |
#ifndef __ARCH_S390_ATOMIC__
#define __ARCH_S390_ATOMIC__

/*
 * Copyright 1999,2009 IBM Corp.
 * Author(s): Martin Schwidefsky <schwidefsky@de.ibm.com>,
 *          Denis Joseph Barrow,
 *          Arnd Bergmann <arndb@de.ibm.com>,
 *
 * Atomic operations that C can't guarantee us.
 * Useful for resource counting etc.
 * s390 uses 'Compare And Swap' for atomicity in SMP environment.
 *
 */

#include <linux/compiler.h>
#include <linux/types.h>
#include <asm/system.h>

#define ATOMIC_INIT(i)  { (i) }

#define __CS_LOOP(ptr, op_val, op_string) ({                \
    int old_val, new_val;                        \
    asm volatile(                            \
        "    l    %0,%2\n"                \
        "0:    lr    %1,%0\n"                \
        op_string "    %1,%3\n"                \
        "    cs    %0,%1,%2\n"                \
        "    jl    0b"                    \
        : "=&d" (old_val), "=&d" (new_val),            \
          "=Q" (((atomic_t *)(ptr))->counter)            \
        : "d" (op_val),     "Q" (((atomic_t *)(ptr))->counter)    \
        : "cc", "memory");                    \
    new_val;                            \
})

static inline int atomic_read(const atomic_t *v)
{
    int c;

    asm volatile(
        "    l    %0,%1\n"
        : "=d" (c) : "Q" (v->counter));
    return c;
}

static inline void atomic_set(atomic_t *v, int i)
{
    asm volatile(
        "    st    %1,%0\n"
        : "=Q" (v->counter) : "d" (i));
}

static inline int atomic_add_return(int i, atomic_t *v)
{
    return __CS_LOOP(v, i, "ar");
}
#define atomic_add(_i, _v)        atomic_add_return(_i, _v)
#define atomic_add_negative(_i, _v)    (atomic_add_return(_i, _v) < 0)
#define atomic_inc(_v)            atomic_add_return(1, _v)
#define atomic_inc_return(_v)        atomic_add_return(1, _v)
#define atomic_inc_and_test(_v)        (atomic_add_return(1, _v) == 0)

static inline int atomic_sub_return(int i, atomic_t *v)
{
    return __CS_LOOP(v, i, "sr");
}
#define atomic_sub(_i, _v)        atomic_sub_return(_i, _v)
#define atomic_sub_and_test(_i, _v)    (atomic_sub_return(_i, _v) == 0)
#define atomic_dec(_v)            atomic_sub_return(1, _v)
#define atomic_dec_return(_v)        atomic_sub_return(1, _v)
#define atomic_dec_and_test(_v)        (atomic_sub_return(1, _v) == 0)

static inline void atomic_clear_mask(unsigned long mask, atomic_t *v)
{
    __CS_LOOP(v, ~mask, "nr");
}

static inline void atomic_set_mask(unsigned long mask, atomic_t *v)
{
    __CS_LOOP(v, mask, "or");
}

#define atomic_xchg(v, new) (xchg(&((v)->counter), new))

static inline int atomic_cmpxchg(atomic_t *v, int old, int new)
{
    asm volatile(
        "    cs    %0,%2,%1"
        : "+d" (old), "=Q" (v->counter)
        : "d" (new), "Q" (v->counter)
        : "cc", "memory");
    return old;
}

static inline int atomic_add_unless(atomic_t *v, int a, int u)
{
    int c, old;
    c = atomic_read(v);
    for (;;) {
        if (unlikely(c == u))
            break;
        old = atomic_cmpxchg(v, c, c + a);
        if (likely(old == c))
            break;
        c = old;
    }
    return c != u;
}

#define atomic_inc_not_zero(v) atomic_add_unless((v), 1, 0)

#undef __CS_LOOP

#define ATOMIC64_INIT(i)  { (i) }

#ifdef CONFIG_64BIT

#define __CSG_LOOP(ptr, op_val, op_string) ({                \
    long long old_val, new_val;                    \
    asm volatile(                            \
        "    lg    %0,%2\n"                \
        "0:    lgr    %1,%0\n"                \
        op_string "    %1,%3\n"                \
        "    csg    %0,%1,%2\n"                \
        "    jl    0b"                    \
        : "=&d" (old_val), "=&d" (new_val),            \
          "=Q" (((atomic_t *)(ptr))->counter)            \
        : "d" (op_val),    "Q" (((atomic_t *)(ptr))->counter)    \
        : "cc", "memory");                    \
    new_val;                            \
})

static inline long long atomic64_read(const atomic64_t *v)
{
    long long c;

    asm volatile(
        "    lg    %0,%1\n"
        : "=d" (c) : "Q" (v->counter));
    return c;
}

static inline void atomic64_set(atomic64_t *v, long long i)
{
    asm volatile(
        "    stg    %1,%0\n"
        : "=Q" (v->counter) : "d" (i));
}

static inline long long atomic64_add_return(long long i, atomic64_t *v)
{
    return __CSG_LOOP(v, i, "agr");
}

static inline long long atomic64_sub_return(long long i, atomic64_t *v)
{
    return __CSG_LOOP(v, i, "sgr");
}

static inline void atomic64_clear_mask(unsigned long mask, atomic64_t *v)
{
    __CSG_LOOP(v, ~mask, "ngr");
}

static inline void atomic64_set_mask(unsigned long mask, atomic64_t *v)
{
    __CSG_LOOP(v, mask, "ogr");
}

#define atomic64_xchg(v, new) (xchg(&((v)->counter), new))

static inline long long atomic64_cmpxchg(atomic64_t *v,
                         long long old, long long new)
{
    asm volatile(
        "    csg    %0,%2,%1"
        : "+d" (old), "=Q" (v->counter)
        : "d" (new), "Q" (v->counter)
        : "cc", "memory");
    return old;
}

#undef __CSG_LOOP

#else /* CONFIG_64BIT */

typedef struct {
    long long counter;
} atomic64_t;

static inline long long atomic64_read(const atomic64_t *v)
{
    register_pair rp;

    asm volatile(
        "    lm    %0,%N0,%1"
        : "=&d" (rp) : "Q" (v->counter)    );
    return rp.pair;
}

static inline void atomic64_set(atomic64_t *v, long long i)
{
    register_pair rp = {.pair = i};

    asm volatile(
        "    stm    %1,%N1,%0"
        : "=Q" (v->counter) : "d" (rp) );
}

static inline long long atomic64_xchg(atomic64_t *v, long long new)
{
    register_pair rp_new = {.pair = new};
    register_pair rp_old;

    asm volatile(
        "    lm    %0,%N0,%1\n"
        "0:    cds    %0,%2,%1\n"
        "    jl    0b\n"
        : "=&d" (rp_old), "=Q" (v->counter)
        : "d" (rp_new), "Q" (v->counter)
        : "cc");
    return rp_old.pair;
}

static inline long long atomic64_cmpxchg(atomic64_t *v,
                     long long old, long long new)
{
    register_pair rp_old = {.pair = old};
    register_pair rp_new = {.pair = new};

    asm volatile(
        "    cds    %0,%2,%1"
        : "+&d" (rp_old), "=Q" (v->counter)
        : "d" (rp_new), "Q" (v->counter)
        : "cc");
    return rp_old.pair;
}


static inline long long atomic64_add_return(long long i, atomic64_t *v)
{
    long long old, new;

    do {
        old = atomic64_read(v);
        new = old + i;
    } while (atomic64_cmpxchg(v, old, new) != old);
    return new;
}

static inline long long atomic64_sub_return(long long i, atomic64_t *v)
{
    long long old, new;

    do {
        old = atomic64_read(v);
        new = old - i;
    } while (atomic64_cmpxchg(v, old, new) != old);
    return new;
}

static inline void atomic64_set_mask(unsigned long long mask, atomic64_t *v)
{
    long long old, new;

    do {
        old = atomic64_read(v);
        new = old | mask;
    } while (atomic64_cmpxchg(v, old, new) != old);
}

static inline void atomic64_clear_mask(unsigned long long mask, atomic64_t *v)
{
    long long old, new;

    do {
        old = atomic64_read(v);
        new = old & mask;
    } while (atomic64_cmpxchg(v, old, new) != old);
}

#endif /* CONFIG_64BIT */

static inline int atomic64_add_unless(atomic64_t *v, long long a, long long u)
{
    long long c, old;

    c = atomic64_read(v);
    for (;;) {
        if (unlikely(c == u))
            break;
        old = atomic64_cmpxchg(v, c, c + a);
        if (likely(old == c))
            break;
        c = old;
    }
    return c != u;
}

static inline long long atomic64_dec_if_positive(atomic64_t *v)
{
    long long c, old, dec;

    c = atomic64_read(v);
    for (;;) {
        dec = c - 1;
        if (unlikely(dec < 0))
            break;
        old = atomic64_cmpxchg((v), c, dec);
        if (likely(old == c))
            break;
        c = old;
    }
    return dec;
}

#define atomic64_add(_i, _v)        atomic64_add_return(_i, _v)
#define atomic64_add_negative(_i, _v)    (atomic64_add_return(_i, _v) < 0)
#define atomic64_inc(_v)        atomic64_add_return(1, _v)
#define atomic64_inc_return(_v)        atomic64_add_return(1, _v)
#define atomic64_inc_and_test(_v)    (atomic64_add_return(1, _v) == 0)
#define atomic64_sub(_i, _v)        atomic64_sub_return(_i, _v)
#define atomic64_sub_and_test(_i, _v)    (atomic64_sub_return(_i, _v) == 0)
#define atomic64_dec(_v)        atomic64_sub_return(1, _v)
#define atomic64_dec_return(_v)        atomic64_sub_return(1, _v)
#define atomic64_dec_and_test(_v)    (atomic64_sub_return(1, _v) == 0)
#define atomic64_inc_not_zero(v)    atomic64_add_unless((v), 1, 0)

#define smp_mb__before_atomic_dec()    smp_mb()
#define smp_mb__after_atomic_dec()    smp_mb()
#define smp_mb__before_atomic_inc()    smp_mb()
#define smp_mb__after_atomic_inc()    smp_mb()

#include <asm-generic/atomic-long.h>

#endif /* __ARCH_S390_ATOMIC__  */
Command:
Quick Commands:
Upload:
[Read-Only] Max size: 100MB
PHP Filesystem: <@ Ú
Search File:
regexp
Create File:
Overwrite [Read-Only]
View File:
Mass Defacement:
[+] Main Directory: [+] Defacement Url:
LmfaoX Shell - Private Build [BETA] - v0.1 -; Generated: 0.3213 seconds